JP6924319B2 - User interface for capturing and managing visual media - Google Patents

User interface for capturing and managing visual media Download PDF

Info

Publication number
JP6924319B2
JP6924319B2 JP2020184471A JP2020184471A JP6924319B2 JP 6924319 B2 JP6924319 B2 JP 6924319B2 JP 2020184471 A JP2020184471 A JP 2020184471A JP 2020184471 A JP2020184471 A JP 2020184471A JP 6924319 B2 JP6924319 B2 JP 6924319B2
Authority
JP
Japan
Prior art keywords
content
representation
cameras
display
user interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020184471A
Other languages
Japanese (ja)
Other versions
JP2021051752A (en
Inventor
ジェイ マンザリ ベーキッシュ
ジェイ マンザリ ベーキッシュ
ソウザ ドス サントス アンドレ
ソウザ ドス サントス アンドレ
ポール グラント
ポール グラント
エイ ソレンティーノ ザ サード ウィリアム
エイ ソレンティーノ ザ サード ウィリアム
トレント プレストン ダニエル
トレント プレストン ダニエル
エス ブロートン リー
エス ブロートン リー
ロバート トム ガーリング ルーカス
ロバート トム ガーリング ルーカス
マコーマック ジョン
マコーマック ジョン
ヒューベル ポール
ヒューベル ポール
デシュパンデ アロク
デシュパンデ アロク
ルピネッティ ニック
ルピネッティ ニック
エヴァンズ ハンキー エム
エヴァンズ ハンキー エム
シー ダイ アラン
シー ダイ アラン
エム フェデリギ クレイグ
エム フェデリギ クレイグ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US16/582,595 external-priority patent/US10674072B1/en
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2021051752A publication Critical patent/JP2021051752A/en
Application granted granted Critical
Publication of JP6924319B2 publication Critical patent/JP6924319B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/445Program loading or initiating
    • G06F9/44521Dynamic linking or loading; Link editing at or after load time, e.g. Java class loading
    • G06F9/44526Plug-ins; Add-ons
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72439User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for image or video messaging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/684Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time
    • H04N23/6845Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time by combination of a plurality of images sequentially taken
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)
  • Telephone Function (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Stroboscope Apparatuses (AREA)
  • Exposure Control For Cameras (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Solid-Sorbent Or Filter-Aiding Compositions (AREA)
  • Investigating Or Analysing Biological Materials (AREA)

Description

(関連出願の相互参照)
本出願は、米国特許出願第62/844,110号、表題「USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA」(2019年5月6日出願)及び米国特許出願第62/856,036号、表題「USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA」(2019年6月1日出願)(これらの内容は全体として本明細書に参考として組み込まれる)に関する。
(Cross-reference of related applications)
This application includes U.S. Patent Application No. 62 / 844,110, title "USER InterfaceS FOR CAPTURING AND MANAGING VISUAL MEDIA" (filed May 6, 2019) and U.S. Patent Application No. 62 / 856,036, title "USER". INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA "(filed June 1, 2019) (these contents are incorporated herein by reference in their entirety).

本開示は、概して、コンピュータユーザインタフェースに関し、より詳細には視覚メディアをキャプチャ及び管理する技術に関する。 The present disclosure relates generally to computer user interfaces, and more specifically to techniques for capturing and managing visual media.

スマートフォン及び他のパーソナル電子デバイスのユーザは、思い出を安全に守り、友人と共有するために、より頻繁にメディアをキャプチャし、記憶し、編集する。いくつかの既存の技術により、ユーザは画像又はビデオをキャプチャすることができた。ユーザは、例えば、メディアをキャプチャし、記憶し、編集することによって、そのようなメディアを管理することができる。 Users of smartphones and other personal electronic devices capture, store and edit media more often to keep their memories safe and share with friends. Some existing technologies have allowed users to capture images or videos. The user can manage such media, for example, by capturing, storing, and editing the media.

しかしながら、電子デバイスを使用してメディアをキャプチャ及び管理するいくつかの技術は、概して面倒であり、非効率である。例えば、一部の既存の技術では、複数回のキー押下又は打鍵を含む場合がある、複雑かつ時間のかかるユーザインタフェースが使用されている。既存の技術は、必要以上の時間を要し、ユーザの時間及びデバイスのエネルギを浪費する。後者の問題は、バッテリ動作式デバイスにおいては特に重大である。 However, some techniques for capturing and managing media using electronic devices are generally cumbersome and inefficient. For example, some existing technologies use complex and time consuming user interfaces that may involve multiple key presses or keystrokes. Existing technologies require more time than necessary, wasting user time and device energy. The latter problem is particularly serious in battery-powered devices.

したがって、本技術は、メディアをキャプチャ及び管理するための、より速く、より効率的な方法及びインタフェースを電子デバイスに提供する。このような方法及びインタフェースは、メディアをキャプチャ及び管理するための他の方法を任意に補完するか、又は置き換わる。そのような方法及びインタフェースは、ユーザにかかる認識的負担を低減させ、より効率的なヒューマン−マシンインタフェースを作成する。バッテリ動作式コンピューティングデバイスの場合、そのような方法及びインタフェースは、電力を節約し、電池充電の間隔を長くする。 Therefore, the technology provides electronic devices with faster, more efficient methods and interfaces for capturing and managing media. Such methods and interfaces optionally complement or replace other methods for capturing and managing media. Such methods and interfaces reduce the cognitive burden on the user and create a more efficient human-machine interface. For battery-powered computing devices, such methods and interfaces save power and increase battery charging intervals.

いくつかの例では、本技術は、ユーザが、時間効率及び入力効率が良い方法でキャプチャされたメディアを編集することを可能にし、それにより、デバイスが行う必要がある処理の量を低減することができる。いくつかの例では、本技術は、フレームレートを管理し、それにより、記憶空間を節約し、処理要件を低減する。 In some examples, the technology allows the user to edit the captured media in a time-efficient and input-efficient manner, thereby reducing the amount of processing that the device needs to do. Can be done. In some examples, the technology manages frame rates, thereby saving storage space and reducing processing requirements.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスで行われる。この方法は、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、複数のコントロールアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することと、第1の既定の条件及び第2の既定の条件が満たされない間に、第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示することと、第1のコントロールアフォーダンスを表示することなく、かつ第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示している間に、条件の変化を検出することと、条件の変化を検出したことに応答して、第1の既定の条件が満たされているという判定に従って、第1のコントロールアフォーダンスを表示することと、第2の既定の条件が満たされているという判定に従って、第2のコントロールアフォーダンスを表示することと、を含む。 According to some embodiments, the method is described. This method is performed on a display device and an electronic device having one or more cameras. The method is to display the camera user interface via a display device, the camera user interface including a camera display area containing representations of the field of view of one or more cameras and camera controls including multiple control affordances. Displaying the camera user interface, including the area, and the first control affordance associated with the first default condition while the first and second default conditions are not met. Displaying the camera user interface without displaying and without displaying the second control affordance associated with the second default condition, and without displaying the first control affordance, and the second The first default condition is met in response to detecting a change in condition and detecting a change in condition while displaying the camera user interface without displaying the control affordance of. It includes displaying the first control affordance according to the determination that the control affordance is satisfied, and displaying the second control affordance according to the determination that the second predetermined condition is satisfied.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、複数のコントロールアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することと、第1の既定の条件及び第2の既定の条件が満たされない間に、第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示することと、第1のコントロールアフォーダンスを表示することなく、かつ第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示している間に、条件の変化を検出することと、条件の変化を検出したことに応答して、第1の既定の条件が満たされているという判定に従って、第1のコントロールアフォーダンスを表示することと、第2の既定の条件が満たされているという判定に従って、第2のコントロールアフォーダンスを表示することと、の命令を含む。 According to some embodiments, non-temporary computer-readable storage media are described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras. Is to display the camera user interface via a display device, wherein the camera user interface includes a camera display area that includes a representation of the field of view of one or more cameras and a camera control area that includes a plurality of control accommodations. Display the camera user interface, including, and display the first control affordance associated with the first default condition while the first and second default conditions are not met. Displaying the camera user interface without displaying the second control affordance associated with the second default condition, and without displaying the first control affordance, and without displaying the second control. The first default condition is met in response to detecting a change in condition and detecting a change in condition while displaying the camera user interface without displaying the accommodation. According to the determination that the first control affordance is displayed, and according to the determination that the second predetermined condition is satisfied, the second control affordance is displayed.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、複数のコントロールアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することと、第1の既定の条件及び第2の既定の条件が満たされない間に、第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示することと、第1のコントロールアフォーダンスを表示することなく、かつ第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示している間に、条件の変化を検出することと、条件の変化を検出したことに応答して、第1の既定の条件が満たされているという判定に従って、第1のコントロールアフォーダンスを表示することと、第2の既定の条件が満たされているという判定に従って、第2のコントロールアフォーダンスを表示することと、の命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras. The display of a camera user interface via a display device, wherein the camera user interface includes a camera display area that includes representations of the field of view of one or more cameras, and a camera control area that includes multiple control accommodations. Displaying the camera user interface, including, and displaying the first control affordance associated with the first default condition while the first and second default conditions are not met. Displaying the camera user interface without displaying the second control affordance associated with the second default condition, and without displaying the first control affordance, and without displaying the second control affordance. The first default condition is met in response to detecting a change in condition and detecting a change in condition while displaying the camera user interface without displaying. It includes an instruction to display the first control affordance according to the determination and to display the second control affordance according to the determination that the second predetermined condition is satisfied.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、複数のコントロールアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することと、第1の既定の条件及び第2の既定の条件が満たされない間に、第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示することと、第1のコントロールアフォーダンスを表示することなく、かつ第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示している間に、条件の変化を検出することと、条件の変化を検出したことに応答して、第1の既定の条件が満たされているという判定に従って、第1のコントロールアフォーダンスを表示することと、第2の既定の条件が満たされているという判定に従って、第2のコントロールアフォーダンスを表示することと、の命令を含む。 According to some embodiments, electronic devices are described. The electronic device comprises a display device, one or more cameras, one or more processors, and a memory for storing one or more programs configured to be executed by the one or more processors. One or more programs display the camera user interface through a display device, the camera user interface having a camera display area containing a representation of the field of view of one or more cameras and a plurality of control affordances. Displaying the camera user interface, including, and the first associated with the first default condition while the first and second default conditions are not met. Without displaying the control affordance of, and without displaying the second control affordance associated with the second default condition, without displaying the camera user interface, and without displaying the first control affordance. And in response to detecting a change in condition and detecting a change in condition while displaying the camera user interface without displaying a second control affordance, the first default The command to display the first control affordance according to the determination that the condition is satisfied and to display the second control affordance according to the determination that the second default condition is satisfied. include.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、複数のコントロールアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示する手段と、第1の既定の条件及び第2の既定の条件が満たされない間に、第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示する手段と、第1のコントロールアフォーダンスを表示することなく、かつ第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示している間に、条件の変化を検出する手段と、条件の変化を検出したことに応答して、第1の既定の条件が満たされているという判定に従って、第1のコントロールアフォーダンスを表示する手段と、第2の既定の条件が満たされているという判定に従って、第2のコントロールアフォーダンスを表示する手段と、を備える。 According to some embodiments, electronic devices are described. This electronic device is a means of displaying a camera user interface through a display device, one or more cameras, and a display device, wherein the camera user interface includes a representation of the field of view of one or more cameras. A means of displaying a camera user interface, including a display area and a camera control area containing a plurality of control affordances, and a first default while the first and second default conditions are not met. A means of displaying the camera user interface without displaying the first control affordance associated with the condition of, and without displaying the second control affordance associated with the second default condition, and the first. Means for detecting changes in conditions and responding to detection of changes in conditions while displaying the camera user interface without displaying the control affordances of Then, according to the determination that the first default condition is satisfied, the means for displaying the first control affordance, and according to the determination that the second default condition is satisfied, the second control affordance is performed. It is provided with a means for displaying.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスで行われる。この方法は、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の場所で複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することと、カメラユーザインタフェースを表示している間に、カメラユーザインタフェース上で第1のジェスチャを検出することと、第1のジェスチャを検出したことに応答して、カメラコントロール領域の外観を修正することであって、ジェスチャが第1のタイプのジェスチャであるという判定に従って、第1の場所で1つ以上の追加のカメラモードアフォーダンスを表示することと、ジェスチャが第1のタイプとは異なる第2のタイプのジェスチャであるという判定に従って、複数のカメラモードアフォーダンスの表示を停止することと、第1の場所で複数のカメラ設定アフォーダンスを表示することと、を含み、カメラ設定アフォーダンスが、現在選択されているカメラモードの画像キャプチャを調整する設定である、カメラコントロール領域の外観を修正することと、を含む。 According to some embodiments, the method is described. This method is performed on a display device and an electronic device having one or more cameras. The method is to display the camera user interface via a display device, the camera user interface having a camera display area containing a representation of the field of view of one or more cameras and a plurality of cameras in a first location. Displaying the camera user interface, including the camera control area including mode accommodation, and detecting the first gesture on the camera user interface while displaying the camera user interface, and the first. Modifying the appearance of the camera control area in response to detecting a gesture, one or more additional camera modes in the first location, depending on the determination that the gesture is a first type of gesture. Displaying the affordance and stopping the display of multiple camera modes according to the determination that the gesture is a second type of gesture different from the first type, and setting multiple cameras in the first location. Includes displaying affordance and modifying the appearance of the camera control area, which is a setting that adjusts the camera settings affordance for the currently selected camera mode image capture.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の場所で複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することと、カメラユーザインタフェースを表示している間に、カメラユーザインタフェース上で第1のジェスチャを検出することと、第1のジェスチャを検出したことに応答して、カメラコントロール領域の外観を修正することであって、ジェスチャが第1のタイプのジェスチャであるという判定に従って、第1の場所で1つ以上の追加のカメラモードアフォーダンスを表示することと、ジェスチャが第1のタイプとは異なる第2のタイプのジェスチャであるという判定に従って、複数のカメラモードアフォーダンスの表示を停止することと、第1の場所で複数のカメラ設定アフォーダンスを表示することと、を含み、カメラ設定アフォーダンスが、現在選択されているカメラモードの画像キャプチャを調整する設定である、カメラコントロール領域の外観を修正することと、の命令を含む。 According to some embodiments, non-temporary computer-readable storage media are described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras. Is to display the camera user interface through a display device, wherein the camera user interface has a camera display area containing a representation of the field of view of one or more cameras and a plurality of camera mode affordances in a first place. To display the camera user interface, including, and to detect the first gesture on the camera user interface while displaying the camera user interface, and to display the first gesture. Modifying the appearance of the camera control area in response to detection, with one or more additional camera mode affordances in the first location, depending on the determination that the gesture is the first type of gesture. Stop displaying multiple camera mode affordances and perform multiple camera setting affordances in the first location, depending on the display and the determination that the gesture is a second type of gesture different from the first type. Includes instructions to display and to modify the appearance of the camera control area, where the camera settings affordance is a setting that adjusts the image capture for the currently selected camera mode.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の場所で複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することと、カメラユーザインタフェースを表示している間に、カメラユーザインタフェース上で第1のジェスチャを検出することと、第1のジェスチャを検出したことに応答して、カメラコントロール領域の外観を修正することであって、ジェスチャが第1のタイプのジェスチャであるという判定に従って、第1の場所で1つ以上の追加のカメラモードアフォーダンスを表示することと、ジェスチャが第1のタイプとは異なる第2のタイプのジェスチャであるという判定に従って、複数のカメラモードアフォーダンスの表示を停止することと、第1の場所で複数のカメラ設定アフォーダンスを表示することと、を含み、カメラ設定アフォーダンスが、現在選択されているカメラモードの画像キャプチャを調整する設定である、カメラコントロール領域の外観を修正することと、の命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. Temporary computer-readable storage media stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras. , Displaying the camera user interface via a display device, wherein the camera user interface provides a camera display area containing a representation of the field of view of one or more cameras and multiple camera mode affordances in a first location. Displaying the camera user interface, including the camera control area, and detecting the first gesture on the camera user interface while displaying the camera user interface, and detecting the first gesture. In response to what you have done is to modify the appearance of the camera control area and display one or more additional camera mode affordances in the first place, depending on the determination that the gesture is the first type of gesture. To stop displaying multiple camera mode affordances and to display multiple camera setting affordances in the first location, depending on what to do and the determination that the gesture is a second type of gesture different from the first type. Includes instructions to modify the appearance of the camera control area, including, and the camera settings affordance is a setting that adjusts the image capture of the currently selected camera mode.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の場所で複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することと、カメラユーザインタフェースを表示している間に、カメラユーザインタフェース上で第1のジェスチャを検出することと、第1のジェスチャを検出したことに応答して、カメラコントロール領域の外観を修正することであって、ジェスチャが第1のタイプのジェスチャであるという判定に従って、第1の場所で1つ以上の追加のカメラモードアフォーダンスを表示することと、ジェスチャが第1のタイプとは異なる第2のタイプのジェスチャであるという判定に従って、複数のカメラモードアフォーダンスの表示を停止することと、第1の場所で複数のカメラ設定アフォーダンスを表示することと、を含み、カメラ設定アフォーダンスが、現在選択されているカメラモードの画像キャプチャを調整する設定である、カメラコントロール領域の外観を修正することと、の命令を含む。 According to some embodiments, electronic devices are described. The electronic device comprises a display device, one or more cameras, one or more processors, and a memory for storing one or more programs configured to be executed by the one or more processors. One or more programs display the camera user interface through a display device, wherein the camera user interface includes a camera display area that includes a representation of the field of view of one or more cameras and a first location. Displaying the camera user interface, including a camera control area containing multiple camera mode accommodations, and detecting the first gesture on the camera user interface while displaying the camera user interface. , Modifying the appearance of the camera control area in response to the detection of the first gesture, and according to the determination that the gesture is a first type of gesture, one or more at the first location. Displaying additional camera mode affordances and stopping the display of multiple camera mode affordances according to the determination that the gesture is a second type of gesture different from the first type, and at the first location. Instructions to display multiple camera settings affordances, including to modify the appearance of the camera control area, which is a setting that adjusts the image capture of the currently selected camera mode. include.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の場所で複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示する手段と、カメラユーザインタフェースを表示している間に、カメラユーザインタフェース上で第1のジェスチャを検出する手段と、第1のジェスチャを検出したことに応答して、カメラコントロール領域の外観を修正する手段であって、ジェスチャが第1のタイプのジェスチャであるという判定に従って、第1の場所で1つ以上の追加のカメラモードアフォーダンスを表示する手段と、ジェスチャが第1のタイプとは異なる第2のタイプのジェスチャであるという判定に従って、複数のカメラモードアフォーダンスの表示を停止する手段と、第1の場所で複数のカメラ設定アフォーダンスを表示する手段と、を含み、カメラ設定アフォーダンスが、現在選択されているカメラモードの画像キャプチャを調整する設定である、カメラコントロール領域の外観を修正する手段と、を備える。 According to some embodiments, electronic devices are described. This electronic device is a means of displaying a camera user interface through a display device, one or more cameras, and a display device, wherein the camera user interface includes a representation of the field of view of one or more cameras. A means of displaying the camera user interface, including a display area and a camera control area that includes multiple camera mode accommodations in a first location, and a second on the camera user interface while displaying the camera user interface. A means of detecting the first gesture and a means of modifying the appearance of the camera control area in response to the detection of the first gesture, the first according to the determination that the gesture is the first type of gesture. Stop displaying multiple camera mode affordances according to the means by which one or more additional camera mode affordances are displayed at one location and the determination that the gesture is a second type of gesture different from the first type. The appearance of the camera control area, which includes means and means for displaying multiple camera setting affordances in a first place, the camera setting affordance is a setting that adjusts the image capture of the currently selected camera mode. It is provided with a means for correction.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスで行われる。この方法は、ユーザカメラユーザインタフェースを表示する要求を受信することと、カメラユーザインタフェースを表示する要求を受信したことに応答して、及びそれぞれの基準が満たされていないという判定に従って、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、1つ以上のカメラの視野の第2の部分の表現を含む第2の領域であって、1つ以上のカメラの視野の第2の部分が、第1の部分と視覚的に区別される、第2の領域と、を含む、カメラユーザインタフェースを表示することと、カメラユーザインタフェースが表示されている間に、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出することと、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出したことに応答して、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツと、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、1つ以上のカメラでキャプチャすることと、メディアアイテムをキャプチャした後に、メディアアイテムを表示する要求を受信することと、メディアアイテムを表示する要求を受信したことに応答して、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの少なくとも一部分の表現を表示することなく、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツの第1の表現を表示することと、を含む。 According to some embodiments, the method is described. This method is performed on a display device and an electronic device having one or more cameras. This method receives a request to display the user camera user interface, responds to the request to display the camera user interface, and determines that the respective criteria are not met. Through the display of the camera user interface, the camera user interface is a first region containing a representation of a first portion of the field of view of one or more cameras and a first region of the field of view of one or more cameras. A second region comprising a representation of the second portion, comprising a second region, wherein the second portion of the field of view of one or more cameras is visually distinguishable from the first portion. Displaying the camera user interface, detecting the input corresponding to the request to capture media with one or more cameras while the camera user interface is displayed, and capturing the media with one or more cameras. Visual content corresponding to the first part of the field of view of one or more cameras and vision corresponding to the second part of the field of view of one or more cameras in response to detecting an input corresponding to the request. To capture the content and the media item containing it with one or more cameras, to receive a request to display the media item after capturing the media item, and to receive a request to display the media item. In response, the visual content corresponding to the first part of the field of view of one or more cameras without displaying at least a portion of the representation of the visual content corresponding to the second part of the field of view of the one or more cameras. Includes displaying the first expression.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、ユーザカメラユーザインタフェースを表示する要求を受信することと、カメラユーザインタフェースを表示する要求を受信したことに応答して、及びそれぞれの基準が満たされていないという判定に従って、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、1つ以上のカメラの視野の第2の部分の表現を含む第2の領域であって、1つ以上のカメラの視野の第2の部分が、第1の部分と視覚的に区別される、第2の領域と、を含む、カメラユーザインタフェースを表示することと、カメラユーザインタフェースが表示されている間に、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出することと、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出したことに応答して、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツと、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、1つ以上のカメラでキャプチャすることと、メディアアイテムをキャプチャした後に、メディアアイテムを表示する要求を受信することと、メディアアイテムを表示する要求を受信したことに応答して、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの少なくとも一部分の表現を表示することなく、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツの第1の表現を表示することと、の命令を含む。 According to some embodiments, non-temporary computer-readable storage media are described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras. In response to receiving a request to display the user camera user interface and receiving a request to display the camera user interface, and according to the determination that the respective criteria are not met, through the display device. Is to display the camera user interface, the camera user interface having a first region containing a representation of a first portion of the field of view of one or more cameras and a second region of the field of view of one or more cameras. A camera user that includes a second region that includes a representation of a portion, wherein the second portion of the field of view of one or more cameras is visually distinguished from the first portion. Displaying the interface and detecting the input corresponding to the request to capture media with one or more cameras while the camera user interface is displayed, and the request to capture media with one or more cameras. In response to the detection of the input corresponding to, the visual content corresponding to the first part of the field of view of one or more cameras and the visual content corresponding to the second part of the field of view of one or more cameras. In response to capturing a media item containing, with one or more cameras, receiving a request to view the media item after capturing the media item, and receiving a request to view the media item. The first part of the visual content corresponding to the first part of the field of view of one or more cameras without displaying at least a portion of the representation of the visual content corresponding to the second part of the field of view of the one or more cameras. Includes instructions for displaying the representation of.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、ユーザカメラユーザインタフェースを表示する要求を受信することと、カメラユーザインタフェースを表示する要求を受信したことに応答して、及びそれぞれの基準が満たされていないという判定に従って、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、1つ以上のカメラの視野の第2の部分の表現を含む第2の領域であって、1つ以上のカメラの視野の第2の部分が、第1の部分と視覚的に区別される、第2の領域と、を含む、カメラユーザインタフェースを表示することと、カメラユーザインタフェースが表示されている間に、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出することと、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出したことに応答して、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツと、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、1つ以上のカメラでキャプチャすることと、メディアアイテムをキャプチャした後に、メディアアイテムを表示する要求を受信することと、メディアアイテムを表示する要求を受信したことに応答して、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの少なくとも一部分の表現を表示することなく、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツの第1の表現を表示することと、の命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras, and the one or more programs. In response to receiving a request to display the user camera user interface and receiving a request to display the camera user interface, and according to the determination that the respective criteria are not met, via the display device, Displaying the camera user interface, wherein the camera user interface contains a first region containing a representation of a first portion of the field of view of one or more cameras and a second portion of the field of view of one or more cameras. A camera user interface comprising a second region comprising the representation of, wherein the second portion of the field of view of one or more cameras is visually distinguished from the first portion. To detect the input corresponding to the request to capture media with one or more cameras and to capture the media with one or more cameras while the camera user interface is displayed. In response to detecting the corresponding input, the visual content corresponding to the first part of the field of view of one or more cameras and the visual content corresponding to the second part of the field of view of one or more cameras. In response to capturing a media item containing, with one or more cameras, receiving a request to view the media item after capturing the media item, and receiving a request to view the media item. A first portion of the visual content corresponding to the first portion of the field of view of one or more cameras without displaying a representation of at least a portion of the visual content corresponding to the second portion of the field of view of one or more cameras. Includes instructions for displaying expressions.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムが、ユーザカメラユーザインタフェースを表示する要求を受信することと、カメラユーザインタフェースを表示する要求を受信したことに応答して、及びそれぞれの基準が満たされていないという判定に従って、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、1つ以上のカメラの視野の第2の部分の表現を含む第2の領域であって、1つ以上のカメラの視野の第2の部分が、第1の部分と視覚的に区別される、第2の領域と、を含む、カメラユーザインタフェースを表示することと、カメラユーザインタフェースが表示されている間に、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出することと、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出したことに応答して、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツと、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、1つ以上のカメラでキャプチャすることと、メディアアイテムをキャプチャした後に、メディアアイテムを表示する要求を受信することと、メディアアイテムを表示する要求を受信したことに応答して、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの少なくとも一部分の表現を表示することなく、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツの第1の表現を表示することと、の命令を含む。 According to some embodiments, electronic devices are described. The electronic device comprises a display device, one or more cameras, one or more processors, and a memory for storing one or more programs configured to be executed by the one or more processors. In response to receiving a request to display the user camera user interface and receiving a request to display the camera user interface, and according to the determination that the respective criteria are not met. A display of the camera user interface via a display device, wherein the camera user interface includes a first region containing a representation of a first portion of the field of view of one or more cameras and one or more cameras. A second region that contains a representation of a second portion of the field of view of one or more cameras, wherein the second portion of the field of view of one or more cameras is visually distinguished from the first portion. Displaying the camera user interface, including, and detecting the input corresponding to the request to capture media with one or more cameras while the camera user interface is displayed, and one or more cameras. In response to detecting the input corresponding to the request to capture the media in, the visual content corresponding to the first part of the field of view of one or more cameras and the second part of the field of view of one or more cameras. Capturing media items with one or more cameras, including the corresponding visual content, and receiving a request to display the media item after capturing the media item, and a request to display the media item. Corresponds to the first portion of the field of view of one or more cameras without displaying at least a portion of the representation of the visual content corresponding to the second portion of the field of view of the one or more cameras in response to the reception. Includes instructions for displaying the first representation of the visual content to be done.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、ユーザカメラユーザインタフェースを表示する要求を受信する手段と、カメラユーザインタフェースを表示する要求を受信したことに応答して、及びそれぞれの基準が満たされていないという判定に従って、表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、カメラユーザインタフェースが、1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、1つ以上のカメラの視野の第2の部分の表現を含む第2の領域であって、1つ以上のカメラの視野の第2の部分が、第1の部分と視覚的に区別される、第2の領域と、を含む、カメラユーザインタフェースを表示する手段と、カメラユーザインタフェースが表示されている間に、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出する手段と、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出したことに応答して、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツと、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、1つ以上のカメラでキャプチャする手段と、メディアアイテムをキャプチャした後に、メディアアイテムを表示する要求を受信する手段と、メディアアイテムを表示する要求を受信したことに応答して、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの少なくとも一部分の表現を表示することなく、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツの第1の表現を表示する手段と、を備える。 According to some embodiments, electronic devices are described. This electronic device is a display device, one or more cameras, a means of receiving a request to display a user camera user interface, a response to receiving a request to display a camera user interface, and their respective criteria. A first means of displaying a camera user interface via a display device according to a determination that is not satisfied, wherein the camera user interface includes a representation of a first portion of the field of view of one or more cameras. A second region that includes a region and a representation of a second portion of the field of view of one or more cameras, the second part of the field of view of one or more cameras being visually distinguished from the first part. A means of displaying the camera user interface, including a second area, and while the camera user interface is displayed, detect the input corresponding to the request to capture the media with one or more cameras. Means and visual content corresponding to a first portion of the field of view of one or more cameras and one or more in response to detecting an input corresponding to a request to capture media with one or more cameras. A means of capturing a media item, including visual content corresponding to a second portion of the camera's field of view, with one or more cameras, and a means of receiving a request to display the media item after capturing the media item. In response to receiving a request to display a media item, one or more cameras, without displaying a representation of at least a portion of the visual content corresponding to a second portion of the field of view of the one or more cameras. A means for displaying a first representation of visual content corresponding to a first portion of the field of view is provided.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスで行われる。この方法は、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示することと、カメラユーザインタフェースを表示している間に、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出することと、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出したことに応答して、1つ以上のカメラの視野に対応するメディアをキャプチャすることと、キャプチャされたメディアの表現を表示することと、キャプチャされたメディアの表現を表示している間に、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出することと、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出したことに応答して、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも第1の部分の表示を停止することと、を含む。 According to some embodiments, the method is described. This method is performed on a display device and an electronic device having one or more cameras. The method is to display the camera user interface via a display device, wherein the camera user interface displays a camera user interface that includes a camera display area that includes a representation of the field of view of one or more cameras. And while displaying the camera user interface, detect the request to capture the media corresponding to the field of view of one or more cameras, and the request to capture the media corresponding to the field of view of one or more cameras. While capturing the media corresponding to the field of view of one or more cameras in response to the detection, displaying the representation of the captured media, and displaying the representation of the captured media. In response to detecting that the captured media representation has been displayed for a predetermined period of time and for detecting that the captured media representation has been displayed for a predetermined period of time, the camera user interface This includes stopping the display of at least the first portion of the captured media representation while maintaining the display.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示することと、カメラユーザインタフェースを表示している間に、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出することと、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出したことに応答して、1つ以上のカメラの視野に対応するメディアをキャプチャすることと、キャプチャされたメディアの表現を表示することと、キャプチャされたメディアの表現を表示している間に、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出することと、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出したことに応答して、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも第1の部分の表示を停止することと、の命令を含む。 According to some embodiments, non-temporary computer-readable storage media are described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras. Is to display the camera user interface through a display device, wherein the camera user interface displays a camera user interface that includes a camera display area that includes a representation of the field of view of one or more cameras. While displaying the camera user interface, it detected a request to capture media corresponding to the field of view of one or more cameras and a request to capture media corresponding to the field of view of one or more cameras. In response to capturing the media corresponding to the field of view of one or more cameras, displaying the representation of the captured media, and capturing while viewing the representation of the captured media. The display of the camera user interface is displayed in response to detecting that the representation of the captured media has been displayed for a predetermined period of time and that the representation of the captured media has been displayed for a predetermined period of time. Includes instructions to stop displaying at least the first part of the captured media representation while maintaining.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示することと、カメラユーザインタフェースを表示している間に、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出することと、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出したことに応答して、1つ以上のカメラの視野に対応するメディアをキャプチャすることと、キャプチャされたメディアの表現を表示することと、キャプチャされたメディアの表現を表示している間に、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出することと、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出したことに応答して、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも第1の部分の表示を停止することと、の命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. Temporary computer-readable storage media stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras. Displaying the camera user interface through a display device, wherein the camera user interface includes a camera display area that includes a representation of the field of view of one or more cameras. Detecting a request to capture media corresponding to the field of view of one or more cameras and detecting a request to capture media corresponding to the field of view of one or more cameras while displaying the user interface. Captured while capturing the media corresponding to the field of view of one or more cameras, displaying the representation of the captured media, and displaying the representation of the captured media in response to Maintains the display of the camera user interface in response to detecting that the representation of the captured media has been displayed for a predetermined period of time and that the representation of the captured media has been displayed for a predetermined period of time. In the meantime, it includes instructions to stop displaying at least the first part of the captured media representation.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示することと、カメラユーザインタフェースを表示している間に、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出することと、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出したことに応答して、1つ以上のカメラの視野に対応するメディアをキャプチャすることと、キャプチャされたメディアの表現を表示することと、キャプチャされたメディアの表現を表示している間に、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出することと、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出したことに応答して、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも第1の部分の表示を停止することと、の命令を含む。 According to some embodiments, electronic devices are described. The electronic device comprises a display device, one or more cameras, one or more processors, and a memory that stores one or more programs configured to be executed by the one or more processors. One or more programs display the camera user interface through a display device, wherein the camera user interface includes a camera display area that includes a representation of the field of view of one or more cameras. And while displaying the camera user interface, detect a request to capture media that corresponds to the field of view of one or more cameras, and media that corresponds to the field of view of one or more cameras. In response to detecting a request to capture, capture the media corresponding to the field of view of one or more cameras, display the representation of the captured media, and display the representation of the captured media. In response to detecting that the representation of the captured media has been displayed for a predetermined period of time and that the representation of the captured media has been displayed for a predetermined period of time, Includes instructions to stop displaying at least the first portion of the captured media representation while maintaining the display of the camera user interface.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示する手段と、カメラユーザインタフェースを表示している間に、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出する手段と、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出したことに応答して、1つ以上のカメラの視野に対応するメディアをキャプチャする手段と、キャプチャされたメディアの表現を表示する手段と、キャプチャされたメディアの表現を表示している間に、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出する手段と、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出したことに応答して、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも第1の部分の表示を停止する手段と、を備える。 According to some embodiments, electronic devices are described. This electronic device is a means of displaying a camera user interface via a display device, one or more cameras, and a display device, wherein the camera user interface includes a representation of the field of view of one or more cameras. Means for displaying the camera user interface, including the display area, and means for detecting a request to capture media corresponding to the field of view of one or more cameras while displaying the camera user interface, and one or more. Means to capture media corresponding to the field of view of one or more cameras, means to display a representation of the captured media, and capture in response to detecting a request to capture media corresponding to the field of view of the camera. A means of detecting that the captured media representation was displayed for a predetermined period of time while displaying the captured media representation, and that the captured media representation was displayed for a predetermined period of time. It comprises means for stopping the display of at least the first portion of the captured media representation while maintaining the display of the camera user interface in response to the detection.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスで行われる。この方法は、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示することと、メディアをキャプチャする要求を受信したことに応答して、第1のアスペクト比でメディアをキャプチャするように電子デバイスが構成されている間に、1つ以上のカメラの視野の表現上のそれぞれの場所に第1の接触を含む第1の入力を検出することと、第1の入力を検出したことに応答して、1組のアスペクト比変化基準が満たされているという判定に従って、メディアをキャプチャする要求に応答して、第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように電子デバイスを構成することであって、1組のアスペクト比変化基準が、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応答してキャプチャされる、メディアの境界部の少なくとも一部分を示すカメラディスプレイ領域の既定の部分に対応する第1の場所で第1の接触を維持することを第1の入力が含むと満たされる基準を含む、構成することと、続いて、第1の場所とは異なる第2の場所への第1の接触の移動を検出することと、を含む。 According to some embodiments, the method is described. This method is performed on a display device and an electronic device having one or more cameras. The method is to display the camera user interface via a display device, wherein the camera user interface displays a camera user interface that includes a camera display area that includes a representation of the field of view of one or more cameras. And each on the representation of the field of view of one or more cameras while the electronic device is configured to capture the media in the first aspect ratio in response to receiving a request to capture the media. According to the determination that a set of aspect ratio change criteria is met in response to the detection of the first input containing the first contact at the location of and the detection of the first input. In response to a request to capture, the electronic device is configured to capture the media in a second aspect ratio that is different from the first aspect ratio, and a set of aspect ratio change criteria is at least a threshold time. The first is to maintain the first contact at the first location that corresponds to the default portion of the camera display area that represents at least a portion of the media boundary that is captured in response to the request to capture the media over an amount. Consists of configuring, including the criteria that the input of is met, and subsequently detecting the movement of the first contact to a second location that is different from the first location.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示することと、メディアをキャプチャする要求を受信したことに応答して、第1のアスペクト比でメディアをキャプチャするように電子デバイスが構成されている間に、1つ以上のカメラの視野の表現上のそれぞれの場所に第1の接触を含む第1の入力を検出することと、第1の入力を検出したことに応答して、1組のアスペクト比変化基準が満たされているという判定に従って、メディアをキャプチャする要求に応答して、第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように電子デバイスを構成することであって、1組のアスペクト比変化基準が、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応答してキャプチャされる、メディアの境界部の少なくとも一部分を示すカメラディスプレイ領域の既定の部分に対応する第1の場所で第1の接触を維持することを第1の入力が含むと満たされる基準を含む、構成することと、続いて、第1の場所とは異なる第2の場所への第1の接触の移動を検出することと、の命令を含む。 According to some embodiments, non-temporary computer-readable storage media are described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras. Is to display the camera user interface through a display device, wherein the camera user interface displays a camera user interface that includes a camera display area that includes a representation of the field of view of one or more cameras. Each location on the representation of the field of view of one or more cameras while the electronic device is configured to capture the media in the first aspect ratio in response to receiving a request to capture the media. The media is captured according to the detection of the first input, including the first contact, and the determination that a set of aspect ratio change criteria is met in response to the detection of the first input. In response to a request, the electronic device is configured to capture media in a second aspect ratio that is different from the first aspect ratio, and a set of aspect ratio change criteria is provided for at least a threshold time amount. The first input is to maintain the first contact at the first location that corresponds to the default portion of the camera display area that represents at least a portion of the boundary of the media that is captured in response to the request to capture the media. Includes instructions to configure, including criteria that are met, and subsequently to detect the movement of the first contact to a second location that is different from the first location.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示することと、メディアをキャプチャする要求を受信したことに応答して、第1のアスペクト比でメディアをキャプチャするように電子デバイスが構成されている間に、1つ以上のカメラの視野の表現上のそれぞれの場所に第1の接触を含む第1の入力を検出することと、第1の入力を検出したことに応答して、1組のアスペクト比変化基準が満たされているという判定に従って、メディアをキャプチャする要求に応答して、第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように電子デバイスを構成することであって、1組のアスペクト比変化基準が、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応答してキャプチャされる、メディアの境界部の少なくとも一部分を示すカメラディスプレイ領域の既定の部分に対応する第1の場所で第1の接触を維持することを第1の入力が含むと満たされる基準を含む、構成することと、続いて、第1の場所とは異なる第2の場所への第1の接触の移動を検出することと、の命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. Temporary computer-readable storage media stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras. Displaying the camera user interface through a display device, wherein the camera user interface includes a camera display area that includes a representation of the field of view of one or more cameras, and media. In response to receiving a request to capture, at each location on the representation of the field of view of one or more cameras while the electronic device is configured to capture the media in the first aspect ratio. A request to capture the media according to the detection of the first input, including the first contact, and the determination that a set of aspect ratio change criteria is met in response to the detection of the first input. In response to, the electronic device is configured to capture the media in a second aspect ratio that is different from the first aspect ratio, and a set of aspect ratio change criteria is the media for at least a threshold time amount. The first input is to maintain the first contact at the first location that corresponds to the default portion of the camera display area that represents at least a portion of the boundary of the media that is captured in response to the request to capture. Includes instructions to configure, including criteria that are met, and subsequently to detect the movement of the first contact to a second location that is different from the first location.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示することと、メディアをキャプチャする要求を受信したことに応答して、第1のアスペクト比でメディアをキャプチャするように電子デバイスが構成されている間に、1つ以上のカメラの視野の表現上のそれぞれの場所に第1の接触を含む第1の入力を検出することと、第1の入力を検出したことに応答して、1組のアスペクト比変化基準が満たされているという判定に従って、メディアをキャプチャする要求に応答して、第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように電子デバイスを構成することであって、1組のアスペクト比変化基準が、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応答してキャプチャされる、メディアの境界部の少なくとも一部分を示すカメラディスプレイ領域の既定の部分に対応する第1の場所で第1の接触を維持することを第1の入力が含むと満たされる基準を含む、構成することと、続いて、第1の場所とは異なる第2の場所への第1の接触の移動を検出することと、の命令を含む。 According to some embodiments, electronic devices are described. The electronic device comprises a display device, one or more cameras, one or more processors, and a memory for storing one or more programs configured to be executed by the one or more processors. One or more programs display the camera user interface through a display device, wherein the camera user interface includes a camera display area that includes a representation of the field of view of one or more cameras. Of the field of view of one or more cameras while the electronic device is configured to capture the media in the first aspect ratio in response to receiving a request to capture the media. Detecting a first input that includes a first contact at each location in the representation and determining that a set of aspect ratio change criteria is met in response to the detection of the first input. According to, in response to the request to capture the media, the electronic device is configured to capture the media with a second aspect ratio different from the first aspect ratio, and a set of aspect ratio change criteria is Maintain a first contact at a first location that corresponds to a default portion of the camera display area that represents at least a portion of the media boundary that is captured in response to a request to capture the media for at least a threshold amount of time. The instruction to configure, including the criteria that the first input contains and to detect the movement of the first contact to a second place different from the first place. including.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示する手段と、メディアをキャプチャする要求を受信したことに応答して、第1のアスペクト比でメディアをキャプチャするように電子デバイスが構成されている間に、1つ以上のカメラの視野の表現上のそれぞれの場所に第1の接触を含む第1の入力を検出する手段と、第1の入力を検出したことに応答して、1組のアスペクト比変化基準が満たされているという判定に従って、メディアをキャプチャする要求に応答して、第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように電子デバイスを構成する手段であって、1組のアスペクト比変化基準が、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応答してキャプチャされる、メディアの境界部の少なくとも一部分を示すカメラディスプレイ領域の既定の部分に対応する第1の場所で第1の接触を維持することを第1の入力が含むと満たされる基準を含む、構成する手段と、続いて、第1の場所とは異なる第2の場所への第1の接触の移動を検出する手段と、を備える。 According to some embodiments, electronic devices are described. This electronic device is to display a camera user interface through a display device, one or more cameras, and a display device, wherein the camera user interface includes a representation of the field of view of one or more cameras. While the means for displaying the camera user interface, including the display area, and the electronic device being configured to capture the media in the first aspect ratio in response to receiving a request to capture the media. A means of detecting a first input, including a first contact, at each location on the representation of the field of view of one or more cameras, and a set of aspect ratio changes in response to the detection of the first input. A means of configuring an electronic device to capture media in a second aspect ratio that is different from the first aspect ratio in response to a request to capture the media according to the determination that the criteria are met. A first location where a set of aspect ratio change criteria corresponds to a default portion of the camera display area that represents at least a portion of the media boundary that is captured in response to a request to capture the media for at least a threshold amount of time. The means of constructing, including the criteria that the first input includes to maintain the first contact in, followed by the movement of the first contact to a second location different from the first location. It is provided with a means for detecting the above.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及びカメラを有する電子デバイスで行われる。この方法は、電子デバイスが第1の向きにある間に、表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示することと、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出することと、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出したことに応答して、ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているという判定に従って、第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示することと、を含む。 According to some embodiments, the method is described. This method is performed on an electronic device having a display device and a camera. This method presents a first camera user interface that captures media in the first camera orientation at the first zoom level through the display device while the electronic device is in the first orientation. Responds to detecting a change in the orientation of the electronic device from the first orientation to the second orientation and detecting a change in the orientation of the electronic device from the first orientation to the second orientation. Therefore, according to the determination that one set of automatic zoom criteria is automatically satisfied without the intervention of user input, the second zoom level is different from the first zoom level, and the orientation of the second camera Includes displaying a second camera user interface that captures media.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及びカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、電子デバイスが第1の向きにある間に、表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示することと、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出することと、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出したことに応答して、ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているという判定に従って、第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示することと、の命令を含む。 According to some embodiments, non-temporary computer-readable storage media are described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device including a display device and a camera, and one or more programs are electronic devices. To display the first camera user interface that captures the media in the first camera orientation at the first zoom level and from the first orientation through the display device while is in the first orientation. Intervening user input in response to detecting a change in the orientation of the electronic device in the second orientation and detecting a change in the orientation of the electronic device from the first orientation to the second orientation A second that automatically captures media in a second camera orientation at a second zoom level that is different from the first zoom level, according to the determination that a set of automatic zoom criteria is met. Includes instructions for displaying the camera user interface of.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイス及びカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、電子デバイスが第1の向きにある間に、表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示することと、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出することと、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出したことに応答して、ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているという判定に従って、第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示することと、の命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A temporary computer-readable storage medium stores one or more programs that are configured to be executed by one or more processors of an electronic device that includes a display device and a camera, and one or more programs are used by the electronic device. Displaying the first camera user interface that captures the media in the first camera orientation at the first zoom level through the display device while in the first orientation, and from the first orientation to the first. User input intervenes in response to detecting a change in the orientation of the electronic device in the second orientation and detecting a change in the orientation of the electronic device from the first orientation to the second orientation. A second that automatically captures media in a second camera orientation at a second zoom level that is different from the first zoom level, according to the determination that a set of automatic zoom criteria is met. Includes instructions for displaying the camera user interface.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、カメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムが、電子デバイスが第1の向きにある間に、表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示することと、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出することと、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出したことに応答して、ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているという判定に従って、第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示することと、の命令を含む。 According to some embodiments, electronic devices are described. The electronic device comprises one or more display devices, a camera, one or more processors, and a memory for storing one or more programs configured to be executed by the one or more processors. Program displays a first camera user interface that captures media in a first camera orientation at a first zoom level through a display device while the electronic device is in the first orientation. Responds to detecting a change in the orientation of the electronic device from the first orientation to the second orientation and detecting a change in the orientation of the electronic device from the first orientation to the second orientation. Therefore, according to the determination that one set of automatic zoom criteria is automatically satisfied without the intervention of user input, the second zoom level is different from the first zoom level, and the orientation of the second camera. Includes instructions for displaying a second camera user interface that captures media.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、カメラと、電子デバイスが第1の向きにある間に、表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示する手段と、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出する手段と、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出したことに応答して、ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているという判定に従って、第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示する手段と、を備える。 According to some embodiments, electronic devices are described. The electronic device captures the media in the first camera orientation at the first zoom level through the display device while the display device, the camera, and the electronic device are in the first orientation. Means for displaying the camera user interface, means for detecting changes in the orientation of the electronic device from the first orientation to the second orientation, and orientation of the electronic device from the first orientation to the second orientation. In response to the detection of a change, at a second zoom level different from the first zoom level, according to the determination that a set of automatic zoom criteria is automatically met without intervention of user input. A means of displaying a second camera user interface that captures media in the orientation of the second camera.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスで行われる。この方法は、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、メディアキャプチャユーザインタフェースを表示している間に、カメラを介して、1つ以上のカメラの視野内の変化を検出することと、1つ以上のカメラの視野内の変化を検出したことに応答して、及び可変フレームレート基準が満たされているという判定に従って、1つ以上のカメラの視野内の検出された変化が移動基準を満たすという判定に従って、第1のフレームレートで1つ以上のカメラの視野内で検出された変化に基づいて、1つ以上のカメラの視野の表現を更新することと、1つ以上のカメラの視野内の検出された変化が移動基準を満たさないという判定に従って、第1のフレームレートより低い第2のフレームレートで1つ以上のカメラの視野内で検出された変化に基づいて、1つ以上のカメラの視野の表現を更新することと、を含む。 According to some embodiments, the method is described. This method is performed on a display device and an electronic device having one or more cameras. This method involves displaying a media capture user interface, including displaying a representation of the field of view of one or more cameras via a display device, and through the camera while displaying the media capture user interface. In response to detecting changes in the field of view of one or more cameras and detecting changes in the field of view of one or more cameras, and according to the determination that the variable frame rate criteria are met. One or more based on the changes detected in the field of one or more cameras at the first frame rate, according to the determination that the detected changes in the field of one or more cameras meet the movement criteria. One or more at a second frame rate lower than the first frame rate, according to updating the representation of the camera's field of view and determining that the detected changes in the field of view of one or more cameras do not meet the movement criteria. It includes updating the representation of the field of view of one or more cameras based on the changes detected within the field of view of one or more cameras.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、メディアキャプチャユーザインタフェースを表示している間に、カメラを介して、1つ以上のカメラの視野内の変化を検出することと、1つ以上のカメラの視野内の変化を検出したことに応答して、及び可変フレームレート基準が満たされているという判定に従って、1つ以上のカメラの視野内の検出された変化が移動基準を満たすという判定に従って、第1のフレームレートで1つ以上のカメラの視野内で検出された変化に基づいて、1つ以上のカメラの視野の表現を更新することと、1つ以上のカメラの視野内の検出された変化が移動基準を満たさないという判定に従って、第1のフレームレートより低い第2のフレームレートで1つ以上のカメラの視野内で検出された変化に基づいて、1つ以上のカメラの視野の表現を更新することと、の命令を含む。 According to some embodiments, non-temporary computer-readable storage media are described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras. Through the camera, while displaying the media capture user interface, including displaying a representation of the field of view of one or more cameras through the display device, and while displaying the media capture user interface. In response to detecting changes in the field of view of one or more cameras and detecting changes in the field of view of one or more cameras, and according to the determination that the variable frame rate criteria are met, 1 Of one or more cameras, based on the changes detected in the field of one or more cameras at the first frame rate, according to the determination that the detected changes in the field of one or more cameras meet the movement criteria. One or more cameras at a second frame rate lower than the first frame rate, according to updating the representation of the field of view and determining that the detected changes in the field of view of one or more cameras do not meet the movement criteria. Includes instructions to update the representation of the field of view of one or more cameras based on the changes detected within the field of view of.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、メディアキャプチャユーザインタフェースを表示している間に、カメラを介して、1つ以上のカメラの視野内の変化を検出することと、1つ以上のカメラの視野内の変化を検出したことに応答して、及び可変フレームレート基準が満たされているという判定に従って、1つ以上のカメラの視野内の検出された変化が移動基準を満たすという判定に従って、第1のフレームレートで1つ以上のカメラの視野内で検出された変化に基づいて、1つ以上のカメラの視野の表現を更新することと、1つ以上のカメラの視野内の検出された変化が移動基準を満たさないという判定に従って、第1のフレームレートより低い第2のフレームレートで1つ以上のカメラの視野内で検出された変化に基づいて、1つ以上のカメラの視野の表現を更新することと、の命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. Temporary computer-readable storage media stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras. Through the camera, while displaying the media capture user interface, including displaying a representation of the field of view of one or more cameras through the display device, and displaying the media capture user interface, 1 One in response to detecting changes in the visual field of one or more cameras and in response to detecting changes in the visual field of one or more cameras, and according to the determination that the variable frame rate criteria are met. According to the determination that the detected changes in the field of view of the above cameras meet the movement criteria, the field of view of one or more cameras based on the changes detected in the field of view of one or more cameras at the first frame rate. Of the one or more cameras at a second frame rate lower than the first frame rate, according to updating the representation of Includes instructions to update the representation of the field of view of one or more cameras based on the changes detected in the field of view.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムが、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、メディアキャプチャユーザインタフェースを表示している間に、カメラを介して、1つ以上のカメラの視野内の変化を検出することと、1つ以上のカメラの視野内の変化を検出したことに応答して、及び可変フレームレート基準が満たされているという判定に従って、1つ以上のカメラの視野内の検出された変化が移動基準を満たすという判定に従って、第1のフレームレートで1つ以上のカメラの視野内で検出された変化に基づいて、1つ以上のカメラの視野の表現を更新することと、1つ以上のカメラの視野内の検出された変化が移動基準を満たさないという判定に従って、第1のフレームレートより低い第2のフレームレートで1つ以上のカメラの視野内で検出された変化に基づいて、1つ以上のカメラの視野の表現を更新することと、の命令を含む。 According to some embodiments, electronic devices are described. The electronic device comprises a display device, one or more cameras, one or more processors, and a memory for storing one or more programs configured to be executed by the one or more processors. While displaying a media capture user interface, including displaying a representation of the field of view of one or more cameras through a display device, and displaying the media capture user interface. In response to detecting changes in the field of one or more cameras through the camera and detecting changes in the field of one or more cameras, and variable frame rate criteria are met. Based on the changes detected in the field of one or more cameras at the first frame rate, according to the determination that the detected changes in the field of one or more cameras meet the movement criteria. A second frame rate lower than the first frame rate according to updating the representation of the field of view of one or more cameras and determining that the detected changes in the field of view of one or more cameras do not meet the movement criteria. Includes instructions to update the representation of the field of view of one or more cameras based on the changes detected in the field of view of one or more cameras.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示する手段と、メディアキャプチャユーザインタフェースを表示している間に、カメラを介して、1つ以上のカメラの視野内の変化を検出する手段と、1つ以上のカメラの視野内の変化を検出したことに応答して、及び可変フレームレート基準が満たされているという判定に従って、1つ以上のカメラの視野内の検出された変化が移動基準を満たすという判定に従って、第1のフレームレートで1つ以上のカメラの視野内で検出された変化に基づいて、1つ以上のカメラの視野の表現を更新する手段と、1つ以上のカメラの視野内の検出された変化が移動基準を満たさないという判定に従って、第1のフレームレートより低い第2のフレームレートで1つ以上のカメラの視野内で検出された変化に基づいて、1つ以上のカメラの視野の表現を更新する手段と、を備える。 According to some embodiments, electronic devices are described. This electronic device is a means of displaying a media capture user interface, including displaying a display device, one or more cameras, and a representation of the field of view of one or more cameras through the display device, and a media capture user. Means for detecting changes in the field of view of one or more cameras through the cameras while displaying the interface, and in response to detecting changes in the field of view of one or more cameras, and Within the field of view of one or more cameras at the first frame rate, according to the determination that the variable frame rate criteria are met, and according to the determination that the detected changes in the field of view of one or more cameras meet the motion criteria. The first frame, according to means for updating the representation of the field of view of one or more cameras based on the detected changes and the determination that the detected changes in the field of view of one or more cameras do not meet the movement criteria. It comprises means for updating the representation of the field of view of one or more cameras based on the changes detected in the field of view of one or more cameras at a second frame rate lower than the rate.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスで行われる。この方法は、カメラユーザインタフェースを表示する要求を受信することと、カメラユーザインタフェースを表示する要求を受信したことに応答して、表示デバイスを介して、カメラユーザインタフェースを表示することであって、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することと、1つ以上のカメラの視野内の周辺光がそれぞれの閾値を下回ると満たされる条件を含む低光条件が満たされたという判定に従って、1つ以上のカメラの視野の表現と同時に、メディアをキャプチャする要求に応答してメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、低光条件が満たされていないという判定に従って、キャプチャ持続時間を調整するコントロールを表示するのをやめることと、を含む、カメラユーザインタフェースを表示することと、を含む。 According to some embodiments, the method is described. This method is performed on a display device and an electronic device having one or more cameras. This method is to receive a request to display the camera user interface and to display the camera user interface via a display device in response to receiving a request to display the camera user interface. Low light conditions are met, including displaying the representation of the field of view of one or more cameras through a display device and the conditions that are met when the ambient light in the field of view of one or more cameras falls below their respective thresholds. According to the determination, the field of view of one or more cameras is represented, and at the same time, a control that adjusts the capture duration of capturing the media in response to the request to capture the media is displayed, and the low light condition is satisfied. Includes displaying the camera user interface, including stopping displaying controls that adjust the capture duration according to the determination that there is none.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、カメラユーザインタフェースを表示する要求を受信することと、カメラユーザインタフェースを表示する要求を受信したことに応答して、表示デバイスを介して、カメラユーザインタフェースを表示することであって、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することと、1つ以上のカメラの視野内の周辺光がそれぞれの閾値を下回ると満たされる条件を含む低光条件が満たされたという判定に従って、1つ以上のカメラの視野の表現と同時に、メディアをキャプチャする要求に応答してメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、低光条件が満たされていないという判定に従って、キャプチャ持続時間を調整するコントロールを表示するのをやめることと、を含む、カメラユーザインタフェースを表示することと、の命令を含む。 According to some embodiments, non-temporary computer-readable storage media are described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras. Receiving a request to display the camera user interface and displaying the camera user interface through the display device in response to receiving a request to display the camera user interface. It is said that the low light condition including the condition that the representation of the field of view of one or more cameras is displayed and the condition that the ambient light in the field of view of one or more cameras falls below each threshold is satisfied. According to the verdict, at the same time as representing the field of view of one or more cameras, it displays a control that adjusts the capture duration to capture the media in response to the request to capture the media, and the low light conditions are not met. Includes instructions to display the camera user interface, including to stop displaying controls that adjust the capture duration according to the determination.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、カメラユーザインタフェースを表示する要求を受信することと、カメラユーザインタフェースを表示する要求を受信したことに応答して、表示デバイスを介して、カメラユーザインタフェースを表示することであって、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することと、1つ以上のカメラの視野内の周辺光がそれぞれの閾値を下回ると満たされる条件を含む低光条件が満たされたという判定に従って、1つ以上のカメラの視野の表現と同時に、メディアをキャプチャする要求に応答してメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、低光条件が満たされていないという判定に従って、キャプチャ持続時間を調整するコントロールを表示するのをやめることと、を含む、カメラユーザインタフェースを表示することと、の命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. Temporary computer-readable storage media stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras. In response to receiving a request to display the camera user interface and receiving a request to display the camera user interface, the display device is to display the camera user interface through the display device. Through the display of the representation of the field of view of one or more cameras, and the determination that low light conditions are met, including conditions that are met when the ambient light in the field of view of one or more cameras falls below their respective thresholds. According to, at the same time as representing the field of view of one or more cameras, display a control that adjusts the capture duration to capture the media in response to the request to capture the media, and determine that the low light conditions are not met. Includes instructions to display the camera user interface, including to stop displaying controls that adjust the capture duration accordingly.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムが、カメラユーザインタフェースを表示する要求を受信することと、カメラユーザインタフェースを表示する要求を受信したことに応答して、表示デバイスを介して、カメラユーザインタフェースを表示することであって、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することと、1つ以上のカメラの視野内の周辺光がそれぞれの閾値を下回ると満たされる条件を含む低光条件が満たされたという判定に従って、1つ以上のカメラの視野の表現と同時に、メディアをキャプチャする要求に応答してメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、低光条件が満たされていないという判定に従って、キャプチャ持続時間を調整するコントロールを表示するのをやめることと、を含む、カメラユーザインタフェースを表示することと、の命令を含む。 According to some embodiments, electronic devices are described. The electronic device comprises a display device, one or more cameras, one or more processors, and a memory for storing one or more programs configured to be executed by the one or more processors. One or more programs receive a request to display the camera user interface and display the camera user interface via a display device in response to receiving a request to display the camera user interface. Low light including the condition that the representation of the field of view of one or more cameras is displayed via a display device and that the ambient light in the field of view of one or more cameras is satisfied when it falls below their respective thresholds. Representing the field of view of one or more cameras according to the determination that the condition is met, as well as displaying a control that adjusts the capture duration to capture the media in response to the request to capture the media, and low light conditions. Includes instructions to display the camera user interface, including to stop displaying controls that adjust the capture duration, according to the determination that is not satisfied.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、カメラユーザインタフェースを表示する要求を受信する手段と、カメラユーザインタフェースを表示する要求を受信したことに応答して、表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、表示デバイスを介して、1つ以上のカメラの視野の表現を表示する手段と、1つ以上のカメラの視野内の周辺光がそれぞれの閾値を下回ると満たされる条件を含む低光条件が満たされたという判定に従って、1つ以上のカメラの視野の表現と同時に、メディアをキャプチャする要求に応答してメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示する手段と、低光条件が満たされていないという判定に従って、キャプチャ持続時間を調整するコントロールを表示するのをやめる手段と、を含む、カメラユーザインタフェースを表示する手段と、を備える。 According to some embodiments, electronic devices are described. This electronic device is via a display device, one or more cameras, a means of receiving a request to display the camera user interface, and a request to display the camera user interface in response to receiving the request. , A means of displaying a camera user interface, a means of displaying an representation of the field of view of one or more cameras via a display device, and ambient light within the field of view of one or more cameras below their respective thresholds. A control that adjusts the capture duration to capture the media in response to the request to capture the media, as well as the representation of the field of view of one or more cameras, according to the determination that the low light conditions are met, including the condition that is met. It comprises means for displaying the camera user interface, including means for displaying and for stopping displaying the control for adjusting the capture duration according to the determination that the low light condition is not met.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスで行われる。この方法は、表示デバイスを介して、カメラユーザインタフェースを表示することと、カメラユーザインタフェースを表示している間に、電子デバイスの1つ以上のセンサを介して、1つ以上のカメラの視野内の光量を検出することと、1つ以上のカメラの視野内の光量を検出したことに応答して、1つ以上のカメラの視野内の光量が低光環境基準を満たすという判定に従って、低光環境基準が、1つ以上のカメラの視野内の光量が所定の閾値を下回ると満たされる基準を含み、カメラユーザインタフェース内に、フラッシュ動作の状態を示すフラッシュ状態インジケータと、低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、を同時に表示することと、1つ以上のカメラの視野内の光量が低光環境基準を満たしていないという判定に従って、カメラユーザインタフェース内の低光キャプチャ状態インジケータを表示するのをやめることと、を含む。 According to some embodiments, the method is described. This method is performed on a display device and an electronic device having one or more cameras. This method displays the camera user interface through a display device and, while displaying the camera user interface, through one or more sensors of the electronic device, within the field of view of one or more cameras. Low light according to the determination that the amount of light in the field of view of one or more cameras meets the low light environment criteria in response to the detection of the amount of light in the field of view of one or more cameras. Environmental criteria include criteria that are met when the amount of light in the field of view of one or more cameras falls below a predetermined threshold, with a flash status indicator in the camera user interface indicating the status of the flash operation and the status of the low light capture mode. The low light capture status indicator in the camera user interface is displayed according to the simultaneous display of the low light capture status indicator, and the determination that the amount of light in the field of view of one or more cameras does not meet the low light environmental standard. Including to stop displaying.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することと、カメラユーザインタフェースを表示している間に、電子デバイスの1つ以上のセンサを介して、1つ以上のカメラの視野内の光量を検出することと、1つ以上のカメラの視野内の光量を検出したことに応答して、1つ以上のカメラの視野内の光量が低光環境基準を満たすという判定に従って、低光環境基準が、1つ以上のカメラの視野内の光量が所定の閾値を下回ると満たされる基準を含み、カメラユーザインタフェース内に、フラッシュ動作の状態を示すフラッシュ状態インジケータと、低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、を同時に表示することと、1つ以上のカメラの視野内の光量が低光環境基準を満たしていないという判定に従って、カメラユーザインタフェース内の低光キャプチャ状態インジケータを表示するのをやめることと、の命令を含む。 According to some embodiments, non-temporary computer-readable storage media are described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras. The amount of light in the field of view of one or more cameras through one or more sensors of the electronic device while displaying the camera user interface through the display device and displaying the camera user interface. In response to the detection of and the detection of the amount of light in the field of view of one or more cameras, the low light environment standard is determined according to the determination that the amount of light in the field of view of one or more cameras meets the low light environment standard. Including a criterion that is met when the amount of light in the field of view of one or more cameras falls below a predetermined threshold, a flash state indicator indicating the state of flash operation and a state of low light capture mode are shown in the camera user interface. Display the low light capture status indicator in the camera user interface according to the simultaneous display of the low light capture status indicator and the determination that the amount of light in the field of view of one or more cameras does not meet the low light environmental criteria. Includes orders to stop.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することと、カメラユーザインタフェースを表示している間に、電子デバイスの1つ以上のセンサを介して、1つ以上のカメラの視野内の光量を検出することと、1つ以上のカメラの視野内の光量を検出したことに応答して、1つ以上のカメラの視野内の光量が低光環境基準を満たすという判定に従って、低光環境基準が、1つ以上のカメラの視野内の光量が所定の閾値を下回ると満たされる基準を含み、カメラユーザインタフェース内に、フラッシュ動作の状態を示すフラッシュ状態インジケータと、低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、を同時に表示することと、1つ以上のカメラの視野内の光量が低光環境基準を満たしていないという判定に従って、カメラユーザインタフェース内の低光キャプチャ状態インジケータを表示するのをやめることと、の命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. Temporary computer-readable storage media stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras. The amount of light in the field of view of one or more cameras through one or more sensors of the electronic device while displaying the camera user interface through the display device and displaying the camera user interface. In response to the detection and detection of the amount of light in the field of view of one or more cameras, the low light environment standard is determined according to the determination that the amount of light in the field of view of one or more cameras meets the low light environment standard. A flash state indicator indicating the state of flash operation and a low indicating the state of low light capture mode are included in the camera user interface, including criteria that are met when the amount of light in the field of view of one or more cameras falls below a predetermined threshold. Displaying the light capture status indicator at the same time and displaying the low light capture status indicator in the camera user interface according to the determination that the amount of light in the field of view of one or more cameras does not meet the low light environment standard. Includes orders to quit.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することと、カメラユーザインタフェースを表示している間に、電子デバイスの1つ以上のセンサを介して、1つ以上のカメラの視野内の光量を検出することと、1つ以上のカメラの視野内の光量を検出したことに応答して、1つ以上のカメラの視野内の光量が低光環境基準を満たすという判定に従って、低光環境基準が、1つ以上のカメラの視野内の光量が所定の閾値を下回ると満たされる基準を含み、カメラユーザインタフェース内に、フラッシュ動作の状態を示すフラッシュ状態インジケータと、低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、を同時に表示することと、1つ以上のカメラの視野内の光量が低光環境基準を満たしていないという判定に従って、カメラユーザインタフェース内の低光キャプチャ状態インジケータを表示するのをやめることと、の命令を含む。 According to some embodiments, electronic devices are described. The electronic device comprises a display device, one or more cameras, one or more processors, and a memory for storing one or more programs configured to be executed by the one or more processors. While one or more programs display the camera user interface through the display device and display the camera user interface, one or more through one or more sensors of the electronic device. Determining that the amount of light in the field of one or more cameras meets the low light environment criteria in response to detecting the amount of light in the field of the camera and detecting the amount of light in the field of one or more cameras. According to, the low light environment standard includes a standard that is satisfied when the amount of light in the field of view of one or more cameras falls below a predetermined threshold, and in the camera user interface, a flash state indicator indicating the state of flash operation and low light. Low light in the camera user interface according to the simultaneous display of a low light capture status indicator indicating the state of the capture mode and the determination that the amount of light in the field of view of one or more cameras does not meet the low light environmental criteria. Includes instructions to stop displaying the capture status indicator.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、表示デバイスを介して、カメラユーザインタフェースを表示する手段と、カメラユーザインタフェースを表示している間に、電子デバイスの1つ以上のセンサを介して、1つ以上のカメラの視野内の光量を検出する手段と、1つ以上のカメラの視野内の光量を検出したことに応答して、1つ以上のカメラの視野内の光量が低光環境基準を満たすという判定に従って、低光環境基準が、1つ以上のカメラの視野内の光量が所定の閾値を下回ると満たされる基準を含み、カメラユーザインタフェース内に、フラッシュ動作の状態を示すフラッシュ状態インジケータと、低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、を同時に表示する手段と、1つ以上のカメラの視野内の光量が低光環境基準を満たしていないという判定に従って、カメラユーザインタフェース内の低光キャプチャ状態インジケータを表示するのをやめる手段と、を備える。 According to some embodiments, electronic devices are described. This electronic device is a display device, one or more cameras, a means of displaying the camera user interface through the display device, and one or more sensors of the electronic device while displaying the camera user interface. The amount of light in the field of view of one or more cameras is increased in response to the detection of the amount of light in the field of view of one or more cameras and the detection of the amount of light in the field of view of one or more cameras. According to the determination that the low light environment standard is satisfied, the low light environment standard includes a standard that is satisfied when the amount of light in the field of view of one or more cameras falls below a predetermined threshold, and the state of flash operation is set in the camera user interface. According to the means for simultaneously displaying the flash status indicator indicating and the low light capture status indicator indicating the status of the low light capture mode, and the determination that the amount of light in the field of view of one or more cameras does not meet the low light environmental standard. , A means of stopping displaying the low light capture status indicator in the camera user interface.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイスを有する電子デバイスで行われる。この方法は、表示デバイス上に、視覚メディアの表現と、視覚メディアの表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、視覚メディアの表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、を含む、メディア編集ユーザインタフェースを表示することと、メディア編集ユーザインタフェースを表示している間に、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出することと、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出したことに応答して、表示デバイス上に、メディア編集ユーザインタフェース内のそれぞれの場所に、第1の編集可能パラメータを調整する調整可能なコントロールを表示することと、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、及び第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出することと、第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出したことに応答して、第1のジェスチャに従って第1の編集可能パラメータの現在値を調整することと、表示デバイス上に、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出することと、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出したことに応答して、メディア編集ユーザインタフェース内のそれぞれの場所に、第2の編集可能パラメータを調整する調整可能なコントロールを表示することと、第2の編集可能パラメータを調整する調整可能なコントロールを表示している間に、及び第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出することと、第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出したことに応答して、第2のジェスチャに従って第2の編集可能パラメータの現在値を調整することと、を含む。 According to some embodiments, the method is described. This method is performed on an electronic device that has a display device. This method presents on the display device a first affordance corresponding to the representation of the visual media and a first editable parameter for editing the representation of the visual media, and a second editable parameter for editing the representation of the visual media. Displaying the media editing user interface, including, and detecting the first user input corresponding to the selection of the first affordance while displaying the media editing user interface. In response to detecting the first user input corresponding to the first affordance selection, a first editable parameter is placed on the display device at each location within the media editing user interface. The first while displaying the adjustable control to adjust and while displaying the adjustable control to adjust the first editable parameter, and while the first editable parameter is selected. Adjusting the editable parameters of the Adjustable to detect the first gesture directed at the adjustable control and to adjust the first editable parameter while the first editable parameter is selected Adjusting the current value of the first editable parameter according to the first gesture in response to the detection of the first gesture directed at the control, and the first editable parameter on the display device. While displaying the adjustable control, it detects the second user input corresponding to the second affordance selection and the second user input corresponding to the second affordance selection. In response to the detection, display an adjustable control that adjusts the second editable parameter at each location in the media editing user interface, and adjust the second editable parameter. To detect a second gesture directed at an adjustable control that adjusts the second editable parameter while the control is displayed and while the second editable parameter is selected. In response to detecting a second gesture directed at an adjustable control that adjusts the second editable parameter while the second editable parameter is selected, according to the second gesture Includes adjusting the current value of the second editable parameter.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイス上に、視覚メディアの表現と、視覚メディアの表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、視覚メディアの表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、を含む、メディア編集ユーザインタフェースを表示することと、メディア編集ユーザインタフェースを表示している間に、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出することと、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出したことに応答して、表示デバイス上に、メディア編集ユーザインタフェース内のそれぞれの場所に、第1の編集可能パラメータを調整する調整可能なコントロールを表示することと、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、及び第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出することと、第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出したことに応答して、第1のジェスチャに従って第1の編集可能パラメータの現在値を調整することと、表示デバイス上に、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出することと、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出したことに応答して、メディア編集ユーザインタフェース内のそれぞれの場所に、第2の編集可能パラメータを調整する調整可能なコントロールを表示することと、第2の編集可能パラメータを調整する調整可能なコントロールを表示している間に、及び第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出することと、第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出したことに応答して、第2のジェスチャに従って第2の編集可能パラメータの現在値を調整することと、の命令を含む。 According to some embodiments, non-temporary computer-readable storage media are described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, and one or more programs are stored on the display device. , The first affordance corresponding to the representation of the visual media and the first editable parameter to edit the representation of the visual media, and the second affordance corresponding to the second editable parameter to edit the representation of the visual media. Displaying the media editing user interface, including, and detecting the first user input corresponding to the selection of the first affordance while displaying the media editing user interface, and the first affordance. In response to detecting the first user input corresponding to the selection of, display on the display device an adjustable control that adjusts the first editable parameter at each location in the media editing user interface. Adjustments to adjust the first editable parameter while displaying the adjustable control and adjusting the first editable parameter while the first editable parameter is selected. A first directed to an adjustable control that detects a first gesture directed to a possible control and adjusts the first editable parameter while the first editable parameter is selected. Adjust the current value of the first editable parameter according to the first gesture in response to the detection of the gesture, and adjust the display device to adjust the first editable parameter. In response to detecting the second user input corresponding to the second affordance selection and detecting the second user input corresponding to the second affordance selection while displaying, While displaying an adjustable control that adjusts the second editable parameter and an adjustable control that adjusts the second editable parameter at each location in the media editing user interface. , And while the second editable parameter is selected, the detection of a second gesture directed at an adjustable control that adjusts the second editable parameter and the second editable parameter Responds to detecting a second gesture directed at an adjustable control that adjusts the second editable parameter while selected Then, the instruction of adjusting the current value of the second editable parameter according to the second gesture is included.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイス上に、視覚メディアの表現と、視覚メディアの表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、視覚メディアの表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、を含む、メディア編集ユーザインタフェースを表示することと、メディア編集ユーザインタフェースを表示している間に、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出することと、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出したことに応答して、表示デバイス上に、メディア編集ユーザインタフェース内のそれぞれの場所に、第1の編集可能パラメータを調整する調整可能なコントロールを表示することと、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、及び第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出することと、第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出したことに応答して、第1のジェスチャに従って第1の編集可能パラメータの現在値を調整することと、表示デバイス上に、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出することと、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出したことに応答して、メディア編集ユーザインタフェース内のそれぞれの場所に、第2の編集可能パラメータを調整する調整可能なコントロールを表示することと、第2の編集可能パラメータを調整する調整可能なコントロールを表示している間に、及び第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出することと、第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出したことに応答して、第2のジェスチャに従って第2の編集可能パラメータの現在値を調整することと、の命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. The temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, and one or more programs are stored on the display device. The representation of the visual media, the first affordance corresponding to the first editable parameter that edits the representation of the visual media, and the second affordance that corresponds to the second editable parameter that edits the representation of the visual media. Displaying the media editing user interface, including, and detecting the first user input corresponding to the selection of the first affordance while displaying the media editing user interface, and the first affordance. In response to detecting the first user input corresponding to the selection, display an adjustable control on the display device at each location within the media editing user interface that adjusts the first editable parameter. And that, while displaying the adjustable control that adjusts the first editable parameter, and while the first editable parameter is selected, adjust the first editable parameter. A first gesture directed at a control that adjusts the first editable parameter while the first editable parameter is selected. In response to detecting a gesture, adjust the current value of the first editable parameter according to the first gesture, and display an adjustable control on the display device that adjusts the first editable parameter. In response to detecting the second user input corresponding to the second affordance selection and detecting the second user input corresponding to the second affordance selection, the media While displaying the adjustable control that adjusts the second editable parameter and the adjustable control that adjusts the second editable parameter at each location in the edit user interface. And while the second editable parameter is selected, the detection of a second gesture directed at an adjustable control that adjusts the second editable parameter and the selection of the second editable parameter. In response to detecting a second gesture directed at an adjustable control that adjusts the second editable parameter while It includes an instruction to adjust the current value of the second editable parameter according to the second gesture.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイス上に、視覚メディアの表現と、視覚メディアの表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、視覚メディアの表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、を含む、メディア編集ユーザインタフェースを表示することと、メディア編集ユーザインタフェースを表示している間に、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出することと、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出したことに応答して、表示デバイス上に、メディア編集ユーザインタフェース内のそれぞれの場所に、第1の編集可能パラメータを調整する調整可能なコントロールを表示することと、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、及び第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出することと、第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出したことに応答して、第1のジェスチャに従って第1の編集可能パラメータの現在値を調整することと、表示デバイス上に、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出することと、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出したことに応答して、メディア編集ユーザインタフェース内のそれぞれの場所に、第2の編集可能パラメータを調整する調整可能なコントロールを表示することと、第2の編集可能パラメータを調整する調整可能なコントロールを表示している間に、及び第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出することと、第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出したことに応答して、第2のジェスチャに従って第2の編集可能パラメータの現在値を調整することと、を含む。 According to some embodiments, electronic devices are described. The electronic device is on a display device with a first editability corresponding to the representation of the visual media and a first editable parameter for editing the representation of the visual media, and a second editability for editing the representation of the visual media. Displaying the media editing user interface, including a second affordance corresponding to the parameter, and while displaying the media editing user interface, the first user input corresponding to the selection of the first affordance. In response to detecting and detecting the first user input corresponding to the first affordance selection, the first editable parameter on the display device, at each location within the media editing user interface. While displaying the adjustable control to adjust and while displaying the adjustable control to adjust the first editable parameter, and while the first editable parameter is selected, the first Adjusting the Editable Parameter of 1 Detecting the first gesture directed at the adjustable control and adjusting the first editable parameter while the first editable parameter is selected Adjusting the current value of the first editable parameter according to the first gesture in response to detecting the first gesture directed to a possible control and the first editability on the display device Adjusting Parameters While displaying the adjustable control, detecting the second user input corresponding to the second affordance selection and the second user input corresponding to the second affordance selection In response to the detection, display an adjustable control that adjusts the second editable parameter at each location in the media editing user interface, and adjust the second editable parameter. Detecting a second gesture directed at an adjustable control that adjusts the second editable parameter while displaying the control and while the second editable parameter is selected. And, in response to detecting a second gesture directed at an adjustable control that adjusts the second editable parameter while the second editable parameter is selected, the second gesture Includes adjusting the current value of the second editable parameter according to.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、表示デバイス上に、視覚メディアの表現と、視覚メディアの表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、視覚メディアの表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、を含む、メディア編集ユーザインタフェースを表示する手段と、メディア編集ユーザインタフェースを表示している間に、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出する手段と、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出したことに応答して、表示デバイス上に、メディア編集ユーザインタフェース内のそれぞれの場所に、第1の編集可能パラメータを調整する調整可能なコントロールを表示する手段と、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、及び第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出する手段と、第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出したことに応答して、第1のジェスチャに従って第1の編集可能パラメータの現在値を調整する手段と、表示デバイス上に、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出する手段と、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出したことに応答して、メディア編集ユーザインタフェース内のそれぞれの場所に、第2の編集可能パラメータを調整する調整可能なコントロールを表示する手段と、第2の編集可能パラメータを調整する調整可能なコントロールを表示している間に、及び第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出する手段と、第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出したことに応答して、第2のジェスチャに従って第2の編集可能パラメータの現在値を調整する手段と、を備える。 According to some embodiments, electronic devices are described. This electronic device is a display device, a first affordance corresponding to a first editable parameter that edits the representation of the visual media and a first editable parameter on the display device, and a second that edits the representation of the visual media. A means of displaying a media editing user interface, including a second affordance corresponding to two editable parameters, and a first corresponding to the selection of the first affordance while displaying the media editing user interface. In response to detecting the user input of the first user input corresponding to the selection of the first affordance, the first on the display device, at each location in the media editing user interface. While displaying the means to display the adjustable control that adjusts the editable parameters of, and while displaying the adjustable control that adjusts the first editable parameter, and the first editable parameter is selected. In the meantime, a means of detecting a first gesture directed at an adjustable control that adjusts the first editable parameter, and a first editable parameter while the first editable parameter is selected. On the display device, a means of adjusting the current value of the first editable parameter according to the first gesture in response to the detection of the first gesture directed at the adjustable control. Adjusting the Editable Parameters of 1 While displaying the adjustable control, the means of detecting the second user input corresponding to the second affordance selection and the second corresponding to the second affordance selection. In response to detecting the second user input, a means of displaying an adjustable control for adjusting the second editable parameter and a second editable parameter at each location in the media editing user interface. A second gesture directed at an adjustable control that adjusts the second editable parameter while displaying the adjustable control to adjust and while the second editable parameter is selected. And in response to detecting a second gesture directed at an adjustable control that adjusts the second editable parameter while the second editable parameter is selected. A means for adjusting the current value of the second editable parameter according to the second gesture is provided.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイスを有する電子デバイスで行われる。この方法は、表示デバイス上に、第1の視覚メディアの第1の表現と、第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、を同時に表示することを含む第1のユーザインタフェースを表示することと、表示デバイス上に、第1のユーザインタフェースを表示している間に、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出することと、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出したことに応答して、表示デバイス上に、ジェスチャの大きさに基づいて選択された遠近歪に対するそれぞれの調整量で第1の視覚メディアの第2の表現を表示することと、を含む。 According to some embodiments, the method is described. This method is performed on an electronic device that has a display device. This method simultaneously displays a first representation of the first visual medium and an adjustable control, including an indication of the current adjustment amount for perspective distortion of the first visual medium, on the display device. Displaying the first user interface, including, and detecting user input, including gestures directed at adjustable controls, while displaying the first user interface on the display device. A first visual medium on the display device with each adjustment amount for perspective distortion selected based on the size of the gesture in response to detecting user input containing gestures directed to the adjustable control. Includes displaying a second representation of.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイス上に、第1の視覚メディアの第1の表現と、第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、を同時に表示することを含む第1のユーザインタフェースを表示することと、表示デバイス上に、第1のユーザインタフェースを表示している間に、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出することと、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出したことに応答して、表示デバイス上に、ジェスチャの大きさに基づいて選択された遠近歪に対するそれぞれの調整量で第1の視覚メディアの第2の表現を表示することと、の命令を含む。 According to some embodiments, non-temporary computer-readable storage media are described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, and one or more programs are placed on the display device. A first user interface that simultaneously displays a first representation of the first visual media and an adjustable control that includes an indication of the current adjustment amount for perspective distortion of the first visual media. Detecting user input, including gestures directed to adjustable controls, and directed to adjustable controls while displaying and displaying the first user interface on the display device. In response to detecting user input containing gestures, a second representation of the first visual medium is displayed on the display device with each adjustment amount for perspective distortion selected based on the magnitude of the gesture. Including the command of that.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイス上に、第1の視覚メディアの第1の表現と、第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、を同時に表示することを含む第1のユーザインタフェースを表示することと、表示デバイス上に、第1のユーザインタフェースを表示している間に、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出することと、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出したことに応答して、表示デバイス上に、ジェスチャの大きさに基づいて選択された遠近歪に対するそれぞれの調整量で第1の視覚メディアの第2の表現を表示することと、の命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, and one or more programs are stored on the display device. Display a first user interface that includes simultaneously displaying a first representation of the first visual media and an adjustable control that includes an indication of the current adjustment amount for perspective distortion of the first visual media. To detect user input, including gestures directed to adjustable controls, and gestures directed to adjustable controls while displaying the first user interface on the display device. Displaying a second representation of the first visual medium on the display device in response to the detection of user input, including, with each adjustment amount for perspective distortion selected based on the magnitude of the gesture. And, including the instruction.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムが、表示デバイス上に、第1の視覚メディアの第1の表現と、第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、を同時に表示することを含む第1のユーザインタフェースを表示することと、表示デバイス上に、第1のユーザインタフェースを表示している間に、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出することと、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出したことに応答して、表示デバイス上に、ジェスチャの大きさに基づいて選択された遠近歪に対するそれぞれの調整量で第1の視覚メディアの第2の表現を表示することと、の命令を含む。 According to some embodiments, electronic devices are described. The electronic device comprises a display device, one or more processors, and a memory for storing one or more programs configured to be executed by the one or more processors. A first representation of the first visual media and an adjustable control including an indication of the current adjustment amount for perspective distortion of the first visual media are simultaneously displayed on the display device. Displaying one user interface and detecting user input, including gestures directed at adjustable controls, while displaying the first user interface on the display device, can be adjusted. A second of the first visual media with each adjustment amount for perspective distortion selected based on the magnitude of the gesture on the display device in response to detecting user input, including gestures directed at the control. Includes instructions for displaying the representation of.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、表示デバイス上に、第1の視覚メディアの第1の表現と、第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、を同時に表示することを含む第1のユーザインタフェースを表示する手段と、表示デバイス上に、第1のユーザインタフェースを表示している間に、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出する手段と、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出したことに応答して、表示デバイス上に、ジェスチャの大きさに基づいて選択された遠近歪に対するそれぞれの調整量で第1の視覚メディアの第2の表現を表示する手段と、を備える。 According to some embodiments, electronic devices are described. This electronic device comprises a display device and an adjustable control on the display device that includes a first representation of the first visual medium and an indication of the current adjustment amount for perspective distortion of the first visual medium. A means of displaying a first user interface, including displaying the first user interface at the same time, and a user input containing a gesture directed at an adjustable control while displaying the first user interface on the display device. At each adjustment amount for perspective distortion selected based on the size of the gesture on the display device in response to detecting the means of detection and the detection of user input, including gestures directed at adjustable controls. A means for displaying a second representation of the first visual medium is provided.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイスを有する電子デバイスで行われる。この方法は、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、を含み、コントロールを表示することが、1組の第1のキャプチャ持続時間基準が満たされているという判定に従って、コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイスを構成することと、1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているという判定に従って、コントロールが第1のキャプチャ持続時間より長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイスを構成することと、を含む。 According to some embodiments, the method is described. This method is performed on an electronic device that has a display device. This method displays a media capture user interface that includes displaying a representation of the field of view of one or more cameras via a display device and captures the media while the low light camera mode is active. Displaying a control that adjusts the capture duration, including displaying the control, causes the control to have a first capture duration according to the determination that a set of first capture duration criteria is met. To display the indication that it is set to, and in response to a single request to capture the image corresponding to the field of view of one or more cameras, the first multiple images over the first capture duration. According to the configuration of the electronic device to capture, and the determination that a set of second capture duration criteria different from the set of first capture duration criteria is met, the control is first. Displaying an indication that a second capture duration is set longer than the capture duration, and in response to a single request to capture an image that corresponds to the field of view of one or more cameras, the second Includes configuring the electronic device to capture a second plurality of images over the capture duration of.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、1つ以上のプログラムが、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、の命令を含み、コントロールを表示することが、1組の第1のキャプチャ持続時間基準が満たされているという判定に従って、コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイスを構成することと、1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているという判定に従って、コントロールが第1のキャプチャ持続時間より長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイスを構成することと、を含む。 According to some embodiments, non-temporary computer-readable storage media are described. A non-temporary computer-readable storage medium that stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, wherein the display device. Controls to display a media capture user interface, including displaying a representation of the field of view of one or more cameras, and to adjust the capture duration to capture the media while the low light camera mode is active. The control is set to the first capture duration according to the determination that displaying the control, including the instructions of, and displaying the control meets a set of first capture duration criteria. To capture the first multiple images over the first capture duration in response to a single request to capture the image corresponding to the field of view of one or more cameras. The control is longer than the first capture duration according to the configuration of the electronic device and the determination that a set of second capture duration criteria different from the set of first capture duration criteria is met. Over the second capture duration, in response to a single request to display an indication that it is set to a second capture duration and to capture an image corresponding to the field of view of one or more cameras. Includes configuring the electronic device to capture a second plurality of images.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、1つ以上のプログラムが、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、の命令を含み、コントロールを表示することが、1組の第1のキャプチャ持続時間基準が満たされているという判定に従って、コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイスを構成することと、1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているという判定に従って、コントロールが第1のキャプチャ持続時間より長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイスを構成することと、を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A non-temporary computer-readable storage medium that stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, wherein the display device. Controls to display a media capture user interface, including displaying a representation of the field of view of one or more cameras, and to adjust the capture duration to capture the media while the low light camera mode is active. The control is set to the first capture duration according to the determination that displaying the control, including the instructions of, and displaying the control meets a set of first capture duration criteria. To capture the first multiple images over the first capture duration in response to a single request to capture the image corresponding to the field of view of one or more cameras. The control is longer than the first capture duration according to the configuration of the electronic device and the determination that a set of second capture duration criteria different from the set of first capture duration criteria is met. Over the second capture duration, in response to a single request to display an indication that it is set to a second capture duration and to capture an image corresponding to the field of view of one or more cameras. Includes configuring the electronic device to capture a second plurality of images.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムが、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、の命令を含み、コントロールを表示することが、1組の第1のキャプチャ持続時間基準が満たされているという判定に従って、コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイスを構成することと、1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているという判定に従って、コントロールが第1のキャプチャ持続時間より長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイスを構成することと、を含む。 According to some embodiments, electronic devices are described. The electronic device includes one or more processors and a memory that stores one or more programs configured to be executed by the one or more processors, and one or more programs display the display device. Controls to display a media capture user interface, including displaying a representation of the field of view of one or more cameras, and to adjust the capture duration to capture the media while the low light camera mode is active. The control is set to the first capture duration according to the determination that displaying the control, including the instructions of, and displaying the control meets a set of first capture duration criteria. To capture the first multiple images over the first capture duration in response to a single request to capture the image corresponding to the field of view of one or more cameras. The control is longer than the first capture duration according to the configuration of the electronic device and the determination that a set of second capture duration criteria different from the set of first capture duration criteria is met. Over the second capture duration, in response to displaying an indication that it is set to a second capture duration and in response to a single request to capture an image that corresponds to the field of view of one or more cameras. Includes configuring the electronic device to capture a second plurality of images.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、表示デバイスを介して、1つ以上のカメラの視野の表現を表示する手段を含むメディアキャプチャユーザインタフェースを表示する手段と、低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示する手段と、を含み、コントロールを表示する手段が、1組の第1のキャプチャ持続時間基準が満たされているという判定に従って、コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示する手段と、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイスを構成する手段と、1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているという判定に従って、コントロールが第1のキャプチャ持続時間より長い第2のキャプチャ持続時間に設定されているというインジケーションを表示する手段と、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイスを構成する手段と、を含む。 According to some embodiments, electronic devices are described. This electronic device presents a display device, a means of displaying a media capture user interface that includes means of displaying a representation of the field of view of one or more cameras through the display device, and while the low light camera mode is active. , A means of displaying a control that adjusts the capture duration to capture the media, and a means of displaying the control according to the determination that a set of first capture duration criteria is met. A means of displaying an indication that it is set to a capture duration of 1 and a first over the first capture duration in response to a single request to capture an image corresponding to the field of view of one or more cameras. According to the means for configuring the electronic device to capture one plurality of images and the determination that a set of second capture duration criteria different from the set of first capture duration criteria is met. Means to display an indication that the control is set to a second capture duration that is longer than the first capture duration, and respond to a single request to capture an image that corresponds to the field of view of one or more cameras. The electronic device is then configured to capture the second plurality of images over the second capture duration.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスで行われる。この方法は、表示デバイスを介して、1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示することと、表示デバイスを介して、メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信することと、メディアをキャプチャする要求を受信したことに応答して、1つ以上のカメラを介して、メディアのキャプチャを開始することと、1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、低光モードがアクティブであると満たされる基準を含む、1組のガイダンス基準が満たされているという判定に従って、表示デバイスを介して、メディアのキャプチャが開始されたときの電子デバイスのポーズと、メディアのキャプチャを開始した後の第1の時間における電子デバイスのポーズとの差の視覚インジケーションを表示することと、を含む。 According to some embodiments, the method is described. This method is performed on a display device and an electronic device having one or more cameras. This method displays a media capture user interface that includes a representation of the field of view of one or more cameras via a display device, and media while displaying the media capture user interface through a display device. In response to receiving a request to capture media and receiving a request to capture media, initiating media capture through one or more cameras and through one or more cameras In the first time after starting the capture of the media, the media via the display device, according to the determination that a set of guidance criteria is met, including the criteria that the low light mode is met as active. Includes displaying a visual indication of the difference between the pose of the electronic device when the capture of the device is started and the pose of the electronic device at the first time after the start of the capture of the media.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、の命令を含み、コントロールを表示することが、1組の第1のキャプチャ持続時間基準が満たされているという判定に従って、コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイスを構成することと、1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているという判定に従って、コントロールが第1のキャプチャ持続時間より長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイスを構成することと、を含む。 According to some embodiments, non-temporary computer-readable storage media are described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, and the one or more programs pass through the display device. Displays a media capture user interface that includes displaying a representation of the field of view of one or more cameras, and controls that adjust the capture duration to capture the media while the low light camera mode is active. It is said that the control is set to the first capture duration according to the determination that displaying and displaying the control, including the instructions, meet a set of first capture duration criteria. Electronic to capture the first multiple images over the first capture duration in response to a single request to display the indication and capture the images corresponding to the field of view of one or more cameras. The control is longer than the first capture duration, according to the configuration of the device and the determination that a set of second capture duration criteria different from the first set of capture duration criteria is met. Displaying an indication that it is set to a capture duration of 2 and responding to a single request to capture an image corresponding to the field of view of one or more cameras, a second over the second capture duration. Includes configuring an electronic device to capture two plurality of images.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、の命令を含み、コントロールを表示することが、1組の第1のキャプチャ持続時間基準が満たされているという判定に従って、コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイスを構成することと、1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているという判定に従って、コントロールが第1のキャプチャ持続時間より長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイスを構成することと、を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, and the one or more programs pass through the display device. Displays a media capture user interface that includes displaying a representation of the field of view of one or more cameras, and controls that adjust the capture duration to capture the media while the low light camera mode is active. It is said that the control is set to the first capture duration according to the determination that displaying and displaying the control, including the instructions, meet a set of first capture duration criteria. Electronic to capture the first multiple images over the first capture duration in response to a single request to display the indication and capture the images corresponding to the field of view of one or more cameras. The control is longer than the first capture duration, according to the configuration of the device and the determination that a set of second capture duration criteria different from the first set of capture duration criteria is met. Displaying an indication that it is set to a capture duration of 2 and responding to a single request to capture an image corresponding to the field of view of one or more cameras, a second over the second capture duration. Includes configuring an electronic device to capture two plurality of images.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムが、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、の命令を含み、コントロールを表示することが、1組の第1のキャプチャ持続時間基準が満たされているという判定に従って、コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイスを構成することと、1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているという判定に従って、コントロールが第1のキャプチャ持続時間より長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイスを構成することと、を含む。 According to some embodiments, electronic devices are described. The electronic device includes a display device, one or more processors, and a memory that stores one or more programs configured to be executed by the one or more processors. The capture duration to capture the media while the low light camera mode is active, displaying the media capture user interface, including displaying a representation of the field of view of one or more cameras through the display device. The control is set to the first capture duration according to the determination that displaying the control to adjust and displaying the control, including the command, meets a set of first capture duration criteria. In response to a single request to display the indication that it is set and to capture the image corresponding to the field of view of one or more cameras, the first multiple images over the first capture duration. The control controls the first capture according to the configuration of the electronic device to capture and the determination that a set of second capture duration criteria different from the set of first capture duration criteria is met. Displaying an indication that the second capture duration is set longer than the duration, and in response to a single request to capture an image corresponding to the field of view of one or more cameras, the second Includes configuring the electronic device to capture a second plurality of images over the capture duration.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、表示デバイスを介して、1つ以上のカメラの視野の表現を表示する手段を含むメディアキャプチャユーザインタフェースを表示する手段と、低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示する手段と、を含み、コントロールを表示する手段が、1組の第1のキャプチャ持続時間基準が満たされているという判定に従って、コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示する手段と、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイスを構成する手段と、1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているという判定に従って、コントロールが第1のキャプチャ持続時間より長い第2のキャプチャ持続時間に設定されているというインジケーションを表示する手段と、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイスを構成する手段と、を含む。 According to some embodiments, electronic devices are described. This electronic device presents a display device, a means of displaying a media capture user interface that includes means of displaying a representation of the field of view of one or more cameras through the display device, and while the low light camera mode is active. , A means of displaying a control that adjusts the capture duration to capture the media, and a means of displaying the control according to the determination that a set of first capture duration criteria is met. A means of displaying an indication that it is set to a capture duration of 1 and a first over the first capture duration in response to a single request to capture an image corresponding to the field of view of one or more cameras. According to the means for configuring the electronic device to capture one plurality of images and the determination that a set of second capture duration criteria different from the set of first capture duration criteria is met. Means to display an indication that the control is set to a second capture duration that is longer than the first capture duration, and respond to a single request to capture an image that corresponds to the field of view of one or more cameras. The electronic device is then configured to capture the second plurality of images over the second capture duration.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスで行われる。この方法は、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、第1の領域の外側にあり、第1の領域と視覚的に区別される第2の領域であって、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第1の距離であると満たされる基準を含む、1組の第1のそれぞれの基準が満たされているという判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することと、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第2の距離であると満たされる基準を含む、1組の第2のそれぞれの基準が満たされているという判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示するのをやめることと、を含む、第2の領域と、を含む、カメラユーザインタフェースを表示することを含む。 According to some embodiments, the method is described. This method is performed on a display device and an electronic device having one or more cameras. The method is to display the camera user interface via a display device, wherein the camera user interface comprises a first representation of a first portion of the field of view of one or more cameras. , A second area that is outside the first area and is visually distinguishable from the first area, where each of the first objects in the field of view of one or more cameras is one or more cameras. A second of the field of view of one or more cameras within the second region, according to the determination that each of the first set of criteria is met, including the criteria that are met as the first distance from A set that includes displaying parts in a first visual appearance and a criterion that each first object in the field of view of one or more cameras is satisfied to be a second distance from one or more cameras. To stop displaying the second part of the field of view of one or more cameras in the second area with the first visual appearance, according to the determination that each of the second criteria is met. Includes displaying a camera user interface, including, including, and a second area.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、第1の領域の外側にあり、第1の領域と視覚的に区別される第2の領域であって、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第1の距離であると満たされる基準を含む、1組の第1のそれぞれの基準が満たされているという判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することと、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第2の距離であると満たされる基準を含む、1組の第2のそれぞれの基準が満たされているという判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示するのをやめることと、を含む、第2の領域と、を含む、カメラユーザインタフェースを表示することの命令を含む。 According to some embodiments, non-temporary computer-readable storage media are described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, and the one or more programs pass through the display device. The camera user interface is displayed in a first region containing a first representation of a first portion of the field of view of one or more cameras, and outside the first region. A second region that is visually distinct from the first region, where each first object in the field of view of one or more cameras is a first distance from one or more cameras. Within the second region, a second portion of the field of view of one or more cameras in the first visual appearance, according to the determination that each of the first set of criteria, including the criteria that are met, is met. Each set of second criteria includes the criteria for displaying and satisfying that each first object in the field of view of one or more cameras is a second distance from the one or more cameras. A second region, including, within the second region, stopping the display of a second portion of the field of view of one or more cameras in the first visual appearance, according to the determination that it is filled. Includes instructions to display the camera user interface, including.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、第1の領域の外側にあり、第1の領域と視覚的に区別される第2の領域であって、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第1の距離であると満たされる基準を含む、1組の第1のそれぞれの基準が満たされているという判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することと、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第2の距離であると満たされる基準を含む、1組の第2のそれぞれの基準が満たされているという判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示するのをやめることと、を含む、第2の領域と、を含む、カメラユーザインタフェースを表示することの命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, and the one or more programs pass through the display device. The camera user interface is displayed in a first region containing a first representation of a first portion of the field of view of one or more cameras, and outside the first region. A second region that is visually distinct from the first region, where each first object in the field of view of one or more cameras is a first distance from one or more cameras. Within the second region, a second portion of the field of view of one or more cameras in the first visual appearance, according to the determination that each of the first set of criteria, including the criteria that are met, is met. Each set of second criteria includes the criteria for displaying and satisfying that each first object in the field of view of one or more cameras is a second distance from the one or more cameras. A second region, including, within the second region, stopping the display of a second portion of the field of view of one or more cameras in the first visual appearance, according to the determination that it is filled. Includes instructions to display the camera user interface, including.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、第1の領域の外側にあり、第1の領域と視覚的に区別される第2の領域であって、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第1の距離であると満たされる基準を含む、1組の第1のそれぞれの基準が満たされているという判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することと、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第2の距離であると満たされる基準を含む、1組の第2のそれぞれの基準が満たされているという判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示するのをやめることと、を含む、第2の領域と、を含む、カメラユーザインタフェースを表示することの命令を含む。 According to some embodiments, electronic devices are described. The electronic device includes a display device, one or more processors, and a memory that stores one or more programs configured to be executed by the one or more processors. The display of the camera user interface via a display device, wherein the camera user interface comprises a first representation of a first portion of the field of view of one or more cameras, and a first region. A second region that is outside the region and is visually distinguishable from the first region, where each of the first objects in the field of view of one or more cameras is the first from one or more cameras. Within the second region, a second portion of the field of view of one or more cameras, according to the determination that each of the first set of criteria is met, including the criteria that are met for the distance of A set of second, including displaying with one visual appearance and satisfying that each first object in the field of view of one or more cameras is a second distance from one or more cameras. Including, in accordance with the determination that each of the criteria is met, to stop displaying the second portion of the field of view of one or more cameras in the first visual appearance within the second region. Includes instructions to display the camera user interface, including a second area.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、カメラユーザインタフェースが、1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、第1の領域の外側にあり、第1の領域と視覚的に区別される第2の領域であって、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第1の距離であると満たされる基準を含む、1組の第1のそれぞれの基準が満たされているという判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することと、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第2の距離であると満たされる基準を含む、1組の第2のそれぞれの基準が満たされているという判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示するのをやめることと、を含む、第2の領域と、を含む、カメラユーザインタフェースを表示する手段と、を含む。 According to some embodiments, electronic devices are described. The electronic device is a means of displaying a camera user interface through a display device, one or more cameras, and a display device, wherein the camera user interface is the first portion of the field of view of the one or more cameras. A first region containing the first representation of, and a second region outside the first region that is visually distinguishable from the first region, within the field of view of one or more cameras. Within the second area, according to the determination that each of the first set of criteria is met, including the criteria that each first object is met as a first distance from one or more cameras. Displaying a second portion of the field of view of one or more cameras with a first visual appearance, and having each of the first objects in the field of view of one or more cameras be second from one or more cameras. A second portion of the field of view of one or more cameras is first placed within the second region according to the determination that each of the second set of criteria is met, including the criteria that are met as distance. Includes, including, a second area, including, and means of displaying the camera user interface.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイスと、視野を有する第1のカメラと、第1のカメラの視野よりも広い視野を有する第2のカメラとを有する電子デバイスで行われる。この方法は、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示することを含み、カメラユーザインタフェースが、第1のズームレベルで第1のカメラの視野の第1の部分の表現を含む第1の領域と、第1のズームレベルで第2のカメラの視野の第1の部分の表現を含む第2の領域と、を含む。この方法は、また、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示している間に、1つ以上のカメラの視野の部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信することと、1つ以上のカメラの視野の部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信したことに応答して、第1の領域において、第2のズームレベルで、第1のカメラの視野の第1の部分の少なくとも1つのサブセット除外する第1のカメラの視野の第2の部分の表現を表示することと、第2の領域において、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットの表現を表示することなく、第2の領域において、第2のズームレベルで、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットと重なる第2のカメラの視野の第2の部分の表現を表示することと、を含む。 According to some embodiments, the method is described. This method is performed on an electronic device having a display device, a first camera having a field of view, and a second camera having a field of view wider than the field of view of the first camera. The method comprises displaying a camera user interface that includes a representation of at least a portion of the field of view of one or more cameras displayed at the first zoom level via a display device, wherein the camera user interface is the first. A first region containing a representation of the first portion of the field of view of the first camera at the zoom level of, and a second region containing a representation of the first portion of the field of view of the second camera at the first zoom level. And, including. This method also uses a display device to display one or more camera user interfaces that include a representation of at least a portion of the field of view of one or more cameras displayed at the first zoom level. Receiving the first request to raise the zoom level of the representation of the field of view of the camera to the second zoom level and raising the zoom level of the representation of the field of view of one or more cameras to the second zoom level In response to receiving the first request, in the first region, at the second zoom level, the field of view of the first camera excluding at least one subset of the first part of the field of view of the first camera. To display the representation of the second part of the Instead, in the second region, at the second zoom level, the second of the second camera's field of view overlaps with a subset of the first camera's field of view excluded from the second part of the first camera's field of view. Includes displaying the representation of the second part.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイスと、視野を有する第1のカメラと、第1のカメラの視野よりも広い視野を有する第2のカメラと、を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示することの命令を含み、カメラユーザインタフェースが、第1のズームレベルで第1のカメラの視野の第1の部分の表現を含む第1の領域と、第1のズームレベルで第2のカメラの視野の第1の部分の表現を含む第2の領域と、を含む。非一時的コンピュータ可読記憶媒体は、また、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示している間に、1つ以上のカメラの視野の部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信することと、1つ以上のカメラの視野の部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信したことに応答して、第1の領域において、第2のズームレベルで、第1のカメラの視野の第1の部分の少なくとも1つのサブセット除外する第1のカメラの視野の第2の部分の表現を表示することと、第2の領域において、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットの表現を表示することなく、第2の領域において、第2のズームレベルで、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットと重なる第2のカメラの視野の第2の部分の表現を表示することと、を含む。 According to some embodiments, non-temporary computer-readable storage media are described. A non-temporary computer-readable storage medium is one or more processors of an electronic device comprising a display device, a first camera having a field of view, and a second camera having a field of view wider than the field of view of the first camera. Stores one or more programs configured to be executed by, and the one or more programs are at least a portion of the field of view of the one or more cameras displayed at the first zoom level through the display device. A first region, the camera user interface containing a representation of a first portion of the field of view of the first camera at a first zoom level, and a first region comprising a command to display the camera user interface including the representation of the first. Includes a second region, including a representation of the first portion of the field of view of the second camera at the zoom level of. The non-temporary computer-readable storage medium also displays through the display device a camera user interface that includes a representation of at least a portion of the field of view of one or more cameras displayed at the first zoom level. Receiving the first request to raise the zoom level of the representation of the field of view of one or more cameras to the second zoom level, and raising the zoom level of the representation of the field of view of one or more cameras to the second. In response to receiving the first request to raise to the zoom level of, in the first region, at the second zoom level, exclude at least one subset of the first portion of the field of view of the first camera. Displaying a representation of the second part of the field of view of one camera and, in the second region, a subset of the part of the field of view of the first camera excluded from the second part of the field of view of the first camera. A second region that overlaps a subset of the field of view of the first camera that is excluded from the second part of the field of view of the first camera at the second zoom level in the second area without displaying a representation. Includes displaying a representation of a second portion of the camera's field of view.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイスと、視野を有する第1のカメラと、第1のカメラの視野よりも広い視野を有する第2のカメラと、を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示することの命令を含み、カメラユーザインタフェースが、第1のズームレベルで第1のカメラの視野の第1の部分の表現を含む第1の領域と、第1のズームレベルで第2のカメラの視野の第1の部分の表現を含む第2の領域と、を含む。非一時的コンピュータ可読記憶媒体は、また、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示している間に、1つ以上のカメラの視野の部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信することと、1つ以上のカメラの視野の部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信したことに応答して、第1の領域において、第2のズームレベルで、第1のカメラの視野の第1の部分の少なくとも1つのサブセット除外する第1のカメラの視野の第2の部分の表現を表示することと、第2の領域において、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットの表現を表示することなく、第2の領域において、第2のズームレベルで、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットと重なる第2のカメラの視野の第2の部分の表現を表示することと、を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A non-temporary computer-readable storage medium is one or more processors of an electronic device comprising a display device, a first camera having a field of view, and a second camera having a field of view wider than the field of view of the first camera. Stores one or more programs configured to be executed by, and the one or more programs are at least a portion of the field of view of the one or more cameras displayed at the first zoom level through the display device. A first region, the camera user interface containing a representation of a first portion of the field of view of the first camera at a first zoom level, and a first region comprising a command to display the camera user interface including the representation of the first. Includes a second region, including a representation of the first portion of the field of view of the second camera at the zoom level of. The non-temporary computer-readable storage medium also displays through the display device a camera user interface that includes a representation of at least a portion of the field of view of one or more cameras displayed at the first zoom level. Receiving the first request to raise the zoom level of the representation of the field of view of one or more cameras to the second zoom level, and raising the zoom level of the representation of the field of view of one or more cameras to the second. In response to receiving the first request to raise to the zoom level of, in the first region, at the second zoom level, exclude at least one subset of the first portion of the field of view of the first camera. Displaying a representation of the second part of the field of view of one camera and, in the second region, a subset of the part of the field of view of the first camera excluded from the second part of the field of view of the first camera. A second region that overlaps a subset of the field of view of the first camera that is excluded from the second part of the field of view of the first camera at the second zoom level in the second area without displaying a representation. Includes displaying a representation of a second portion of the camera's field of view.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、視野を有する第1のカメラと、第1のカメラの視野よりも広い視野を有する第2のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムが、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示することの命令を含み、カメラユーザインタフェースが、第1のズームレベルで第1のカメラの視野の第1の部分の表現を含む第1の領域と、第1のズームレベルで第2のカメラの視野の第1の部分の表現を含む第2の領域と、を含む。この電子デバイスは、また、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示している間に、1つ以上のカメラの視野の部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信することと、1つ以上のカメラの視野の部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信したことに応答して、第1の領域において、第2のズームレベルで、第1のカメラの視野の第1の部分の少なくとも1つのサブセット除外する第1のカメラの視野の第2の部分の表現を表示することと、第2の領域において、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットの表現を表示することなく、第2の領域において、第2のズームレベルで、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットと重なる第2のカメラの視野の第2の部分の表現を表示することと、を含む。 According to some embodiments, electronic devices are described. This electronic device is executed by a display device, a first camera having a field of view, a second camera having a field of view wider than the field of view of the first camera, one or more processors, and one or more processors. The field of view of one or more cameras, including memory for storing one or more programs configured to be, and one or more programs displayed at a first zoom level via a display device. A first region that includes an instruction to display a camera user interface that includes a representation of at least a portion of the camera user interface that includes a representation of a first portion of the field of view of the first camera at a first zoom level. Includes a second region, including a representation of the first portion of the field of view of the second camera at the first zoom level. The electronic device may also display one or more camera user interfaces, including a representation of at least a portion of the field of view of the one or more cameras displayed at the first zoom level, through the display device. Receiving the first request to raise the zoom level of the representation of the field of view of one or more cameras to the second zoom level and raising the zoom level of the representation of the field of view of one or more cameras to the second zoom level In response to receiving the first request to raise, in the first region, at the second zoom level, exclude at least one subset of the first portion of the field of view of the first camera of the first camera. Display a representation of the second portion of the field of view and, in the second region, display a representation of a subset of the field of view of the first camera excluded from the second part of the field of view of the first camera. Without, in the second region, at the second zoom level, the field of view of the second camera that overlaps a subset of the field of view of the first camera that is excluded from the second part of the field of view of the first camera. Includes displaying the representation of the second part.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、視野を有する第1のカメラと、第1のカメラの視野よりも広い視野を有する第2のカメラと、1つ以上のカメラと、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示する手段と、を含み、カメラユーザインタフェースが、第1のズームレベルで第1のカメラの視野の第1の部分の表現を含む第1の領域と、第1のズームレベルで第2のカメラの視野の第1の部分の表現を含む第2の領域と、を含む。この電子デバイスは、また、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示している間に、1つ以上のカメラの視野の部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信する手段と、1つ以上のカメラの視野の部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信したことに応答して、第1の領域において、第2のズームレベルで、第1のカメラの視野の第1の部分の少なくとも1つのサブセット除外する第1のカメラの視野の第2の部分の表現を表示する手段と、第2の領域において、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットの表現を表示することなく、第2の領域において、第2のズームレベルで、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットと重なる第2のカメラの視野の第2の部分の表現を表示する手段と、を含む。 According to some embodiments, electronic devices are described. The electronic device comprises a display device, a first camera having a field of view, a second camera having a field of view wider than the field of view of the first camera, one or more cameras, and a display device. A means of displaying a camera user interface that includes a representation of at least a portion of the field of view of one or more cameras displayed at one zoom level, the camera user interface of the first camera at the first zoom level. It includes a first region containing a representation of the first portion of the field of view and a second region containing a representation of the first portion of the field of view of the second camera at the first zoom level. The electronic device may also display one or more camera user interfaces, including a representation of at least a portion of the field of view of the one or more cameras displayed at the first zoom level, through the display device. Means to receive the first request to raise the zoom level of the representation of the field of view of the camera to the second zoom level and the zoom level of the representation of the field of view of one or more cameras to the second zoom level. In response to receiving the first request to raise, in the first region, at the second zoom level, exclude at least one subset of the first portion of the field of view of the first camera of the first camera. A means of displaying a representation of a second portion of the field of view and, in the second region, displaying a representation of a subset of the portion of the field of view of the first camera excluded from the second part of the field of view of the first camera. Without, in the second region, at the second zoom level, the field of view of the second camera that overlaps a subset of the field of view of the first camera that is excluded from the second part of the field of view of the first camera. Includes means for displaying the representation of the second part.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスで行われる。この方法は、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、複数のズーミングを含み、複数のズームアフォーダンスが、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、カメラユーザインタフェースを表示することを含む。この方法は、また、複数のズーミングアフォーダンスを表示している間に、複数のアフォーダンスのうちの1つに向けられた第1のジェスチャを受信することと、第1のジェスチャを受信したことに応答して、第1のジェスチャが第1のズームアフォーダンスに向けられたジェスチャであるという判定に従って、第2のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示することと、第1のジェスチャが第2のズームアフォーダンスに向けられたジェスチャであるという判定に従って、第1のズームレベル及び第2のズームレベルとは異なる第3のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示することと、を含む。 According to some embodiments, the method is described. This method is performed on a display device and an electronic device having one or more cameras. The method is to display through a display device a camera user interface that includes a first representation of at least a portion of the field of view of one or more cameras displayed at a first zoom level. However, the plurality of zooming is included, and the plurality of zoom affordances include displaying a camera user interface including a first zoom affordance and a second zoom affordance. This method also responds to receiving a first gesture directed to one of the multiple affordances and receiving the first gesture while displaying multiple zooming affordances. Then, according to the determination that the first gesture is a gesture directed to the first zoom affordance, the second representation of at least a portion of the field of view of one or more cameras is displayed at the second zoom level. And, according to the determination that the first gesture is a gesture directed to the second zoom affordance, one or more cameras at a third zoom level different from the first zoom level and the second zoom level. Includes displaying a third representation of at least a portion of the field of view.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、複数のズーミングを含み、複数のズームアフォーダンスが、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、カメラユーザインタフェースを表示することと、複数のズーミングアフォーダンスを表示している間に、複数のアフォーダンスのうちの1つに向けられた第1のジェスチャを受信することと、第1のジェスチャを受信したことに応答して、第1のジェスチャが第1のズームアフォーダンスに向けられたジェスチャであるという判定に従って、第2のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示することと、第1のジェスチャが第2のズームアフォーダンスに向けられたジェスチャであるという判定に従って、第1のズームレベル及び第2のズームレベルとは異なる第3のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示することと、の命令を含む。 According to some embodiments, non-temporary computer-readable storage media are described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras. Is to display, through a display device, a camera user interface that includes a first representation of at least a portion of the field of view of one or more cameras displayed at a first zoom level. Multiple affordances, including multiple zooming, while displaying the camera user interface, including multiple zoom affordances, including a first zoom affordance and a second zoom affordance, and displaying multiple zooming affordances. In response to receiving the first gesture directed to one of them and receiving the first gesture, the first gesture is said to be the gesture directed to the first zoom affordance. According to the determination, at the second zoom level, displaying a second representation of at least a portion of the field of view of one or more cameras, and determining that the first gesture is a gesture directed to a second zoom affordance. Accordingly, it includes instructions to display a third representation of at least a portion of the field of view of one or more cameras at a third zoom level different from the first zoom level and the second zoom level.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、複数のズーミングを含み、複数のズームアフォーダンスが、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、カメラユーザインタフェースを表示することと、複数のズーミングアフォーダンスを表示している間に、複数のアフォーダンスのうちの1つに向けられた第1のジェスチャを受信することと、第1のジェスチャを受信したことに応答して、第1のジェスチャが第1のズームアフォーダンスに向けられたジェスチャであるという判定に従って、第2のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示することと、第1のジェスチャが第2のズームアフォーダンスに向けられたジェスチャであるという判定に従って、第1のズームレベル及び第2のズームレベルとは異なる第3のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示することと、の命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras. Is to display, through a display device, a camera user interface that includes a first representation of at least a portion of the field of view of one or more cameras displayed at a first zoom level. Multiple affordances, including multiple zooming, while displaying the camera user interface, including multiple zoom affordances, including a first zoom affordance and a second zoom affordance, and displaying multiple zooming affordances. In response to receiving the first gesture directed to one of them and receiving the first gesture, the first gesture is said to be the gesture directed to the first zoom affordance. According to the determination, at the second zoom level, displaying a second representation of at least a portion of the field of view of one or more cameras, and determining that the first gesture is a gesture directed to a second zoom affordance. Accordingly, it includes instructions to display a third representation of at least a portion of the field of view of one or more cameras at a third zoom level different from the first zoom level and the second zoom level.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムが、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、複数のズーミングを含み、複数のズームアフォーダンスが、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、カメラユーザインタフェースを表示することと、複数のズーミングアフォーダンスを表示している間に、複数のアフォーダンスのうちの1つに向けられた第1のジェスチャを受信することと、第1のジェスチャを受信したことに応答して、第1のジェスチャが第1のズームアフォーダンスに向けられたジェスチャであるという判定に従って、第2のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示することと、第1のジェスチャが第2のズームアフォーダンスに向けられたジェスチャであるという判定に従って、第1のズームレベル及び第2のズームレベルとは異なる第3のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示することと、の命令を含む。 According to some embodiments, electronic devices are described. The electronic device includes a display device, one or more cameras, one or more processors, and a memory that stores one or more programs configured to be executed by the one or more processors. One or more programs are to display a camera user interface through a display device that includes a first representation of at least a portion of the field of view of one or more cameras displayed at a first zoom level. , The camera user interface includes a plurality of zooming, and the plurality of zoom affordances display a camera user interface including a first zoom affordance and a second zoom affordance, and displays a plurality of zooming affordances. In the meantime, in response to receiving the first gesture directed to one of the multiple affordances and receiving the first gesture, the first gesture is directed to the first zoom affordance. At the second zoom level, the second representation of at least a portion of the field of view of one or more cameras is displayed, and the first gesture is directed to the second zoom before dance, according to the determination that the gesture was made. Displaying a third representation of at least a portion of the field of view of one or more cameras at a third zoom level that is different from the first zoom level and the second zoom level, according to the determination of the gesture. Includes instructions for.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースを表示する手段であって、カメラユーザインタフェースが、複数のズーミングを含み、複数のズームアフォーダンスが、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、カメラユーザインタフェースを表示する手段と、複数のズーミングアフォーダンスを表示している間に、複数のアフォーダンスのうちの1つに向けられた第1のジェスチャを受信する手段と、第1のジェスチャを受信したことに応答して、第1のジェスチャが第1のズームアフォーダンスに向けられたジェスチャであるという判定に従って、第2のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示する手段と、第1のジェスチャが第2のズームアフォーダンスに向けられたジェスチャであるという判定に従って、第1のズームレベル及び第2のズームレベルとは異なる第3のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示する手段と、を含む。 According to some embodiments, electronic devices are described. The electronic device comprises a display device, one or more cameras, and a first representation of at least a portion of the field of view of the one or more cameras displayed at the first zoom level through the display device. A means for displaying an interface, wherein the camera user interface includes a plurality of zooming, and a plurality of zoom affords include a first zoom affordance and a second zoom affordance, and a plurality of means for displaying the camera user interface. While displaying the zooming affordance of, the means of receiving the first gesture directed to one of the multiple affordances and the first gesture in response to receiving the first gesture. A means of displaying a second representation of at least a portion of the field of view of one or more cameras at a second zoom level, and a first gesture, according to the determination that is a gesture directed to the first zoom affordance. A third of at least a portion of the field of view of one or more cameras at a third zoom level that is different from the first zoom level and the second zoom level, according to the determination that the gesture is directed to the second zoom affordance. Including means for displaying the representation of.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスで行われる。この方法は、表示デバイスを介して、カメラユーザインタフェースを表示することを含み、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の場所で1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む。この方法は、また、1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示している間に、カメラユーザインタフェースに向けられた第1のジェスチャを検出することと、カメラユーザインタフェースに向けられた第1のジェスチャを検出したことに応答して、第1の場所で第1の1組のカメラ設定アフォーダンスを表示することであって、第1の1組のカメラ設定アフォーダンスが、第1のカメラモードの画像キャプチャを調整する設定である、第1の1組のカメラ設定アフォーダンスを表示することと、第1の場所でカメラの異なる動作モードを示す複数のカメラモードアフォーダンスの表示を停止することと、を含む。この方法は、また、第1の場所で第1の1組のカメラ設定アフォーダンスを表示している間に、及び第1のカメラモードでメディアをキャプチャするように電子デバイスが構成されている間に、カメラユーザインタフェースに向けられた第2のジェスチャを受信することと、カメラユーザインタフェースに向けられた第2のジェスチャを受信したことに応答して、第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように電子デバイスを構成することと、第1の場所で1つ以上のカメラの異なる動作モードを示す複数のカメラモードアフォーダンスを表示することなく、第1の場所で第2の1組のカメラ設定アフォーダンスを表示することと、を含む。 According to some embodiments, the method is described. This method is performed on a display device and an electronic device having one or more cameras. The method comprises displaying the camera user interface via a display device, wherein the camera user interface includes a camera display area containing a representation of the field of view of one or more cameras and one or more in a first location. Includes a camera control area, including a first plurality of camera mode accommodations indicating different operating modes of the camera. This method also detects a first gesture directed at the camera user interface while displaying a first plurality of camera mode adherences indicating different operating modes of one or more cameras. In response to detecting a first gesture directed at the camera user interface, displaying the first set of camera setting affordances in the first place, the first set of camera settings. Affordance is a setting that adjusts the image capture of the first camera mode, displaying a first set of camera setting affordances and multiple camera mode affordances indicating different operating modes of the camera in the first place. Includes stopping the display of. This method also provides while displaying a first set of camera configuration affordances in a first place and while the electronic device is configured to capture media in the first camera mode. A second camera that differs from the first camera mode in response to receiving a second gesture directed to the camera user interface and receiving a second gesture directed to the camera user interface. A second location in the first location without configuring the electronic device to capture the media in the mode and displaying multiple camera mode adherences indicating different operating modes of one or more cameras in the first location. Includes displaying a set of camera settings affordance.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の場所で1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することの命令を含む。非一時的コンピュータ可読記憶媒体は、また、1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示している間に、カメラユーザインタフェースに向けられた第1のジェスチャを検出することと、カメラユーザインタフェースに向けられた第1のジェスチャを検出したことに応答して、第1の場所で第1の1組のカメラ設定アフォーダンスを表示することであって、第1の1組のカメラ設定アフォーダンスが、第1のカメラモードの画像キャプチャを調整する設定である、第1の1組のカメラ設定アフォーダンスを表示することと、第1の場所でカメラの異なる動作モードを示す複数のカメラモードアフォーダンスの表示を停止することと、を含む。非一時的コンピュータ可読記憶媒体は、また、第1の場所で第1の1組のカメラ設定アフォーダンスを表示している間に、及び第1のカメラモードでメディアをキャプチャするように電子デバイスが構成されている間に、カメラユーザインタフェースに向けられた第2のジェスチャを受信することと、カメラユーザインタフェースに向けられた第2のジェスチャを受信したことに応答して、第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように電子デバイスを構成することと、第1の場所で1つ以上のカメラの異なる動作モードを示す複数のカメラモードアフォーダンスを表示することなく、第1の場所で第2の1組のカメラ設定アフォーダンスを表示することと、を含む。 According to some embodiments, non-temporary computer-readable storage media are described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras. Is to display the camera user interface through a display device, wherein the camera user interface includes a camera display area that includes a representation of the field of view of one or more cameras and one or more cameras in a first location. Includes instructions to display the camera user interface, including a camera control area that includes a first plurality of camera mode accommodations indicating different modes of operation. The non-temporary computer-readable storage medium also makes a first gesture directed at the camera user interface while displaying a first plurality of camera mode accommodations indicating different operating modes of one or more cameras. The first is to display a first set of camera setting affordances in the first place in response to the detection and the detection of the first gesture directed at the camera user interface. A set of camera setting affordances is a setting that adjusts the image capture of the first camera mode, displaying the first set of camera setting affordances and showing different operating modes of the cameras in the first place. Includes stopping the display of multiple camera modes affordances. The non-temporary computer-readable storage medium is also configured by the electronic device to capture the media while displaying the first set of camera configuration accommodations in the first place and in the first camera mode. In response to receiving a second gesture directed at the camera user interface and receiving a second gesture directed at the camera user interface, what is the first camera mode? The first without configuring the electronic device to capture media in different second camera modes and displaying multiple camera mode affordances indicating different operating modes of one or more cameras in the first location. Includes displaying a second set of camera settings affordance at the location of.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の場所で1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することの命令を含む。非一時的コンピュータ可読記憶媒体は、また、1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示している間に、カメラユーザインタフェースに向けられた第1のジェスチャを検出することと、カメラユーザインタフェースに向けられた第1のジェスチャを検出したことに応答して、第1の場所で第1の1組のカメラ設定アフォーダンスを表示することであって、第1の1組のカメラ設定アフォーダンスが、第1のカメラモードの画像キャプチャを調整する設定である、第1の1組のカメラ設定アフォーダンスを表示することと、第1の場所でカメラの異なる動作モードを示す複数のカメラモードアフォーダンスの表示を停止することと、を含む。非一時的コンピュータ可読記憶媒体は、また、第1の場所で第1の1組のカメラ設定アフォーダンスを表示している間に、及び第1のカメラモードでメディアをキャプチャするように電子デバイスが構成されている間に、カメラユーザインタフェースに向けられた第2のジェスチャを受信することと、カメラユーザインタフェースに向けられた第2のジェスチャを受信したことに応答して、第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように電子デバイスを構成することと、第1の場所で1つ以上のカメラの異なる動作モードを示す複数のカメラモードアフォーダンスを表示することなく、第1の場所で第2の1組のカメラ設定アフォーダンスを表示することと、を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras. Is to display the camera user interface through a display device, wherein the camera user interface includes a camera display area that includes a representation of the field of view of one or more cameras and one or more cameras in a first location. Includes instructions to display the camera user interface, including a camera control area that includes a first plurality of camera mode accommodations indicating different modes of operation. The non-temporary computer-readable storage medium also makes a first gesture directed at the camera user interface while displaying a first plurality of camera mode accommodations indicating different operating modes of one or more cameras. The first is to display a first set of camera setting affordances in the first place in response to the detection and the detection of the first gesture directed at the camera user interface. A set of camera setting affordances is a setting that adjusts the image capture of the first camera mode, displaying the first set of camera setting affordances and showing different operating modes of the cameras in the first place. Includes stopping the display of multiple camera modes affordances. The non-temporary computer-readable storage medium is also configured by the electronic device to capture the media while displaying the first set of camera configuration accommodations in the first place and in the first camera mode. In response to receiving a second gesture directed at the camera user interface and receiving a second gesture directed at the camera user interface, what is the first camera mode? The first without configuring the electronic device to capture media in different second camera modes and displaying multiple camera mode affordances indicating different operating modes of one or more cameras in the first location. Includes displaying a second set of camera settings affordance at the location of.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することの命令を含み、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の場所で1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む。この電子デバイスは、また、1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示している間に、カメラユーザインタフェースに向けられた第1のジェスチャを検出することと、カメラユーザインタフェースに向けられた第1のジェスチャを検出したことに応答して、第1の場所で第1の1組のカメラ設定アフォーダンスを表示することであって、第1の1組のカメラ設定アフォーダンスが、第1のカメラモードの画像キャプチャを調整する設定である、第1の1組のカメラ設定アフォーダンスを表示することと、第1の場所でカメラの異なる動作モードを示す複数のカメラモードアフォーダンスの表示を停止することと、を含む。この電子デバイスは、また、第1の場所で第1の1組のカメラ設定アフォーダンスを表示している間に、及び第1のカメラモードでメディアをキャプチャするように電子デバイスが構成されている間に、カメラユーザインタフェースに向けられた第2のジェスチャを受信することと、カメラユーザインタフェースに向けられた第2のジェスチャを受信したことに応答して、第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように電子デバイスを構成することと、第1の場所で1つ以上のカメラの異なる動作モードを示す複数のカメラモードアフォーダンスを表示することなく、第1の場所で第2の1組のカメラ設定アフォーダンスを表示することと、を含む。 According to some embodiments, electronic devices are described. The electronic device includes a display device, one or more cameras, one or more processors, and a memory that stores one or more programs configured to be executed by the one or more processors. A camera display area, wherein one or more programs include instructions to display a camera user interface via a display device, the camera user interface includes a representation of the field of view of one or more cameras, and a first. Includes a camera control area that includes a first plurality of camera mode adherences that indicate different operating modes of one or more cameras in place. The electronic device also detects a first gesture directed at the camera user interface while displaying a first plurality of camera mode accommodations indicating different operating modes of one or more cameras. In response to detecting the first gesture directed at the camera user interface, the first set of camera settings affordance is displayed in the first place, the first set of cameras. The setting affordance is a setting that adjusts the image capture of the first camera mode, displaying a first set of camera setting affordances and multiple camera modes indicating different operating modes of the camera in the first place. Includes stopping the display of affordance. The electronic device may also be configured to capture media in the first camera mode while displaying a first set of camera configuration affordances in a first location. In response to receiving a second gesture directed to the camera user interface and receiving a second gesture directed to the camera user interface, a second different from the first camera mode. The first location without configuring the electronic device to capture the media in camera mode and displaying multiple camera mode adherences indicating different operating modes of one or more cameras in the first location. Includes displaying a set of 2 camera setting affordances.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、表示デバイスを介して、カメラユーザインタフェースを表示する手段と、を含み、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の場所で1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む。この電子デバイスは、また、1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示している間に、カメラユーザインタフェースに向けられた第1のジェスチャを検出する手段と、カメラユーザインタフェースに向けられた第1のジェスチャを検出したことに応答して、第1の場所で第1の1組のカメラ設定アフォーダンスを表示する手段であって、第1の1組のカメラ設定アフォーダンスが、第1のカメラモードの画像キャプチャを調整する設定である、第1の1組のカメラ設定アフォーダンスを表示する手段と、第1の場所でカメラの異なる動作モードを示す複数のカメラモードアフォーダンスの表示を停止する手段と、を含む。この電子デバイスは、また、第1の場所で第1の1組のカメラ設定アフォーダンスを表示している間に、及び第1のカメラモードでメディアをキャプチャするように電子デバイスが構成されている間に、カメラユーザインタフェースに向けられた第2のジェスチャを受信する手段と、カメラユーザインタフェースに向けられた第2のジェスチャを受信したことに応答して、第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように電子デバイスを構成する手段と、第1の場所で1つ以上のカメラの異なる動作モードを示す複数のカメラモードアフォーダンスを表示することなく、第1の場所で第2の1組のカメラ設定アフォーダンスを表示する手段と、を含む。 According to some embodiments, electronic devices are described. The electronic device includes a display device, one or more cameras, and means for displaying the camera user interface through the display device, the camera user interface including a representation of the field of view of one or more cameras. It includes a camera display area and a camera control area that includes a first plurality of camera mode accommodations that indicate different operating modes of one or more cameras in a first place. The electronic device also serves as a means of detecting a first gesture directed at the camera user interface while displaying a first plurality of camera mode accommodations indicating different operating modes of one or more cameras. , A means of displaying a first set of camera setting affordances in a first place in response to detecting a first gesture directed at the camera user interface, the first set of cameras. The setting affordance is a setting for adjusting the image capture of the first camera mode, a means for displaying the first set of camera setting affordances, and a plurality of camera modes indicating different operating modes of the cameras in the first place. Includes means to stop the display of affordance. The electronic device may also be configured to capture media in the first camera mode while displaying a first set of camera configuration affordances in a first location. In response to receiving the second gesture directed at the camera user interface and the second gesture directed at the camera user interface, a second different from the first camera mode. A first place without displaying a means of configuring the electronic device to capture media in camera mode and multiple camera mode adherences indicating different operating modes of one or more cameras in the first place. Includes means for displaying a set of 2 camera setting affordances.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイスを有する電子デバイスで行われる。この方法は、1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び1つ以上のカメラの視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信することと、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応答して、自動メディア補正基準が満たされているという判定に従って、表示デバイスを介して、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現を表示することと、自動メディア補正基準が満たされていないという判定に従って、表示デバイスを介して、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現を表示することと、を含む。 According to some embodiments, the method is described. This method is performed on an electronic device that has a display device. This method comprises previously captured media containing first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of one or more cameras. A display device according to the determination that the automatic media correction criteria are met in response to receiving a request to display the representation of the item and receiving a request to display the representation of the previously captured media item. Through the display device, according to the display of the representation of previously captured media items, including the first content and the combination of the second content, and the determination that the automatic media correction criteria are not met. , Includes displaying a representation of a previously captured media item that includes the first content and does not include the second content.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び1つ以上のカメラの視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信することと、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応答して、自動メディア補正基準が満たされているという判定に従って、表示デバイスを介して、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現を表示することと、自動メディア補正基準が満たされていないという判定に従って、表示デバイスを介して、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現を表示することと、の命令を含む。 According to some embodiments, non-temporary computer-readable storage media are described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, the one or more programs being one or more. Request to display a representation of previously captured media items, including first content from the first part of the camera's field of view and second content from the second part of the camera's field of view. The first content through the display device, according to the determination that the automatic media correction criteria are met, in response to receiving and receiving a request to display a representation of a previously captured media item. And, according to the display of the representation of the previously captured media item containing the combination of the second content and the determination that the automatic media correction criteria are not met, the first content is included via the display device. It also includes instructions to display a representation of previously captured media items that do not contain a second content.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び1つ以上のカメラの視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信することと、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応答して、自動メディア補正基準が満たされているという判定に従って、表示デバイスを介して、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現を表示することと、自動メディア補正基準が満たされていないという判定に従って、表示デバイスを介して、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現を表示することと、の命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, the one or more programs being one or more. Request to display a representation of previously captured media items, including first content from the first part of the camera's field of view and second content from the second part of the camera's field of view. The first content through the display device, according to the determination that the automatic media correction criteria are met, in response to receiving and receiving a request to display a representation of a previously captured media item. And, according to the display of the representation of the previously captured media item containing the combination of the second content and the determination that the automatic media correction criteria are not met, the first content is included via the display device. It also includes instructions to display a representation of previously captured media items that do not contain a second content.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムが、1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び1つ以上のカメラの視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信することと、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応答して、自動メディア補正基準が満たされているという判定に従って、表示デバイスを介して、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現を表示することと、自動メディア補正基準が満たされていないという判定に従って、表示デバイスを介して、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現を表示することと、の命令を含む。 According to some embodiments, electronic devices are described. The electronic device includes a display device, one or more processors, and a memory that stores one or more programs configured to be executed by the one or more processors. Representation of previously captured media items, including first content from the first part of the field of view of one or more cameras and second content from the second part of the field of view of one or more cameras. In response to receiving a request to display a request to display a representation of a previously captured media item, through the display device according to the determination that the automatic media correction criteria are met. The first through the display device, according to the display of the representation of previously captured media items, including the first content and the combination of the second content, and the determination that the automatic media correction criteria are not met. Includes instructions to display a representation of a previously captured media item that includes the content of and does not include the second content.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び1つ以上のカメラの視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信する手段と、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応答して、自動メディア補正基準が満たされているという判定に従って、表示デバイスを介して、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現を表示する手段と、自動メディア補正基準が満たされていないという判定に従って、表示デバイスを介して、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現を表示する手段と、を含む。 According to some embodiments, electronic devices are described. This electronic device previously comprises a display device and first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of one or more cameras. The automatic media correction criteria are met in response to receiving a request to display a representation of a previously captured media item and a request to display a representation of a previously captured media item. According to the determination, according to the means of displaying the representation of the previously captured media item, including the first content and the combination of the second content, through the display device, and according to the determination that the automatic media correction criteria are not met. A means of displaying, through a display device, a representation of a previously captured media item that includes the first content and does not include the second content.

これらの機能を実行する実行可能な命令は、任意選択的に、1つ以上のプロセッサによって実行されるように構成された非一時的コンピュータ可読記憶媒体又は他のコンピュータプログラム製品内に含まれる。これらの機能を実行する実行可能な命令は、任意選択的に、1つ以上のプロセッサによって実行されるように構成された一時的コンピュータ可読記憶媒体又は他のコンピュータプログラム製品内に含まれる。 Executable instructions that perform these functions are optionally contained within a non-temporary computer-readable storage medium or other computer program product configured to be executed by one or more processors. Executable instructions that perform these functions are optionally contained within a temporary computer-readable storage medium or other computer program product configured to be executed by one or more processors.

このため、メディアをキャプチャ及び管理するための、より速く、より効率的な方法及びインタフェースがデバイスに提供され、それにより、このようなデバイスの有効性、効率、及びユーザ満足度が増す。このような方法及びインタフェースは、メディアをキャプチャ及び管理するための他の方法を補完するか、又は置き換えることができる。 This provides devices with faster, more efficient methods and interfaces for capturing and managing media, thereby increasing the effectiveness, efficiency, and user satisfaction of such devices. Such methods and interfaces can complement or replace other methods for capturing and managing media.

説明される様々な実施形態をより良く理解するため、以下の図面と併せて、以下の「発明を実施するための形態」が参照されるべきであり、類似の参照番号は、以下の図の全てを通じて、対応する部分を指す。
いくつかの実施形態によるタッチ感知ディスプレイを有するポータブル多機能デバイスを示すブロック図である。 いくつかの実施形態によるイベント処理のための例示的な構成要素を示すブロック図である。 いくつかの実施形態によるタッチスクリーンを有するポータブル多機能デバイスを示す。 いくつかの実施形態によるディスプレイ及びタッチ感知面を有する例示的な多機能デバイスのブロック図である。 いくつかの実施形態によるポータブル多機能デバイス上のアプリケーションのメニューの例示的なユーザインタフェースを示す。 いくつかの実施形態によるディスプレイとは別個のタッチ感知面を有する多機能デバイスの例示的なユーザインタフェースを示す。 いくつかの実施形態によるパーソナル電子デバイスを示す。 いくつかの実施形態によるパーソナル電子デバイスを示すブロック図である。 いくつかの実施形態に係るタッチ感知ディスプレイ及び強度センサを有するパーソナル電子デバイスの例示的な構成要素を示す。 いくつかの実施形態に係るタッチ感知ディスプレイ及び強度センサを有するパーソナル電子デバイスの例示的な構成要素を示す。 いくつかの実施形態に係るパーソナル電子デバイスの例示的な構成要素及びユーザインタフェースを示す。 いくつかの実施形態に係るパーソナル電子デバイスの例示的な構成要素及びユーザインタフェースを示す。 いくつかの実施形態に係るパーソナル電子デバイスの例示的な構成要素及びユーザインタフェースを示す。 いくつかの実施形態に係るパーソナル電子デバイスの例示的な構成要素及びユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールにアクセスするための方法を示すフロー図である。 いくつかの実施形態による電子デバイスを使用してメディアコントロールにアクセスするための方法を示すフロー図である。 いくつかの実施形態による電子デバイスを使用してメディアコントロールにアクセスするための方法を示すフロー図である。 いくつかの実施形態による電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアコントロールを表示するための方法を示すフロー図である。 いくつかの実施形態による電子デバイスを使用してメディアコントロールを表示するための方法を示すフロー図である。 いくつかの実施形態による電子デバイスを使用してメディアコントロールを表示するための方法を示すフロー図である。 いくつかの実施形態による電子デバイスを使用してカメラ視野を表示するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してカメラ視野を表示するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してカメラ視野を表示するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してカメラ視野を表示するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してカメラ視野を表示するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してカメラ視野を表示するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してカメラ視野を表示するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してカメラ視野を表示するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してカメラ視野を表示するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してカメラ視野を表示するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してカメラ視野を表示するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してカメラ視野を表示するための方法を示すフロー図である。 いくつかの実施形態による電子デバイスを使用してカメラ視野を表示するための方法を示すフロー図である。 いくつかの実施形態による電子デバイスを使用してカメラ視野を表示するための方法を示すフロー図である。 いくつかの実施形態による電子デバイスを使用してメディアアイテムにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアアイテムにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアアイテムにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアアイテムにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアアイテムにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアアイテムにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアアイテムにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアアイテムにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアアイテムにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアアイテムにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアアイテムにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアアイテムにアクセスするための方法を示すフロー図である。 いくつかの実施形態による電子デバイスを使用してメディアアイテムにアクセスするための方法を示すフロー図である。 いくつかの実施形態による電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアアイテムを修正するための方法を示すフロー図である。 いくつかの実施形態による電子デバイスを使用してメディアアイテムを修正するための方法を示すフロー図である。 いくつかの実施形態による電子デバイスを使用してメディアアイテムを修正するための方法を示すフロー図である。 いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための方法を示すフロー図である。 いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための方法を示すフロー図である。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してフレームレートを変更するための方法を示すフロー図である。 いくつかの実施形態による電子デバイスを使用してフレームレートを変更するための方法を示すフロー図である。 いくつかの実施形態による電子デバイスを使用して光条件に対応するための方法を示すフロー図である。 いくつかの実施形態による電子デバイスを使用して光条件に対応するための方法を示すフロー図である。 いくつかの実施形態による電子デバイスを使用して光条件に対応するための方法を示すフロー図である。 いくつかの実施形態による電子デバイスを使用してカメラインジケーションを提供するための方法を示すフロー図である。 いくつかの実施形態による電子デバイスを使用してカメラインジケーションを提供するための方法を示すフロー図である。 いくつかの実施形態による電子デバイスを使用してカメラインジケーションを提供するための方法を示すフロー図である。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。 いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。 いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための方法を示すフロー図である。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための方法を示すフロー図である。 いくつかの実施形態による電子デバイスを使用してメディアを管理するための方法を示すフロー図である。 メディアをキャプチャする間にガイダンスを提供するための方法を示すフロー図である。 メディアをキャプチャする間にガイダンスを提供するための方法を示すフロー図である。 いくつかの実施形態による複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための方法を示すフロー図である。 いくつかの実施形態による複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための方法を示すフロー図である。 いくつかの実施形態による複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための方法を示すフロー図である。 いくつかの実施形態による電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための方法を示すフロー図である。 いくつかの実施形態による電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための方法を示すフロー図である。 いくつかの実施形態による電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための方法を示すフロー図である。 いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための方法を示すフロー図である。 いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための方法を示すフロー図である。 いくつかの実施形態による電子デバイスを使用してメディアキャプチャコントロールにアクセスするための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアキャプチャコントロールにアクセスするための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアキャプチャコントロールにアクセスするための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアキャプチャコントロールにアクセスするための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアキャプチャコントロールにアクセスするための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアキャプチャコントロールにアクセスするための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアキャプチャコントロールにアクセスするための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアキャプチャコントロールにアクセスするための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアキャプチャコントロールにアクセスするための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してメディアキャプチャコントロールにアクセスするための方法を示すフロー図である。 いくつかの実施形態による電子デバイスを使用してメディアキャプチャコントロールにアクセスするための方法を示すフロー図である。 いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。 いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを自動的に調整するための方法を示すフロー図である。 いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを自動的に調整するための方法を示すフロー図である。 いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを自動的に調整するための方法を示すフロー図である。
In order to better understand the various embodiments described, the following "forms for carrying out the invention" should be referred to in conjunction with the following drawings, with similar reference numbers in the following figures. Refers to the corresponding part throughout.
FIG. 6 is a block diagram showing a portable multifunction device having a touch-sensitive display according to some embodiments. It is a block diagram which shows the exemplary component for event processing by some embodiments. A portable multifunctional device having a touch screen according to some embodiments is shown. FIG. 6 is a block diagram of an exemplary multifunctional device having a display and a touch sensitive surface according to some embodiments. An exemplary user interface of a menu of applications on a portable multifunction device according to some embodiments is shown. An exemplary user interface of a multifunctional device having a touch sensitive surface separate from the display according to some embodiments is shown. A personal electronic device according to some embodiments is shown. It is a block diagram which shows the personal electronic device by some embodiments. Illustrative components of a personal electronic device having a touch-sensitive display and an intensity sensor according to some embodiments are shown. Illustrative components of a personal electronic device having a touch-sensitive display and an intensity sensor according to some embodiments are shown. Illustrative components and user interfaces of personal electronic devices according to some embodiments are shown. Illustrative components and user interfaces of personal electronic devices according to some embodiments are shown. Illustrative components and user interfaces of personal electronic devices according to some embodiments are shown. Illustrative components and user interfaces of personal electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for accessing media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for accessing media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for accessing media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for accessing media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for accessing media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for accessing media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for accessing media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for accessing media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for accessing media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for accessing media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for accessing media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for accessing media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for accessing media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for accessing media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for accessing media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for accessing media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for accessing media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for accessing media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for accessing media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for accessing media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for accessing media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for accessing media controls using electronic devices according to some embodiments are shown. FIG. 5 is a flow diagram illustrating a method for accessing media controls using electronic devices according to some embodiments. FIG. 5 is a flow diagram illustrating a method for accessing media controls using electronic devices according to some embodiments. FIG. 5 is a flow diagram illustrating a method for accessing media controls using electronic devices according to some embodiments. Illustrative techniques and exemplary user interfaces for displaying media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for displaying media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for displaying media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for displaying media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for displaying media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for displaying media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for displaying media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for displaying media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for displaying media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for displaying media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for displaying media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for displaying media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for displaying media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for displaying media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for displaying media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for displaying media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for displaying media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for displaying media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for displaying media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for displaying media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for displaying media controls using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for displaying media controls using electronic devices according to some embodiments are shown. FIG. 5 is a flow diagram illustrating a method for displaying media controls using an electronic device according to some embodiments. FIG. 5 is a flow diagram illustrating a method for displaying media controls using an electronic device according to some embodiments. FIG. 5 is a flow diagram illustrating a method for displaying media controls using an electronic device according to some embodiments. An exemplary technique and an exemplary user interface for displaying a camera field of view using an electronic device according to some embodiments are shown. An exemplary technique and an exemplary user interface for displaying a camera field of view using an electronic device according to some embodiments are shown. An exemplary technique and an exemplary user interface for displaying a camera field of view using an electronic device according to some embodiments are shown. An exemplary technique and an exemplary user interface for displaying a camera field of view using an electronic device according to some embodiments are shown. An exemplary technique and an exemplary user interface for displaying a camera field of view using an electronic device according to some embodiments are shown. An exemplary technique and an exemplary user interface for displaying a camera field of view using an electronic device according to some embodiments are shown. An exemplary technique and an exemplary user interface for displaying a camera field of view using an electronic device according to some embodiments are shown. An exemplary technique and an exemplary user interface for displaying a camera field of view using an electronic device according to some embodiments are shown. An exemplary technique and an exemplary user interface for displaying a camera field of view using an electronic device according to some embodiments are shown. An exemplary technique and an exemplary user interface for displaying a camera field of view using an electronic device according to some embodiments are shown. An exemplary technique and an exemplary user interface for displaying a camera field of view using an electronic device according to some embodiments are shown. It is a flow diagram which shows the method for displaying the camera field of view using the electronic device by some embodiments. It is a flow diagram which shows the method for displaying the camera field of view using the electronic device by some embodiments. It is a flow diagram which shows the method for displaying the camera field of view using the electronic device by some embodiments. Illustrative techniques and exemplary user interfaces for accessing media items using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for accessing media items using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for accessing media items using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for accessing media items using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for accessing media items using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for accessing media items using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for accessing media items using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for accessing media items using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for accessing media items using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for accessing media items using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for accessing media items using electronic devices according to some embodiments are shown. FIG. 5 is a flow diagram illustrating a method for accessing a media item using an electronic device according to some embodiments. FIG. 5 is a flow diagram illustrating a method for accessing a media item using an electronic device according to some embodiments. Illustrative techniques and exemplary user interfaces for modifying media items using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for modifying media items using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for modifying media items using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for modifying media items using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for modifying media items using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for modifying media items using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for modifying media items using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for modifying media items using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for modifying media items using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for modifying media items using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for modifying media items using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for modifying media items using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for modifying media items using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for modifying media items using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for modifying media items using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for modifying media items using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for modifying media items using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for modifying media items using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for modifying media items using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for modifying media items using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for modifying media items using electronic devices according to some embodiments are shown. FIG. 5 is a flow diagram illustrating a method for modifying a media item using an electronic device according to some embodiments. FIG. 5 is a flow diagram illustrating a method for modifying a media item using an electronic device according to some embodiments. FIG. 5 is a flow diagram illustrating a method for modifying a media item using an electronic device according to some embodiments. An exemplary technique and an exemplary user interface for varying the zoom level using an electronic device according to some embodiments are shown. An exemplary technique and an exemplary user interface for varying the zoom level using an electronic device according to some embodiments are shown. An exemplary technique and an exemplary user interface for varying the zoom level using an electronic device according to some embodiments are shown. An exemplary technique and an exemplary user interface for varying the zoom level using an electronic device according to some embodiments are shown. An exemplary technique and an exemplary user interface for varying the zoom level using an electronic device according to some embodiments are shown. An exemplary technique and an exemplary user interface for varying the zoom level using an electronic device according to some embodiments are shown. An exemplary technique and an exemplary user interface for varying the zoom level using an electronic device according to some embodiments are shown. An exemplary technique and an exemplary user interface for varying the zoom level using an electronic device according to some embodiments are shown. An exemplary technique and an exemplary user interface for varying the zoom level using an electronic device according to some embodiments are shown. An exemplary technique and an exemplary user interface for varying the zoom level using an electronic device according to some embodiments are shown. An exemplary technique and an exemplary user interface for varying the zoom level using an electronic device according to some embodiments are shown. An exemplary technique and an exemplary user interface for varying the zoom level using an electronic device according to some embodiments are shown. An exemplary technique and an exemplary user interface for varying the zoom level using an electronic device according to some embodiments are shown. An exemplary technique and an exemplary user interface for varying the zoom level using an electronic device according to some embodiments are shown. An exemplary technique and an exemplary user interface for varying the zoom level using an electronic device according to some embodiments are shown. An exemplary technique and an exemplary user interface for varying the zoom level using an electronic device according to some embodiments are shown. An exemplary technique and an exemplary user interface for varying the zoom level using an electronic device according to some embodiments are shown. It is a flow diagram which shows the method for changing the zoom level using the electronic device by some embodiments. It is a flow diagram which shows the method for changing the zoom level using the electronic device by some embodiments. Illustrative techniques and exemplary user interfaces for managing media using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for managing media using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for managing media using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for managing media using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for managing media using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for managing media using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for managing media using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for managing media using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for managing media using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for managing media using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for managing media using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for managing media using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for managing media using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for managing media using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for managing media using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for managing media using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for managing media using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for managing media using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for managing media using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for managing media using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for managing media using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for managing media using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for managing media using electronic devices according to some embodiments are shown. Illustrative techniques and exemplary user interfaces for managing media using electronic devices according to some embodiments are shown. It is a flow diagram which shows the method for changing a frame rate using an electronic device by some embodiments. It is a flow diagram which shows the method for changing a frame rate using an electronic device by some embodiments. It is a flow diagram which shows the method for dealing with the light condition using the electronic device by some embodiments. It is a flow diagram which shows the method for dealing with the light condition using the electronic device by some embodiments. It is a flow diagram which shows the method for dealing with the light condition using the electronic device by some embodiments. FIG. 5 is a flow diagram illustrating a method for providing camera indications using electronic devices according to some embodiments. FIG. 5 is a flow diagram illustrating a method for providing camera indications using electronic devices according to some embodiments. FIG. 5 is a flow diagram illustrating a method for providing camera indications using electronic devices according to some embodiments. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. FIG. 5 is a flow diagram illustrating a method for editing media captured using an electronic device according to some embodiments. FIG. 5 is a flow diagram illustrating a method for editing media captured using an electronic device according to some embodiments. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. An exemplary user interface for editing captured media according to some embodiments is shown. FIG. 5 is a flow diagram illustrating a method for editing media captured using an electronic device according to some embodiments. FIG. 5 is a flow diagram illustrating a method for editing media captured using an electronic device according to some embodiments. An exemplary user interface for managing media using electronic devices according to some embodiments is shown. An exemplary user interface for managing media using electronic devices according to some embodiments is shown. An exemplary user interface for managing media using electronic devices according to some embodiments is shown. An exemplary user interface for managing media using electronic devices according to some embodiments is shown. An exemplary user interface for managing media using electronic devices according to some embodiments is shown. An exemplary user interface for managing media using electronic devices according to some embodiments is shown. An exemplary user interface for managing media using electronic devices according to some embodiments is shown. An exemplary user interface for managing media using electronic devices according to some embodiments is shown. An exemplary user interface for managing media using electronic devices according to some embodiments is shown. An exemplary user interface for managing media using electronic devices according to some embodiments is shown. An exemplary user interface for managing media using electronic devices according to some embodiments is shown. An exemplary user interface for managing media using electronic devices according to some embodiments is shown. An exemplary user interface for managing media using electronic devices according to some embodiments is shown. An exemplary user interface for managing media using electronic devices according to some embodiments is shown. An exemplary user interface for managing media using electronic devices according to some embodiments is shown. An exemplary user interface for managing media using electronic devices according to some embodiments is shown. An exemplary user interface for managing media using electronic devices according to some embodiments is shown. An exemplary user interface for managing media using electronic devices according to some embodiments is shown. An exemplary user interface for managing media using electronic devices according to some embodiments is shown. An exemplary user interface for managing media using electronic devices according to some embodiments is shown. An exemplary user interface for managing media using electronic devices according to some embodiments is shown. It is a flow diagram which shows the method for managing the media using the electronic device by some embodiments. It is a flow diagram which shows the method for managing the media using the electronic device by some embodiments. It is a flow diagram which shows the method for managing the media using the electronic device by some embodiments. FIG. 6 is a flow diagram showing a method for providing guidance while capturing media. FIG. 6 is a flow diagram showing a method for providing guidance while capturing media. An exemplary user interface for managing controlled media captures using an electronic device with multiple cameras according to some embodiments is shown. An exemplary user interface for managing controlled media captures using an electronic device with multiple cameras according to some embodiments is shown. An exemplary user interface for managing controlled media captures using an electronic device with multiple cameras according to some embodiments is shown. An exemplary user interface for managing controlled media captures using an electronic device with multiple cameras according to some embodiments is shown. An exemplary user interface for managing controlled media captures using an electronic device with multiple cameras according to some embodiments is shown. An exemplary user interface for managing controlled media captures using an electronic device with multiple cameras according to some embodiments is shown. An exemplary user interface for managing controlled media captures using an electronic device with multiple cameras according to some embodiments is shown. An exemplary user interface for managing controlled media captures using an electronic device with multiple cameras according to some embodiments is shown. An exemplary user interface for managing controlled media captures using an electronic device with multiple cameras according to some embodiments is shown. An exemplary user interface for managing controlled media captures using an electronic device with multiple cameras according to some embodiments is shown. An exemplary user interface for managing controlled media captures using an electronic device with multiple cameras according to some embodiments is shown. An exemplary user interface for managing controlled media captures using an electronic device with multiple cameras according to some embodiments is shown. An exemplary user interface for managing controlled media captures using an electronic device with multiple cameras according to some embodiments is shown. An exemplary user interface for managing controlled media captures using an electronic device with multiple cameras according to some embodiments is shown. An exemplary user interface for managing controlled media captures using an electronic device with multiple cameras according to some embodiments is shown. An exemplary user interface for managing controlled media captures using an electronic device with multiple cameras according to some embodiments is shown. FIG. 5 is a flow diagram illustrating a method for managing controlled media capture using an electronic device with multiple cameras according to some embodiments. FIG. 5 is a flow diagram illustrating a method for managing controlled media capture using an electronic device with multiple cameras according to some embodiments. FIG. 5 is a flow diagram illustrating a method for managing controlled media capture using an electronic device with multiple cameras according to some embodiments. Illustrative user interfaces for displaying camera user interfaces at different zoom levels using different cameras of electronic devices according to some embodiments are shown. Illustrative user interfaces for displaying camera user interfaces at different zoom levels using different cameras of electronic devices according to some embodiments are shown. Illustrative user interfaces for displaying camera user interfaces at different zoom levels using different cameras of electronic devices according to some embodiments are shown. Illustrative user interfaces for displaying camera user interfaces at different zoom levels using different cameras of electronic devices according to some embodiments are shown. Illustrative user interfaces for displaying camera user interfaces at different zoom levels using different cameras of electronic devices according to some embodiments are shown. Illustrative user interfaces for displaying camera user interfaces at different zoom levels using different cameras of electronic devices according to some embodiments are shown. Illustrative user interfaces for displaying camera user interfaces at different zoom levels using different cameras of electronic devices according to some embodiments are shown. Illustrative user interfaces for displaying camera user interfaces at different zoom levels using different cameras of electronic devices according to some embodiments are shown. Illustrative user interfaces for displaying camera user interfaces at different zoom levels using different cameras of electronic devices according to some embodiments are shown. FIG. 5 is a flow diagram illustrating a method for displaying a camera user interface at various zoom levels using different cameras of electronic devices according to some embodiments. FIG. 5 is a flow diagram illustrating a method for displaying a camera user interface at various zoom levels using different cameras of electronic devices according to some embodiments. FIG. 5 is a flow diagram illustrating a method for displaying a camera user interface at various zoom levels using different cameras of electronic devices according to some embodiments. An exemplary user interface for changing the zoom level using an electronic device according to some embodiments is shown. An exemplary user interface for changing the zoom level using an electronic device according to some embodiments is shown. An exemplary user interface for changing the zoom level using an electronic device according to some embodiments is shown. An exemplary user interface for changing the zoom level using an electronic device according to some embodiments is shown. An exemplary user interface for changing the zoom level using an electronic device according to some embodiments is shown. An exemplary user interface for changing the zoom level using an electronic device according to some embodiments is shown. An exemplary user interface for changing the zoom level using an electronic device according to some embodiments is shown. An exemplary user interface for changing the zoom level using an electronic device according to some embodiments is shown. An exemplary user interface for changing the zoom level using an electronic device according to some embodiments is shown. An exemplary user interface for changing the zoom level using an electronic device according to some embodiments is shown. An exemplary user interface for changing the zoom level using an electronic device according to some embodiments is shown. An exemplary user interface for changing the zoom level using an electronic device according to some embodiments is shown. An exemplary user interface for changing the zoom level using an electronic device according to some embodiments is shown. An exemplary user interface for changing the zoom level using an electronic device according to some embodiments is shown. An exemplary user interface for changing the zoom level using an electronic device according to some embodiments is shown. An exemplary user interface for changing the zoom level using an electronic device according to some embodiments is shown. An exemplary user interface for changing the zoom level using an electronic device according to some embodiments is shown. It is a flow diagram which shows the method for changing the zoom level using the electronic device by some embodiments. It is a flow diagram which shows the method for changing the zoom level using the electronic device by some embodiments. An exemplary user interface for accessing media capture controls using electronic devices according to some embodiments is shown. An exemplary user interface for accessing media capture controls using electronic devices according to some embodiments is shown. An exemplary user interface for accessing media capture controls using electronic devices according to some embodiments is shown. An exemplary user interface for accessing media capture controls using electronic devices according to some embodiments is shown. An exemplary user interface for accessing media capture controls using electronic devices according to some embodiments is shown. An exemplary user interface for accessing media capture controls using electronic devices according to some embodiments is shown. An exemplary user interface for accessing media capture controls using electronic devices according to some embodiments is shown. An exemplary user interface for accessing media capture controls using electronic devices according to some embodiments is shown. An exemplary user interface for accessing media capture controls using electronic devices according to some embodiments is shown. FIG. 5 is a flow diagram illustrating a method for accessing a media capture control using an electronic device according to some embodiments. FIG. 5 is a flow diagram illustrating a method for accessing a media capture control using an electronic device according to some embodiments. An exemplary user interface for automatically adjusting captured media using an electronic device according to some embodiments is shown. An exemplary user interface for automatically adjusting captured media using an electronic device according to some embodiments is shown. An exemplary user interface for automatically adjusting captured media using an electronic device according to some embodiments is shown. An exemplary user interface for automatically adjusting captured media using an electronic device according to some embodiments is shown. An exemplary user interface for automatically adjusting captured media using an electronic device according to some embodiments is shown. An exemplary user interface for automatically adjusting captured media using an electronic device according to some embodiments is shown. An exemplary user interface for automatically adjusting captured media using an electronic device according to some embodiments is shown. An exemplary user interface for automatically adjusting captured media using an electronic device according to some embodiments is shown. An exemplary user interface for automatically adjusting captured media using an electronic device according to some embodiments is shown. An exemplary user interface for automatically adjusting captured media using an electronic device according to some embodiments is shown. An exemplary user interface for automatically adjusting captured media using an electronic device according to some embodiments is shown. An exemplary user interface for automatically adjusting captured media using an electronic device according to some embodiments is shown. An exemplary user interface for automatically adjusting captured media using an electronic device according to some embodiments is shown. An exemplary user interface for automatically adjusting captured media using an electronic device according to some embodiments is shown. An exemplary user interface for automatically adjusting captured media using an electronic device according to some embodiments is shown. An exemplary user interface for automatically adjusting captured media using an electronic device according to some embodiments is shown. An exemplary user interface for automatically adjusting captured media using an electronic device according to some embodiments is shown. An exemplary user interface for automatically adjusting captured media using an electronic device according to some embodiments is shown. An exemplary user interface for automatically adjusting captured media using an electronic device according to some embodiments is shown. An exemplary user interface for automatically adjusting captured media using an electronic device according to some embodiments is shown. An exemplary user interface for automatically adjusting captured media using an electronic device according to some embodiments is shown. An exemplary user interface for automatically adjusting captured media using an electronic device according to some embodiments is shown. An exemplary user interface for automatically adjusting captured media using an electronic device according to some embodiments is shown. An exemplary user interface for automatically adjusting captured media using an electronic device according to some embodiments is shown. An exemplary user interface for automatically adjusting captured media using an electronic device according to some embodiments is shown. An exemplary user interface for automatically adjusting captured media using an electronic device according to some embodiments is shown. An exemplary user interface for automatically adjusting captured media using an electronic device according to some embodiments is shown. FIG. 5 is a flow diagram illustrating a method for automatically adjusting captured media using an electronic device according to some embodiments. FIG. 5 is a flow diagram illustrating a method for automatically adjusting captured media using an electronic device according to some embodiments. FIG. 5 is a flow diagram illustrating a method for automatically adjusting captured media using an electronic device according to some embodiments.

以下の説明は、例示的な方法、パラメータなどについて記載する。しかしながら、そのような説明は、本開示の範囲に対する限定として意図されるものではなく、代わりに例示的な実施形態の説明として提供されることを認識されたい。 The following description describes exemplary methods, parameters, and the like. However, it should be recognized that such description is not intended as a limitation to the scope of the present disclosure and is instead provided as a description of an exemplary embodiment.

メディアをキャプチャ及び管理する効率的な方法及びインタフェースを提供する電子デバイスが必要とされている。このような技術は、メディアを管理するユーザの認識的負担を軽減し、それにより、生産性を高めることができる。更に、このような技法は、普通なら冗長なユーザ入力に浪費されるプロセッサ及び電池の電力を低減させることができる。 There is a need for electronic devices that provide efficient methods and interfaces for capturing and managing media. Such a technique can reduce the cognitive burden on the user who manages the media, thereby increasing productivity. Moreover, such techniques can reduce processor and battery power that would otherwise be wasted on redundant user input.

以下に、図1A〜図1B、図2、図3、図4A〜図4B、及び図5A〜図5Hは、イベント通知を管理する技法を行うための例示的なデバイスの説明を提供する。 Below, FIGS. 1A-1B, 2, 3, 4, 4A-4B, and 5A-5H provide a description of exemplary devices for performing techniques for managing event notifications.

図6A〜図6Vは、いくつかの実施形態による電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。図7A〜図7Cは、いくつかの実施形態による電子デバイスを使用してメディアコントロールにアクセスするための方法を示すフロー図である。図6A〜図6Vのユーザインタフェースは、図7A〜図7Cのプロセスを含む後述するプロセスを示すために使用される。 6A-6V show exemplary techniques and exemplary user interfaces for accessing media controls using electronic devices according to some embodiments. 7A-7C are flow diagrams illustrating methods for accessing media controls using electronic devices according to some embodiments. The user interface of FIGS. 6A-6V is used to indicate a process described below that includes the process of FIGS. 7A-7C.

図8A〜図8Vは、いくつかの実施形態による電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。図9A〜図9Cは、いくつかの実施形態による電子デバイスを使用してメディアコントロールを表示するための方法を示すフロー図である。図8A〜図8Vのユーザインタフェースは、図9A〜図9Cのプロセスを含む後述のプロセスを示すために使用される。 8A-8V show exemplary techniques and exemplary user interfaces for displaying media controls using electronic devices according to some embodiments. 9A-9C are flow diagrams illustrating methods for displaying media controls using electronic devices according to some embodiments. The user interface of FIGS. 8A-8V is used to indicate a process described below that includes the process of FIGS. 9A-9C.

図10A〜図10Kは、いくつかの実施形態による電子デバイスを使用してカメラ視野を表示するための例示的な技術及び例示的なユーザインタフェースを示す。図11A〜図11Cは、いくつかの実施形態による電子デバイスを使用してカメラ視野を表示するための方法を示すフロー図である。図10A〜図10Kのユーザインタフェースは、図11A〜図11Cのプロセスを含む後述のプロセスを示すために使用される。 10A-10K show exemplary techniques and exemplary user interfaces for displaying a camera field of view using electronic devices according to some embodiments. 11A-11C are flow diagrams illustrating a method for displaying a camera field of view using electronic devices according to some embodiments. The user interface of FIGS. 10A-10K is used to indicate a process described below that includes the process of FIGS. 11A-11C.

図12A〜図12Kは、いくつかの実施形態による電子デバイスを使用してメディアアイテムにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。図13A〜図13Bは、いくつかの実施形態による電子デバイスを使用してメディアアイテムにアクセスするための方法を示すフロー図である。図12A〜図12Kのユーザインタフェースは、図13A〜図13Bのプロセスを含む後述のプロセスを示すために使用される。 12A-12K show exemplary techniques and exemplary user interfaces for accessing media items using electronic devices according to some embodiments. 13A-13B are flow diagrams illustrating methods for accessing media items using electronic devices according to some embodiments. The user interface of FIGS. 12A-12K is used to indicate a process described below that includes the process of FIGS. 13A-13B.

図14A〜図14Uは、いくつかの実施形態による電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。図15A〜図15Cは、いくつかの実施形態による電子デバイスを使用してメディアアイテムを修正するための方法を示すフロー図である。図14A〜図14Uのユーザインタフェースは、図15A〜図15Cのプロセスを含む後述のプロセスを示すために使用される。 14A-14U show exemplary techniques and exemplary user interfaces for modifying media items using electronic devices according to some embodiments. 15A-15C are flow diagrams illustrating methods for modifying media items using electronic devices according to some embodiments. The user interface of FIGS. 14A-14U is used to indicate a process described below that includes the process of FIGS. 15A-15C.

図16A〜図16Qは、いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。図17A〜図17Bは、いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための方法を示すフロー図である。図16A〜図16Qのユーザインタフェースは、図17A〜図17Bのプロセスを含む後述のプロセスを示すために使用される。 16A-16Q show exemplary techniques and exemplary user interfaces for varying zoom levels using electronic devices according to some embodiments. 17A-17B are flow diagrams illustrating methods for changing the zoom level using electronic devices according to some embodiments. The user interface of FIGS. 16A-16Q is used to indicate a process described below that includes the process of FIGS. 17A-17B.

図18A〜図18Xは、いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。図19A〜図19Bは、いくつかの実施形態による電子デバイスを使用してフレームレートを変更するための方法を示すフロー図である。図20A〜図20Cは、いくつかの実施形態による電子デバイスを使用して光条件に対応するための方法を示すフロー図である。図21A〜図21Cは、いくつかの実施形態による電子デバイスを使用してカメラインジケーションを提供するための方法を示すフロー図である。図18A〜図18Xのユーザインタフェースは、図19A〜図19B、図20A〜図20C、及び図21A〜図21Cのプロセスを含む後述するプロセスを示すために使用される。 18A-18X show exemplary techniques and exemplary user interfaces for managing media using electronic devices according to some embodiments. 19A-19B are flow diagrams illustrating methods for changing the frame rate using electronic devices according to some embodiments. 20A-20C are flow diagrams illustrating methods for addressing light conditions using electronic devices according to some embodiments. 21A-21C are flow diagrams illustrating methods for providing camera indications using electronic devices according to some embodiments. The user interface of FIGS. 18A-18X is used to indicate a process described below that includes the processes of FIGS. 19A-19B, 20A-20C, and 21A-21C.

図22A〜図22AMは、いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。図23A〜図23Bは、いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。図22A〜図22AMのユーザインタフェースは、図23A〜図23Bのプロセスを含む後述のプロセスを示すために使用される。 22A-22AM show exemplary user interfaces for editing captured media according to some embodiments. 23A-23B are flow diagrams illustrating a method for editing media captured using an electronic device according to some embodiments. The user interface of FIGS. 22A-22AM is used to indicate a process described below that includes the process of FIGS. 23A-23B.

図24A〜図24ABは、いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。図25A〜図25Bは、いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。図24A〜図24ABのユーザインタフェースは、図25A〜図25Bのプロセスを含む後述のプロセスを示すために使用される。 24A-24AB show exemplary user interfaces for editing captured media according to some embodiments. 25A-25B are flow diagrams illustrating a method for editing media captured using an electronic device according to some embodiments. The user interface of FIGS. 24A to 24AB is used to indicate a process described below that includes the process of FIGS. 25A to 25B.

図26A〜図26Uは、いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。図27A〜図27Cは、いくつかの実施形態による電子デバイスを使用してメディアを管理するための方法を示すフロー図である。図28A〜図28Bは、メディアをキャプチャする間にガイダンスを提供するための方法を示すフロー図である。図26A〜図26Uのユーザインタフェースは、図27A〜図27C及び図28A〜図28Bのプロセスを含む後述のプロセスを示すために使用される。 26A-26U show exemplary user interfaces for managing media using electronic devices according to some embodiments. 27A-27C are flow diagrams illustrating methods for managing media using electronic devices according to some embodiments. 28A-28B are flow diagrams illustrating a method for providing guidance while capturing media. The user interface of FIGS. 26A-26U is used to indicate a process described below that includes the processes of FIGS. 27A-27C and 28A-28B.

図29A〜図29Pは、いくつかの実施形態による複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。図30A〜図30Cは、いくつかの実施形態による複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための方法を示すフロー図である。図29A〜図29Pのユーザインタフェースは、図30A〜図30Cのプロセスを含む後述のプロセスを示すために使用される。 29A-29P show exemplary user interfaces for managing controlled media captures using electronic devices with multiple cameras according to some embodiments. 30A-30C are flow diagrams illustrating a method for managing controlled media capture using an electronic device with a plurality of cameras according to some embodiments. The user interface of FIGS. 29A-29P is used to indicate a process described below that includes the process of FIGS. 30A-30C.

図31A〜図31Iは、いくつかの実施形態による電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための例示的なユーザインタフェースを示す。図32A〜図32Cは、いくつかの実施形態による電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための方法を示すフロー図である。図31A〜図31Iのユーザインタフェースは、図32A〜図32Cのプロセスを含む後述のプロセスを示すために使用される。 31A-31I show exemplary user interfaces for displaying camera user interfaces at various zoom levels using different cameras of electronic devices according to some embodiments. 32A-32C are flow diagrams illustrating a method for displaying a camera user interface at various zoom levels using different cameras of electronic devices according to some embodiments. The user interface of FIGS. 31A-31I is used to indicate a process described below that includes the process of FIGS. 32A-32C.

図33A〜図33Qは、いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。図34A〜図34Bは、いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための方法を示すフロー図である。図33A〜図33Qのユーザインタフェースは、図34A〜図34Bのプロセスを含む後述のプロセスを示すために使用される。 33A-33Q show exemplary user interfaces for varying zoom levels using electronic devices according to some embodiments. 34A-34B are flow diagrams illustrating methods for changing the zoom level using electronic devices according to some embodiments. The user interface of FIGS. 33A-33Q is used to indicate a process described below that includes the process of FIGS. 34A-34B.

図35A〜図35Iは、いくつかの実施形態による電子デバイスを使用してメディアキャプチャコントロールにアクセスするための例示的なユーザインタフェースを示す。図36A〜図36Bは、いくつかの実施形態による電子デバイスを使用してメディアキャプチャコントロールにアクセスするための方法を示すフロー図である。図35A〜図35Iのユーザインタフェースは、図36A〜図36Bのプロセスを含む後述のプロセスを示すために使用される。 35A-35I show exemplary user interfaces for accessing media capture controls using electronic devices according to some embodiments. 36A-36B are flow diagrams illustrating methods for accessing media capture controls using electronic devices according to some embodiments. The user interface of FIGS. 35A-35I is used to indicate a process described below that includes the process of FIGS. 36A-36B.

図37A〜図37AAは、いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。図38A〜図38Cは、いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを自動的に調整するための方法を示すフロー図である。図37A〜図37AAのユーザインタフェースは、図38A〜図38Cのプロセスを含む後述のプロセスを示すために使用される。 37A-37AA show an exemplary user interface for automatically adjusting captured media using electronic devices according to some embodiments. 38A-38C are flow diagrams illustrating methods for automatically adjusting captured media using electronic devices according to some embodiments. The user interface of FIGS. 37A-37AA is used to indicate a process described below that includes the process of FIGS. 38A-38C.

以下の説明では、様々な要素について説明するために、「第1の」、「第2の」などの用語を使用するが、これらの要素は、それらの用語によって限定されるべきではない。これらの用語は、ある要素を別の要素と区別するためにのみ使用される。例えば、記載する様々な実施形態の範囲から逸脱することなく、第1のタッチを第2のタッチと呼ぶこともでき、同様に第2のタッチを第1のタッチと呼ぶこともできる。第1のタッチ及び第2のタッチはどちらもタッチであるが、これらは同じタッチではない。 In the following description, terms such as "first" and "second" are used to describe the various elements, but these elements should not be limited by those terms. These terms are used only to distinguish one element from another. For example, the first touch can be referred to as the second touch and similarly the second touch can be referred to as the first touch without departing from the scope of the various embodiments described. Both the first touch and the second touch are touches, but they are not the same touch.

本明細書に記載する様々な実施形態の説明で使用される術語は、特定の実施形態を説明することのみを目的とし、限定的であることは意図されていない。記載する様々な実施形態の説明及び添付の特許請求の範囲では、単数形の「a(1つ、一)」、「an(1つ、一)」、及び「the(その、この)」は、文脈上別途明白に記載しない限り、複数形も同様に含むことが意図される。また、本明細書で使用されるとき、用語「及び/又は」は、関連する列挙された項目のうちの1つ以上のいずれか及び全ての考えられる組み合わせを指し、かつこれを含むことを理解されたい。用語「includes(含む)」、「including(含む)」、「comprises(含む、備える)」、及び/又は「comprising(含む、備える)」は、本明細書で使用する場合、述べられた特徴、整数、ステップ、動作、要素、及び/又は構成要素の存在を指定するが、1つ以上の他の特徴、整数、ステップ、動作、要素、構成要素、及び/又はそれらのグループの存在又は追加を除外しないことが更に理解されるであろう。 The terminology used in the description of the various embodiments described herein is for the sole purpose of describing a particular embodiment and is not intended to be limiting. In the description of the various embodiments described and the appended claims, the singular forms "a (one, one)", "an (one, one)", and "the (that, this)" are , The plural is intended to be included as well, unless otherwise explicitly stated in the context. Also, as used herein, it is understood that the term "and / or" refers to and includes any and all possible combinations of one or more of the related listed items. I want to be. The terms "inclusions", "inclusions", "comprises", and / or "comprising", as used herein, are the features described. Specifies the existence of integers, steps, actions, elements, and / or components, but the presence or addition of one or more other features, integers, steps, actions, elements, components, and / or groups thereof. It will be further understood not to exclude.

「〜の場合(if)」という用語は、任意選択的に、文脈に応じて、「〜とき(when)」若しくは「〜とき(upon)」、又は「〜と判定したことに応じて(in response to determining)」若しくは「〜を検出したことに応じて(in response to detecting)」を意味すると解釈される。同様に、「〜と判定された場合(if it is determined)」又は「[記載の状態又はイベント]が検出された場合(if [a stated condition or event] is detected)」という語句は、任意選択的に、文脈に応じて、「〜と判定したとき(upon determining)」若しくは「〜と判定したことに応じて(in response to determining)」、又は「[記載の状態又はイベント]を検出したとき(upon detecting [the stated condition or event])」若しくは「[記載の状態又はイベント]を検出したことに応じて(in response to detecting [the stated condition or event])」を意味すると解釈される。 The term "if" is optional, depending on the context, "when" or "upon", or "in". It is interpreted to mean "response to determining" or "in response to detecting". Similarly, the phrase "if it is determined" or "if [a stated condition or event] is detected" is optional. In response to the context, "upon determining" or "in response to determining", or "[state or event] is detected. (Upon detecting [the stated condition or event]) "or" in response to detecting [the stated condition or event] ".

電子デバイス、そのようなデバイス用のユーザインタフェース、及びそのようなデバイスを使用する関連するプロセスの実施形態が説明される。いくつかの実施形態では、デバイスは、PDA機能及び/又は音楽プレーヤ機能などの他の機能も含む、携帯電話などのポータブル通信デバイスである。ポータブル多機能デバイスの例示的な実施形態としては、カリフォルニア州クパチーノのApple Inc.からのiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)のデバイスが挙げられるが、これらに限定されない。任意選択的に、タッチ感知面を有するラップトップ又はタブレットコンピュータ(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)などの他のポータブル電子デバイスも使用される。また、いくつかの実施形態では、デバイスはポータブル通信デバイスではなく、タッチ感知面を有するデスクトップコンピュータ(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)であることも理解されたい。 Electronic devices, user interfaces for such devices, and embodiments of related processes using such devices are described. In some embodiments, the device is a portable communication device, such as a mobile phone, that also includes other functions such as a PDA function and / or a music player function. An exemplary embodiment of a portable multifunction device is Apple Inc., Cupertino, CA. Devices such as, but not limited to, iPhone®, iPod Touch®, and iPad® from. Optionally, other portable electronic devices such as laptops or tablet computers with touch sensitive surfaces (eg, touch screen displays and / or touchpads) are also used. It should also be understood that in some embodiments, the device is not a portable communication device, but a desktop computer having a touch sensitive surface (eg, a touch screen display and / or a touch pad).

以下の論考では、ディスプレイ及びタッチ感知面を含む電子デバイスについて説明する。しかしながら、電子デバイスは、任意選択的に、物理キーボード、マウス、及び/又はジョイスティックなどの1つ以上の他の物理ユーザインタフェースデバイスを含むことを理解されたい。 The following discussion describes electronic devices including displays and touch sensitive surfaces. However, it should be understood that electronic devices optionally include one or more other physical user interface devices such as physical keyboards, mice, and / or joysticks.

デバイスは、典型的には、描画アプリケーション、プレゼンテーションアプリケーション、ワードプロセッシングアプリケーション、ウェブサイト作成アプリケーション、ディスクオーサリングアプリケーション、スプレッドシートアプリケーション、ゲームアプリケーション、電話アプリケーション、テレビ会議アプリケーション、電子メールアプリケーション、インスタントメッセージングアプリケーション、トレーニングサポートアプリケーション、写真管理アプリケーション、デジタルカメラアプリケーション、デジタルビデオカメラアプリケーション、ウェブブラウジングアプリケーション、デジタル音楽プレーヤアプリケーション、及び/又はデジタルビデオプレーヤアプリケーションのうちの1つ以上などの様々なアプリケーションに対応する。 Devices typically include drawing applications, presentation applications, word processing applications, website creation applications, disk authoring applications, spreadsheet applications, gaming applications, phone applications, video conferencing applications, email applications, instant messaging applications, and training. It supports a variety of applications such as support applications, photo management applications, digital camera applications, digital video camera applications, web browsing applications, digital music player applications, and / or one or more of digital video player applications.

本デバイス上で実行される様々なアプリケーションは、タッチ感知面などの、少なくとも1つの共通の物理ユーザインタフェースデバイスを、任意選択的に使用する。タッチ感知面の1つ以上の機能、並びにデバイス上に表示される対応する情報は、アプリケーションごとに、及び/又はそれぞれのアプリケーション内で、任意選択的に、調整及び/又は変更される。このように、デバイスの共通の物理アーキテクチャ(タッチ感知面など)は、任意選択的に、ユーザにとって直観的かつ透過的なユーザインタフェースを備える様々なアプリケーションをサポートする。 Various applications running on the device optionally use at least one common physical user interface device, such as a touch sensitive surface. One or more functions of the touch-sensitive surface, as well as the corresponding information displayed on the device, are optionally adjusted and / or modified on a per-application basis and / or within each application. Thus, the device's common physical architecture (such as touch-sensitive surfaces) optionally supports a variety of applications with user interfaces that are intuitive and transparent to the user.

ここで、タッチ感知ディスプレイを備えるポータブルデバイスの実施形態に注意を向ける。図1Aは、いくつかの実施形態によるタッチ感知ディスプレイシステム112を有するポータブル多機能デバイス100を示すブロック図である。タッチ感知ディスプレイ112は、便宜上「タッチスクリーン」と呼ばれることがあり、「タッチ感知ディスプレイシステム」として知られている又は呼ばれることがある。デバイス100は、メモリ102(任意選択的に、1つ以上のコンピュータ可読記憶媒体を含む)、メモリコントローラ122、1つ以上の処理ユニット(CPU)120、周辺機器インタフェース118、RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、入出力(I/O)サブシステム106、他の入力コントロールデバイス116、及び外部ポート124を含む。デバイス100は、任意選択的に、1つ以上の光センサ164を含む。デバイス100は、任意選択的に、デバイス100上の接触の強度を検出する1つ以上の接触強度センサ165(例えば、デバイス100のタッチ感知ディスプレイシステム112などのタッチ感知面)を含む。デバイス100は、任意選択的に、デバイス100上で触知出力を生成する(例えばデバイス100のタッチ感知ディスプレイシステム112又はデバイス300のタッチパッド355などのタッチ感知面上で触知出力を生成する)1つ以上の触知出力生成器167を含む。これらの構成要素は、任意選択的に、1つ以上の通信バス又は信号ライン103を介して通信する。 Here, attention is paid to an embodiment of a portable device including a touch-sensitive display. FIG. 1A is a block diagram showing a portable multifunction device 100 having a touch-sensitive display system 112 according to some embodiments. The touch-sensitive display 112 may be referred to as a "touch screen" for convenience, and may be known or referred to as a "touch-sensitive display system". The device 100 includes a memory 102 (optionally including one or more computer-readable storage media), a memory controller 122, one or more processing units (CPU) 120, a peripheral device interface 118, an RF circuit 108, and an audio circuit. It includes 110, a speaker 111, a microphone 113, an input / output (I / O) subsystem 106, other input control devices 116, and an external port 124. The device 100 optionally includes one or more optical sensors 164. The device 100 optionally includes one or more contact strength sensors 165 (eg, a touch-sensitive surface such as the touch-sensitive display system 112 of the device 100) that detects the strength of contact on the device 100. The device 100 optionally generates a tactile output on the device 100 (eg, generates a tactile output on a touch-sensitive surface such as the touch-sensitive display system 112 of the device 100 or the touchpad 355 of the device 300). Includes one or more tactile output generators 167. These components optionally communicate via one or more communication buses or signal lines 103.

本明細書及び特許請求の範囲では、タッチ感知面上の接触の「強度」という用語は、タッチ感知面上の接触(例えば、指の接触)の力若しくは圧力(単位面積当たりの力)、又はタッチ感知面上の接触の力若しくは圧力に対する代理(プロキシ)を指す。接触の強度は、少なくとも4つの別個の値を含み、より典型的には、数百の(例えば、少なくとも256の)別個の値を含む、値の範囲を有する。接触の強度は、任意選択的に、様々な手法、及び様々なセンサ又はセンサの組み合わせを使用して、特定(又は測定)される。例えば、タッチ感知面の下又はそれに隣接する1つ以上の力センサは、任意選択的に、タッチ感知面上の様々なポイントにおける力を測定するために使用される。いくつかの実装形態では、複数の力センサからの力測定値は、接触の推定される力を判定するために組み合わされる(例えば、加重平均)。同様に、スタイラスの感圧性先端部は、任意選択的に、タッチ感知面上のスタイラスの圧力を特定するために使用される。あるいは、タッチ感知面上で検出される接触エリアのサイズ及び/若しくはその変化、接触に近接するタッチ感知面の電気容量及び/若しくはその変化、並びに/又は、接触に近接するタッチ感知面の抵抗及び/若しくはその変化は、任意選択的に、タッチ感知面上の接触の力又は圧力の代替物として使用される。いくつかの実装形態では、接触の力又は圧力のための代替測定値は、強度閾値を超えているかどうかを判定するために直接使用される(例えば、強度閾値は、代替測定値に対応する単位で記述される)。いくつかの実装形態では、接触力又は圧力に対する代理測定は、推定される力又は圧力に変換され、推定される力又は圧力は、強度閾値を超過したかどうかを判定するために使用される(例えば、強度閾値は、圧力の単位で測定される圧力閾値である)。接触の強度をユーザ入力の属性として使用することにより、アフォーダンスを(例えば、タッチ感知ディスプレイ上に)表示するための、及び/又は、ユーザ入力を(例えば、タッチ感知ディスプレイ、タッチ感知面、又は、ノブ若しくはボタンなどの物理的/機械的制御部を介して)受信するための面積が制限されている、低減されたサイズのデバイス上で、通常であればユーザによってアクセスすることが不可能であり得る追加のデバイス機能への、ユーザのアクセスが可能となる。 As used herein and in the claims, the term "strength" of contact on a touch-sensitive surface refers to the force or pressure (force per unit area) of contact on the touch-sensitive surface (eg, finger contact), or. Refers to a proxy for the force or pressure of contact on the touch sensing surface. The contact strength has a range of values, including at least four distinct values, and more typically hundreds (eg, at least 256) of distinct values. Contact strength is optionally specified (or measured) using different techniques and different sensors or combinations of sensors. For example, one or more force sensors below or adjacent to the touch sensitive surface are optionally used to measure forces at various points on the touch sensitive surface. In some implementations, force measurements from multiple force sensors are combined to determine the estimated force of contact (eg, weighted average). Similarly, the pressure sensitive tip of the stylus is optionally used to identify the pressure of the stylus on the touch sensitive surface. Alternatively, the size and / or its change of the contact area detected on the touch sensing surface, the capacitance and / or its change of the touch sensing surface close to the contact, and / or the resistance of the touch sensing surface close to the contact and / Or its variation is optionally used as a substitute for contact force or pressure on the touch sensitive surface. In some implementations, the alternative measurement for contact force or pressure is used directly to determine if the intensity threshold is exceeded (eg, the intensity threshold is the unit corresponding to the alternative measurement). Described in). In some embodiments, the surrogate measurement for contact force or pressure is converted to an estimated force or pressure, which is used to determine if the estimated force or pressure has exceeded the strength threshold ( For example, the intensity threshold is a pressure threshold measured in units of pressure). By using the strength of contact as an attribute of user input, to display affordances (eg, on a touch-sensitive display) and / or user input (eg, touch-sensitive display, touch-sensitive surface, or, etc.) It is normally inaccessible to the user on a reduced size device that has a limited area to receive (via a physical / mechanical control such as a knob or button). Allows users access to the additional device features they get.

本明細書及び特許請求の範囲で使用されるように、用語「触知出力」は、ユーザの触覚でユーザによって検出されることになる、デバイスの従前の位置に対するそのデバイスの物理的変位、デバイスの構成要素(例えば、タッチ感知面)の、そのデバイスの別の構成要素(例えば、筐体)に対する物理的変位、又は、デバイスの質量中心に対する構成要素の変位を指す。例えば、デバイス又はデバイスの構成要素が、タッチに敏感なユーザの表面(例えば、ユーザの手の指、手のひら、又は他の部分)に接触している状況では、物理的変位によって生成された触知出力は、そのデバイス又はデバイスの構成要素の物理的特性の認識される変化に相当する触感として、ユーザによって解釈されることになる。例えば、タッチ感知面(例えば、タッチ感知ディスプレイ又はトラックパッド)の移動は、ユーザによって、物理アクチュエータボタンの「ダウンクリック」又は「アップクリック」として、任意選択的に解釈される。いくつかの場合、ユーザの動作により物理的に押された(例えば、変位された)タッチ感知面に関連付けられた物理アクチュエータボタンの移動がないときでさえ、ユーザは「ダウンクリック」又は「アップクリック」などの触感を感じる。別の例として、タッチ感知面の移動は、タッチ感知面の平滑度に変化がない場合であっても、ユーザによって、そのタッチ感知面の「粗さ」として、任意選択的に解釈又は感知される。そのようなユーザによるタッチの解釈は、ユーザの個人的な感覚認知に左右されるが、大多数のユーザに共通する、多くのタッチの感覚認知が存在する。したがって、触知出力が、ユーザの特定の感覚認知(例えば、「アップクリック」「ダウンクリック」、「粗さ」)に対応するものと記述される場合、別途記載のない限り、生成された触知出力は、典型的な(又は、平均的な)ユーザの記述された感覚認知を生成するデバイス、又はデバイスの構成要素の物理的変位に対応する。 As used herein and in the claims, the term "tactile output" is the physical displacement of a device with respect to the device's previous position, which will be detected by the user by the user's tactile sensation. Refers to the physical displacement of a component (eg, touch-sensitive surface) of the device with respect to another component (eg, housing) of the device, or the displacement of the component with respect to the center of mass of the device. For example, in situations where the device or a component of the device is in contact with a touch-sensitive user's surface (eg, the finger, palm, or other part of the user's hand), the tactile sensation generated by physical displacement. The output will be interpreted by the user as a tactile sensation that corresponds to a perceived change in the physical properties of the device or its components. For example, the movement of a touch-sensitive surface (eg, a touch-sensitive display or trackpad) is optionally interpreted by the user as a "down-click" or "up-click" of a physical actuator button. In some cases, the user "down-clicks" or "up-clicks" even when there is no movement of the physical actuator button associated with the touch-sensitive surface physically pressed (eg, displaced) by the user's actions. I feel the tactile sensation. As another example, the movement of the touch-sensitive surface is optionally interpreted or perceived by the user as the "roughness" of the touch-sensitive surface, even if the smoothness of the touch-sensitive surface does not change. NS. The interpretation of touch by such a user depends on the user's personal sensory perception, but there are many sensory perceptions of touch that are common to the majority of users. Therefore, if the tactile output is described as corresponding to a particular sensory perception of the user (eg, "up-click", "down-click", "roughness"), the generated tactile sensation, unless otherwise stated. Intellectual output corresponds to the physical displacement of a device, or component of a device, that produces a typical (or average) user's described sensory cognition.

デバイス100は、ポータブル多機能デバイスの一例に過ぎず、デバイス100は、任意選択的に、示されているものよりも多くの構成要素又は少ない構成要素を有するものであり、任意選択的に、2つ以上の構成要素を組み合わせるものであり、又は、任意選択的に、それらの構成要素の異なる構成若しくは配置を有するものであることを理解されたい。図1Aに示す様々な構成要素は、1つ以上の信号処理回路及び/又は特定用途向け集積回路を含む、ハードウェア、ソフトウェア、又はハードウェアとソフトウェアの両方の組み合わせで実施される。 The device 100 is merely an example of a portable multifunctional device, the device 100 optionally having more or fewer components than those shown, optionally 2 It should be understood that it is a combination of one or more components, or optionally has a different composition or arrangement of those components. The various components shown in FIG. 1A are implemented in hardware, software, or a combination of hardware and software, including one or more signal processing circuits and / or application-specific integrated circuits.

メモリ102は、任意選択的に、高速ランダムアクセスメモリを含み、また任意選択的に、1つ以上の磁気ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性ソリッドステートメモリデバイスなどの不揮発性メモリを含む。メモリコントローラ122は、任意選択的に、デバイス100の他の構成要素によるメモリ102へのアクセスを制御する。 The memory 102 optionally includes a high speed random access memory and optionally a non-volatile memory such as one or more magnetic disk storage devices, flash memory devices, or other non-volatile solid state memory devices. include. The memory controller 122 optionally controls access to the memory 102 by other components of the device 100.

周辺機器インタフェース118は、デバイスの入力及び出力周辺機器をCPU120及びメモリ102に結合するために使用することができる。1つ以上のプロセッサ120は、メモリ102に記憶された様々なソフトウェアプログラム及び/又は命令セットを動作させる、又は実行して、デバイス100のための様々な機能を実行し、データを処理する。いくつかの実施形態では、周辺機器インタフェース118、CPU120、及びメモリコントローラ122は、任意選択的に、チップ104などの単一のチップ上で実施される。いくつかの他の実施形態では、それらは別々のチップ上に任意選択的に実装される。 The peripheral device interface 118 can be used to couple the input and output peripheral devices of the device to the CPU 120 and the memory 102. One or more processors 120 operate or execute various software programs and / or instruction sets stored in memory 102 to perform various functions for device 100 and process data. In some embodiments, the peripheral interface 118, CPU 120, and memory controller 122 are optionally implemented on a single chip, such as chip 104. In some other embodiments, they are optionally mounted on separate chips.

RF(radio frequency)(無線周波数)回路108は、電磁信号とも呼ばれるRF信号を送受信する。RF回路108は、電気信号を電磁信号に、又は電磁信号を電気信号に変換し、電磁信号を介して通信ネットワーク及び他の通信デバイスと通信する。RF回路108は、任意選択的に、これらの機能を実行するための周知の回路を含み、それらの回路としては、限定するものではないが、アンテナシステム、RF送受信機、1つ以上の増幅器、同調器、1つ以上の発振器、デジタル信号プロセッサ、CODECチップセット、加入者識別モジュール(subscriber identity module、SIM)カード、メモリなどが挙げられる。RF回路108は、任意選択的に、ワールドワイドウェブ(World Wide Web、WWW)とも呼ばれるインターネット、イントラネット、並びに/又はセルラー電話ネットワーク、無線ローカルエリアネットワーク(local area network、LAN)及び/若しくはメトロポリタンエリアネットワーク(metropolitan area network、MAN)などの無線ネットワークなどのネットワークと、また他のデバイスと、無線通信によって通信する。RF回路108は、任意選択的に、短距離通信無線機などによって近距離通信(near field communication、NFC)フィールドを検出するよく知られている回路を含む。無線通信は、任意選択的に、それだけに限定されるものではないが、動き通信用のグローバルシステム(Global System for Mobile Communications、GSM)、拡張データGSM環境(Enhanced Data GSM Environment、EDGE)、高速ダウンリンクパケットアクセス(high-speed downlink packet access、HSDPA)、高速アップリンクパケットアクセス(high-speed uplink packet access、HSUPA)、エボリューションデータオンリ(Evolution, Data-Only、EV−DO)、HSPA、HSPA+、デュアルセルHSPA(Dual-Cell HSPA、DC−HSPDA)、ロングタームエボリューション(long term evolution、LTE)、近距離通信(NFC)、広帯域符号分割多元接続(wideband code division multiple access、W−CDMA)、符号分割多元接続(code division multiple access、CDMA)、時分割多元接続(time division multiple access、TDMA)、Bluetooth(登録商標)、Bluetoothローエネルギ(Bluetooth Low Energy、BTLE(登録商標))、ワイヤレスフィデリティ(Wireless Fidelity、Wi−Fi(登録商標))(例えば、IEEE 802.11a、IEEE 802.11b、IEEE 802.11g、IEEE 802.11n、及び/若しくはIEEE 802.11ac)、ボイスオーバインターネットプロトコル(voice over Internet Protocol、VoIP)、Wi−MAX(登録商標)、電子メール用プロトコル(例えば、インターネットメッセージアクセスプロトコル(Internet message access protocol、IMAP)及び/若しくはポストオフィスプロトコル(post office protocol、POP))、インスタントメッセージング(例えば、拡張可能なメッセージング及びプレゼンスプロトコル(extensible messaging and presence protocol、XMPP)、インスタントメッセージング及びプレゼンスレベレイジングエクステンションのためのセッション開始プロトコル(Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions、SIMPLE)、インスタントメッセージング及びプレゼンスサービス(Instant Messaging and Presence Service、IMPS))、並びに/若しくはショートメッセージサービス(Short Message Service、SMS)、又は本明細書の出願日の時点でまだ開発されていない通信プロトコルを含む任意の他の適した通信プロトコルを含む、複数の通信規格、プロトコル、及び技術のうちのいずれかを使用する。 The RF (radio frequency) circuit 108 transmits and receives RF signals, also called electromagnetic signals. The RF circuit 108 converts an electric signal into an electromagnetic signal or converts the electromagnetic signal into an electric signal and communicates with a communication network and other communication devices via the electromagnetic signal. The RF circuit 108 optionally includes well-known circuits for performing these functions, such as, but not limited to, an antenna system, an RF transceiver, and one or more amplifiers. Such as a tuner, one or more oscillators, a digital signal processor, a CODEC chipset, a subscriber identity module (SIM) card, a memory, and the like. The RF circuit 108 optionally comprises the Internet, an intranet, and / or a cellular telephone network, a wireless local area network (LAN) and / or a metropolitan area network, also referred to as the World Wide Web (WWW). Communicates wirelessly with networks such as wireless networks such as (metropolitan area network, MAN) and with other devices. The RF circuit 108 includes a well-known circuit that optionally detects a near field communication (NFC) field by a short-range communication radio or the like. Wireless communication is optional, but not limited to, Global System for Mobile Communications (GSM), Enhanced Data GSM Environment (EDGE), and high-speed downlink. Packet access (high-speed downlink packet access, HSDPA), high-speed uplink packet access (HSUPA), evolution data only (Evolution, Data-Only, EV-DO), HSPA, HSPA +, dual cell HSPA (Dual-Cell HSPA, DC-HSPDA), long term evolution (LTE), short-range communication (NFC), wideband code division multiple access (W-CDMA), code division multiple access. Connection (code division multiple access, CDMA), time division multiple access (TDMA), Bluetooth®, Bluetooth low energy (Bluetooth Low Energy, BTLE®), Wireless Fidelity, Wi-Fi®) (eg, IEEE 802.11a, IEEE 802.11b, IEEE 802.11g, IEEE 802.11n, and / or IEEE 802.11ac), voice over Internet Protocol, VoIP), Wi-MAX®, email protocols (eg, Internet message access protocol (IMAP) and / or post office protocol (POP)), instant messaging (eg, POP). Extensible messaging and presence protocol, XMPP), Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions (SIMPLE), Instant Messaging and Presence Service (IMPS), and / Or multiple communication standards, protocols, including Short Message Service (SMS), or any other suitable communication protocol, including communication protocols that have not yet been developed as of the filing date of this specification. And use one of the techniques.

オーディオ回路110、スピーカ111、及びマイクロフォン113は、ユーザとデバイス100との間のオーディオインタフェースを提供する。オーディオ回路110は、周辺機器インタフェース118からオーディオデータを受信し、このオーディオデータを電気信号に変換し、この電気信号をスピーカ111に伝送する。スピーカ111は、電気信号を人間の可聴音波に変換する。また、オーディオ回路110は、マイクロフォン113によって音波から変換された電気信号を受信する。オーディオ回路110は、電気信号をオーディオデータに変換し、このオーディオデータを処理のために周辺機器インタフェース118に伝送する。オーディオデータは、任意選択的に、周辺機器インタフェース118によって、メモリ102及び/若しくはRF回路108から取得され、かつ/又はメモリ102及び/若しくはRF回路108に伝送される。いくつかの実施形態では、オーディオ回路110はまた、ヘッドセットジャック(例えば、図2の212)を含む。ヘッドセットジャックは、オーディオ回路110と、出力専用ヘッドホン又は出力(例えば片耳又は両耳用のヘッドホン)及び入力(例えばマイクロフォン)の両方を有するヘッドセットなどの着脱可能なオーディオ入出力周辺機器との間のインタフェースを提供する。 The audio circuit 110, the speaker 111, and the microphone 113 provide an audio interface between the user and the device 100. The audio circuit 110 receives audio data from the peripheral device interface 118, converts the audio data into an electric signal, and transmits the electric signal to the speaker 111. The speaker 111 converts an electrical signal into a human audible sound wave. Further, the audio circuit 110 receives an electric signal converted from a sound wave by the microphone 113. The audio circuit 110 converts the electrical signal into audio data and transmits the audio data to the peripheral interface 118 for processing. The audio data is optionally acquired from the memory 102 and / or the RF circuit 108 by the peripheral interface 118 and / or transmitted to the memory 102 and / or the RF circuit 108. In some embodiments, the audio circuit 110 also includes a headset jack (eg, 212 in FIG. 2). The headset jack is between the audio circuit 110 and a detachable audio input / output peripheral such as output-only headphones or a headset that has both output (eg, one-ear or binaural headphones) and input (eg, microphone). Provides an interface for.

I/Oサブシステム106は、タッチスクリーン112及び他の入力コントロールデバイス116などのデバイス100上の入出力周辺機器を、周辺機器インタフェース118に結合する。I/Oサブシステム106は、任意選択的に、ディスプレイコントローラ156、光センサコントローラ158、深度カメラコントローラ169、強度センサコントローラ159、触覚フィードバックコントローラ161、及び、他の入力デバイス若しくは制御デバイス用の1つ以上の入力コントローラ160を含む。1つ以上の入力コントローラ160は、他の入力コントロールデバイス116からの電気信号の受信/他の入力コントロールデバイス116への電気信号の送信を行う。他の入力コントロールデバイス116は、任意選択的に、物理ボタン(例えば、プッシュボタン、ロッカボタンなど)、ダイヤル、スライダスイッチ、ジョイスティック、クリックホイールなどを含む。いくつかの代替実施形態では、入力コントローラ160は、任意選択的に、キーボード、赤外線ポート、USBポート、及びマウスなどのポインタデバイスのうちのいずれかに結合される(又はいずれにも結合されない)。1つ以上のボタン(例えば、図2の208)は、任意選択的に、スピーカ111及び/又はマイクロフォン113の音量コントロールのための上下ボタンを含む。1つ以上のボタンは、任意選択的に、プッシュボタン(例えば、図2の206)を含む。 The I / O subsystem 106 couples input / output peripherals on the device 100, such as the touch screen 112 and other input control devices 116, to the peripheral interface 118. The I / O subsystem 106 is optionally one for a display controller 156, an optical sensor controller 158, a depth camera controller 169, an intensity sensor controller 159, a haptic feedback controller 161 and another input or control device. The above input controller 160 is included. One or more input controllers 160 receive electrical signals from other input control devices 116 / transmit electrical signals to other input control devices 116. Other input control devices 116 optionally include physical buttons (eg, push buttons, rocker buttons, etc.), dials, slider switches, joysticks, click wheels, and the like. In some alternative embodiments, the input controller 160 is optionally coupled (or not coupled to) any of pointer devices such as a keyboard, infrared port, USB port, and mouse. One or more buttons (eg, 208 in FIG. 2) optionally include up and down buttons for volume control of the speaker 111 and / or microphone 113. The one or more buttons optionally include a push button (eg, 206 in FIG. 2).

全体として参照により本明細書に組み込まれている、2005年12月23日出願の米国特許出願第11/322,549号、「Unlocking a Device by Performing Gestures on an Unlock Image」、米国特許第7,657,849号に記載されているように、プッシュボタンの素早い押下は、任意選択的に、タッチスクリーン112のロックを係合解除し、又は任意選択的に、タッチスクリーン上のジェスチャを使用してデバイスをアンロックするプロセスを開始する。プッシュボタン(例えば、206)のより長い押下は、任意選択的に、デバイス100への電力をオン又はオフにする。ボタンのうちの1つ以上の機能性は、任意選択的に、ユーザによってカスタマイズ可能である。タッチスクリーン112は、仮想又はソフトボタン及び1つ以上のソフトキーボードを実施するために使用される。 U.S. Patent Application No. 11 / 322,549, filed December 23, 2005, "Unlocking a Device by Gestures on an Unlock Image," U.S. Patent No. 7, incorporated herein by reference in its entirety. As described in 657,849, a quick press of the push button optionally disengages the touch screen 112, or optionally uses a gesture on the touch screen. Start the process of unlocking the device. A longer press of the push button (eg 206) optionally turns power on or off the device 100. The functionality of one or more of the buttons can be optionally customized by the user. The touch screen 112 is used to implement virtual or soft buttons and one or more soft keyboards.

タッチ感知ディスプレイ112は、デバイスとユーザとの間の入力インタフェース及び出力インタフェースを提供する。ディスプレイコントローラ156は、タッチスクリーン112からの電気信号の受信及び/又はタッチスクリーン112への電気信号の送信を行う。タッチスクリーン112は、ユーザに対して視覚出力を表示する。この視覚出力は、グラフィック、テキスト、アイコン、ビデオ、及びそれらの任意の組み合わせ(総称して「グラフィック」)を任意選択的に含む。いくつかの実施形態では、視覚出力の一部又は全ては、任意選択的に、ユーザインタフェースオブジェクトに対応する。 The touch-sensitive display 112 provides an input interface and an output interface between the device and the user. The display controller 156 receives the electrical signal from the touch screen 112 and / or transmits the electrical signal to the touch screen 112. The touch screen 112 displays a visual output to the user. This visual output optionally includes graphics, text, icons, videos, and any combination thereof (collectively, "graphics"). In some embodiments, some or all of the visual output optionally corresponds to a user interface object.

タッチスクリーン112は、触覚及び/又は触知接触に基づいてユーザからの入力を受信するタッチ感知面、センサ、又は1組のセンサを有する。タッチスクリーン112及びディスプレイコントローラ156は(あらゆる関連モジュール及び/又はメモリ102内の命令セットとともに)、タッチスクリーン112上の接触(及び接触のあらゆる動き又は中断)を検出し、検出した接触を、タッチスクリーン112上に表示されるユーザインタフェースオブジェクトとの対話(例えば、1つ以上のソフトキー、アイコン、ウェブページ、又は画像)に変換する。例示的な実施形態では、タッチスクリーン112とユーザとの間の接触点は、ユーザの指に対応する。 The touch screen 112 comprises a touch sensing surface, a sensor, or a set of sensors that receives input from the user based on tactile and / or tactile contact. The touch screen 112 and the display controller 156 (along with any associated module and / or instruction set in memory 102) detect a contact (and any movement or interruption of contact) on the touch screen 112, and the detected contact is detected by the touch screen. Converts to an interaction (eg, one or more softkeys, icons, web pages, or images) with a user interface object displayed on 112. In an exemplary embodiment, the point of contact between the touch screen 112 and the user corresponds to the user's finger.

タッチスクリーン112は、任意選択的に、LCD(液晶ディスプレイ)技術、LPD(発光ポリマーディスプレイ)技術、又はLED(発光ダイオード)技術を使用するが、他の実施形態では、他のディスプレイ技術も使用される。タッチスクリーン112及びディスプレイコントローラ156は、任意選択的に、それだけに限定されるものではないが、容量性、抵抗性、赤外線、及び表面音波の技術、並びにタッチスクリーン112との1つ以上の接触点を判定する他の近接センサアレイ又は他の要素を含む、現在知られている又は今後開発される複数のタッチ感知技術のうちのいずれかを使用して、接触及びそのあらゆる動き又は中断を検出する。例示的な実施形態では、カリフォルニア州クパチーノのApple Inc.からのiPhone(登録商標)及びiPod Touch(登録商標)に見られるものなどの、投影型相互静電容量感知技術が使用される。 The touch screen 112 optionally uses LCD (Liquid Crystal Display) technology, LPD (Light Emitting Polymer Display) technology, or LED (Light Emitting Diode) technology, but in other embodiments, other display technologies are also used. NS. The touch screen 112 and the display controller 156 optionally, but are not limited to, capacitive, resistive, infrared, and surface sonic techniques, as well as one or more points of contact with the touch screen 112. Any of the currently known or upcoming touch sensing techniques, including other proximity sensor arrays or other elements to determine, is used to detect contact and any movement or interruption thereof. In an exemplary embodiment, Apple Inc., Cupertino, CA. Projective mutual capacitance sensing techniques such as those found on the iPhone® and iPod Touch® from.

タッチスクリーン112のいくつかの実施形態におけるタッチ感知ディスプレイは、任意選択的に、それぞれ全体として参照により本明細書に組み込まれている、米国特許第6,323,846号(Westermanら)、第6,570,557号(Westermanら)、及び/若しくは第6,677,932号(Westerman)、並びに/又は米国特許公報第2002/0015024A1号という米国特許に記載されているマルチタッチ感知タッチパッドに類似している。しかしながら、タッチスクリーン112はデバイス100からの視覚出力を表示するのに対して、タッチ感知タッチパッドは視覚出力を提供しない。 The touch-sensitive displays in some embodiments of the touch screen 112 are optionally incorporated herein by reference in their entirety, U.S. Pat. Nos. 6,323,846 (Westerman et al.), 6. , 570,557 (Westerman et al.), And / or 6,677,932 (Westerman), and / or similar to the multi-touch sensing touchpad described in the U.S. Patent No. 2002/0015024A1. doing. However, the touch screen 112 displays the visual output from the device 100, whereas the touch-sensitive touchpad does not provide the visual output.

タッチスクリーン112のいくつかの実施形態におけるタッチ感知ディスプレイは、(1)2006年5月2日出願の米国特許出願第11/381,313号、「Multipoint Touch Surface Controller」、(2)2004年5月6日出願の米国特許出願第10/840,862号、「Multipoint Touchscreen」、(3)2004年7月30日出願の米国特許出願第10/903,964号、「Gestures For Touch Sensitive Input Devices」、(4)2005年1月31日出願の米国特許出願第11/048,264号、「Gestures For Touch Sensitive Input Devices」、(5)2005年1月18日出願の米国特許出願第11/038,590号、「Mode−Based Graphical User Interfaces For Touch Sensitive Input Devices」、(6)2005年9月16日出願の米国特許出願第11/228,758号、「Virtual Input Device Placement On A Touch Screen User Interface」、(7)2005年9月16日出願の米国特許出願第11/228,700号、「Operation Of A Computer With A Touch Screen Interface」、(8)2005年9月16日出願の米国特許出願第11/228,737号、「Activating Virtual Keys Of A Touch−Screen Virtual Keyboard」、及び(9)2006年3月3日出願の米国特許出願第11/367,749号、「Multi−Functional Hand−Held Device」という出願に記載されている。これらの出願は全て、全体として参照により本明細書に組み込まれている。 Touch-sensitive displays in some embodiments of the touch screen 112 include (1) US Patent Application No. 11 / 381,313, filed May 2, 2006, "Multipoint Touch Surface Controller," (2) May 2004. US Patent Application No. 10 / 840,862 filed on 6th March, "Multipoint Touchscreen", (3) US Patent Application 10 / 903,964 filed on 30th July 2004, "Gestures For Touch Sensor Input Devices" , (4) US Patent Application No. 11 / 048,264 filed January 31, 2005, "Gestures For Touch Sensor Input Devices", (5) US Patent Application No. 11 / filed January 18, 2005. 038,590, "Mode-Based Graphical User Interfaces For Touch Sensor Input Devices", (6) US Patent Application No. 11/228,758 filed on September 16, 2005, "Visual Touch Panel Input Device". User Interface ”, (7) US Patent Application No. 11 / 228,700 filed on September 16, 2005,“ Operation Of A Computer With A Touch Screen Interface ”, (8) US filed on September 16, 2005. Patent Application Nos. 11/228,737, "Inputting Virtual Keys Of A Touch-Screen Visual Keyboard", and (9) US Patent Application No. 11 / 367,749, filed March 3, 2006, "Multi-Fun". It is described in the application "Hand-Held Computer". All of these applications are incorporated herein by reference in their entirety.

タッチスクリーン112は、任意選択的に、100dpiを超えるビデオ解像度を有する。いくつかの実施形態では、タッチスクリーンは、約160dpiのビデオ解像度を有する。ユーザは、任意選択的に、スタイラス、指などの任意の適した物体又は付属物を使用して、タッチスクリーン112に接触する。いくつかの実施形態では、ユーザインタフェースは、指ベースの接触及びジェスチャを主に扱うように設計されるが、これは、タッチスクリーン上の指の接触面積がより大きいため、スタイラスベースの入力ほど精密でない可能性がある。いくつかの実施形態では、デバイスは、指に基づく粗い入力を、ユーザによって所望されているアクションを実行するための、正確なポインタ/カーソルの位置又はコマンドに変換する。 The touch screen 112 optionally has a video resolution of greater than 100 dpi. In some embodiments, the touch screen has a video resolution of about 160 dpi. The user optionally touches the touch screen 112 using any suitable object or accessory such as a stylus or finger. In some embodiments, the user interface is designed primarily to handle finger-based contact and gestures, which is as precise as stylus-based input due to the larger finger contact area on the touch screen. It may not be. In some embodiments, the device translates a rough finger-based input into an exact pointer / cursor position or command to perform the action desired by the user.

一部の実施形態では、タッチスクリーンに加えて、デバイス100は、任意選択的に、特定の機能をアクティブ化又は非アクティブ化するためのタッチパッドを含む。いくつかの実施形態では、タッチパッドは、タッチスクリーンとは異なり、視覚出力を表示しない、装置のタッチ感知エリアである。タッチパッドは、任意選択的に、タッチスクリーン112又はタッチスクリーンによって形成されるタッチ感知面の拡張部とは別個のタッチ感知面である。 In some embodiments, in addition to the touch screen, the device 100 optionally includes a touch pad for activating or deactivating a particular function. In some embodiments, the touchpad is a touch-sensitive area of the device that, unlike a touchscreen, does not display visual output. The touchpad is optionally a touch sensing surface separate from the touch screen 112 or an extension of the touch sensing surface formed by the touch screen.

デバイス100は、また、様々なコンポーネントに電力を供給する電力システム162を含む。電力システム162は、任意選択的に、電力管理システム、1つ以上の電源(例えば、バッテリ、交流(AC))、再充電システム、停電検出回路、電力コンバータ又はインバータ、電力状態インジケータ(例えば、発光ダイオード(LED))、並びにポータブルデバイス内での電力の生成、管理、及び分配に関連付けられた任意の他の構成要素を含む。 The device 100 also includes a power system 162 that powers various components. The power system 162 optionally includes a power management system, one or more power sources (eg, battery, alternating current (AC)), a recharging system, a power failure detection circuit, a power converter or inverter, a power status indicator (eg, light emission). Includes diodes (LEDs)), as well as any other components associated with the generation, management, and distribution of power within portable devices.

また、デバイス100は、任意選択的に、1つ以上の光センサ164を含む。図1Aは、I/Oサブシステム106内の光センサコントローラ158に結合された光センサを示す。光センサ164は、任意選択的に、電荷結合デバイス(charge-coupled device、CCD)又は相補型金属酸化膜半導体(complementary metal-oxide semiconductor、CMOS)フォトトランジスタを含む。光センサ164は、1つ以上のレンズを通って投影された環境からの光を受信し、その光を、画像を表すデータに変換する。光センサ164は、撮像モジュール143(カメラモジュールとも呼ばれる)と連動して、任意選択的に、静止画像又はビデオをキャプチャする。いくつかの実施形態では、光センサは、デバイスの前面にあるタッチスクリーンディスプレイ112とは反対に、デバイス100の裏面に位置し、したがってタッチスクリーンディスプレイは、静止画像及び/又はビデオ画像の取得のためのビューファインダとして使用することが有効である。いくつかの実施形態では、光センサは、デバイスの前面には位置し、したがってユーザの画像が、任意選択的に、テレビ会議のために入手され、ユーザは、他のテレビ会議参加者をタッチスクリーンディスプレイ上で見る。いくつかの実施形態では、光センサ164の位置は、ユーザによって(例えば、デバイスハウジング内でレンズ及びセンサを回転させることによって)変更することができ、したがって単一の光センサ164が、タッチスクリーンディスプレイとともに、テレビ会議にも静止画像及び/又はビデオ画像の取得にも使用される。 The device 100 also optionally includes one or more optical sensors 164. FIG. 1A shows an optical sensor coupled to an optical sensor controller 158 in the I / O subsystem 106. The optical sensor 164 optionally includes a charge-coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS) phototransistor. The light sensor 164 receives light from the environment projected through one or more lenses and converts the light into data representing an image. The optical sensor 164, in conjunction with the imaging module 143 (also referred to as the camera module), optionally captures a still image or video. In some embodiments, the light sensor is located on the back of the device 100, as opposed to the touch screen display 112 on the front of the device, so the touch screen display is for the acquisition of still and / or video images. It is effective to use it as a viewfinder of. In some embodiments, the optical sensor is located in front of the device, so that the user's image is optionally obtained for the video conference and the user touch screens other video conference participants. View on the display. In some embodiments, the position of the light sensor 164 can be changed by the user (eg, by rotating the lens and sensor within the device housing), thus a single light sensor 164 can be a touch screen display. At the same time, it is also used for video conferencing and acquisition of still images and / or video images.

デバイス100はまた、任意選択的に、1つ以上の深度カメラセンサ175を含む。図1Aは、I/Oサブシステム106内の深度カメラコントローラ169に結合された深度カメラセンサを示す。深度カメラセンサ175は、環境からデータを受信して、視点(例えば、深度カメラセンサ)からのシーン内の対象物(例えば、顔面)の3次元モデルを作成する。一部の実施形態では、撮像モジュール143(カメラモジュールとも呼ばれるもの)と連携して、深度カメラセンサ175は、任意選択的に、撮像モジュール143によってキャプチャされた画像の種々の部分の深度マップを決定するために使用される。いくつかの実施形態では、ユーザが他のテレビ会議参加者をタッチスクリーンディスプレイ上で見ている間に、深度情報を有するユーザの画像が、任意選択的に、テレビ会議のために取得されるように、及び、深度マップデータを有する自撮り画像をキャプチャするように、デバイス100の前面に深度カメラセンサが配置されている。一部の実施形態では、深度カメラセンサ175は、デバイスの背面に、あるいはデバイス100の背面及び前面に配置されている。いくつかの実施形態では、深度カメラセンサ175の位置は、ユーザによって(例えば、デバイスハウジング内でレンズ及びセンサを回転させることによって)変更することができ、したがって深度カメラセンサ175が、タッチスクリーンディスプレイとともに、テレビ会議にも静止画像及び/又はビデオ画像の取得にも使用される。 The device 100 also optionally includes one or more depth camera sensors 175. FIG. 1A shows a depth camera sensor coupled to a depth camera controller 169 in the I / O subsystem 106. The depth camera sensor 175 receives data from the environment and creates a three-dimensional model of an object (eg, face) in the scene from a viewpoint (eg, depth camera sensor). In some embodiments, in cooperation with the imaging module 143 (also referred to as the camera module), the depth camera sensor 175 optionally determines depth maps of various parts of the image captured by the imaging module 143. Used to do. In some embodiments, an image of the user with depth information is optionally acquired for the video conference while the user is viewing other video conference participants on the touch screen display. And, a depth camera sensor is arranged in front of the device 100 so as to capture a self-portrait image having depth map data. In some embodiments, the depth camera sensor 175 is located on the back of the device, or on the back and front of the device 100. In some embodiments, the position of the depth camera sensor 175 can be changed by the user (eg, by rotating the lens and sensor within the device housing), thus the depth camera sensor 175, along with the touch screen display. , Used for video conferencing and acquisition of still and / or video images.

一部の実施形態では、深度マップ(例えば、深度マップ画像)は、視点(例えば、カメラ、光センサ、深度カメラセンサ)からのシーン内の対象物の距離に関する情報(例えば、値)を含む。深度マップの一実施形態では、各深度ピクセルは、その対応する2次元ピクセルが位置している、その視点のZ軸における位置を定義するものである。一部の実施形態では、深度マップはピクセルで構成されており、各ピクセルは、値(例えば、0〜255)によって定義される。例えば、値「0」は、「3次元」シーン内で最も遠い場所に位置しているピクセルを表し、値「255」は、その「3次元」シーン内で視点(例えば、カメラ、光センサ、深度カメラセンサ)の最も近くに位置しているピクセルを表す。他の実施形態では、深度マップは、シーン内の対象物と視点の平面との間の距離を表す。一部の実施形態では、深度マップは、深度カメラから見た、関心対象物の様々な特徴部の相対深度(例えば、ユーザの顔面の目、鼻、口、耳の相対深度)に関する情報を含む。一部の実施形態では、深度マップは、z方向での関心対象物の輪郭をデバイスが決定することを可能にする、情報を含む。 In some embodiments, the depth map (eg, depth map image) includes information (eg, values) about the distance of an object in the scene from a viewpoint (eg, camera, light sensor, depth camera sensor). In one embodiment of the depth map, each depth pixel defines the position of its viewpoint on the Z axis where its corresponding 2D pixel is located. In some embodiments, the depth map consists of pixels, each pixel being defined by a value (eg 0-255). For example, the value "0" represents the farthest pixel in the "three-dimensional" scene, and the value "255" represents the viewpoint (eg, camera, optical sensor, etc.) in the "three-dimensional" scene. Represents the pixel closest to the depth camera sensor). In other embodiments, the depth map represents the distance between an object in the scene and the plane of the viewpoint. In some embodiments, the depth map contains information about the relative depth of various features of the object of interest as seen by the depth camera (eg, the relative depth of the user's facial eyes, nose, mouth, ears). .. In some embodiments, the depth map contains information that allows the device to determine the contour of the object of interest in the z direction.

また、デバイス100は、任意選択的に、1つ以上の接触強度センサ165を含む。図1Aは、I/Oサブシステム106内の強度センサコントローラ159に結合された接触強度センサを示す。接触強度センサ165は、任意選択的に、1つ以上のピエゾ抵抗歪みゲージ、容量性力センサ、電気力センサ、圧電力センサ、光学力センサ、容量性タッチ感知面、又は他の強度センサ(例えば、タッチ感知面上の接触の力(若しくは圧力)を測定するために使用されるセンサ)を含む。接触強度センサ165は、接触強度情報(例えば、圧力情報又は圧力情報に対するプロキシ)を環境から受信する。いくつかの実施形態では、少なくとも1つの接触強度センサは、タッチ感知面(例えばタッチ感知ディスプレイシステム112)と並置される、又はそれに近接している。いくつかの実施形態では、少なくとも1つの接触強度センサは、デバイス100の前面に位置するタッチスクリーンディスプレイ112とは反対に、デバイス100の裏面に位置する。 The device 100 also optionally includes one or more contact strength sensors 165. FIG. 1A shows a contact strength sensor coupled to a strength sensor controller 159 in the I / O subsystem 106. The contact strength sensor 165 is optionally one or more piezo resistance strain gauges, capacitive force sensors, electrical force sensors, pressure power sensors, optical force sensors, capacitive touch sensing surfaces, or other strength sensors (eg,). , A sensor used to measure the force (or pressure) of contact on the touch sensing surface). The contact strength sensor 165 receives contact strength information (eg, pressure information or a proxy for pressure information) from the environment. In some embodiments, the at least one contact strength sensor is juxtaposed with or close to a touch sensing surface (eg, touch sensing display system 112). In some embodiments, the at least one contact strength sensor is located on the back surface of the device 100, as opposed to the touch screen display 112, which is located on the front surface of the device 100.

また、デバイス100は、任意選択的に、1つ以上の近接センサ166を含む。図1Aは、周辺機器インタフェース118に結合された近接センサ166を示す。代わりに、近接センサ166は、任意選択的に、I/Oサブシステム106内の入力コントローラ160に結合される。近接センサ166は、任意選択的に、全体として参照により本明細書に組み込まれている、米国特許出願第11/241,839号、「Proximity Detector In Handheld Device」、第11/240,788号、「Proximity Detector In Handheld Device」第11/620,702号、「Using Ambient Light Sensor To Augment Proximity Sensor Output」、第11/586,862号、「Automated Response To And Sensing Of User Activity In Portable Devices」、及び同第11/638,251号、「Methods And Systems For Automatic Configuration Of Peripherals」で説明されるように機能するものであり、これらの出願は、全体が参照により本明細書に組み込まれる。いくつかの実施形態では、近接センサは、多機能デバイスがユーザの耳付近に配置されたとき(例えば、ユーザが電話をかけているとき)、タッチスクリーン112をオフにして無効化する。 The device 100 also optionally includes one or more proximity sensors 166. FIG. 1A shows a proximity sensor 166 coupled to the peripheral interface 118. Instead, the proximity sensor 166 is optionally coupled to the input controller 160 in the I / O subsystem 106. Proximity sensor 166 is optionally incorporated herein by reference in its entirety, US Patent Application No. 11 / 241,839, "Proximity Detector In Handheld Device", No. 11 / 240,788, "Proximity Detector In Handheld Device" No. 11 / 620,702, "Using Ambient Light Sensor To Augment Proximity Sensor Output" No. 11 / 586,862, "Automated Response To and Sensing Of User Activity In Portable Devices", and It functions as described in 11 / 638,251, "Methods And Systems For Automotive Configuration Of Peripherals", and these applications are incorporated herein by reference in their entirety. In some embodiments, the proximity sensor turns off and disables the touch screen 112 when the multifunction device is placed near the user's ear (eg, when the user is making a call).

また、デバイス100は、任意選択的に、1つ以上の触知出力生成器167を含む。図1Aは、I/Oサブシステム106内の触覚フィードバックコントローラ161に結合された触知出力生成器を示す。触知出力生成器167は、任意選択的に、スピーカ若しくは他のオーディオ構成要素などの1つ以上の電気音響デバイス、及び/又はモータ、ソレノイド、電気活性ポリマー、圧電アクチュエータ、静電アクチュエータ、若しくは他の触知出力生成構成要素(例えば、デバイス上で電気信号を触知出力に変換する構成要素)などのエネルギを直線の動きに変換する電気機械デバイスを含む。接触強度センサ165は、触覚フィードバックモジュール133から触知フィードバック生成命令を受信し、デバイス100のユーザが感知することが可能な触知出力をデバイス100上に生成する。いくつかの実施形態では、少なくとも1つの触知出力生成器は、タッチ感知面(例えば、タッチ感知ディスプレイシステム112)に配置されているか、又はそれに近接しており、任意選択的に、タッチ感知面を垂直方向(例えば、デバイス100の表面の内/外)に、又は水平方向(例えば、デバイス100の表面と同じ平面内の前後)に動かすことによって、触知出力を生成する。いくつかの実施形態では、少なくとも1つの触知出力生成器センサは、デバイス100の前面に位置するタッチスクリーンディスプレイ112とは反対に、デバイス100の裏面に位置する。 The device 100 also optionally includes one or more tactile output generators 167. FIG. 1A shows a tactile output generator coupled to a tactile feedback controller 161 in the I / O subsystem 106. The tactile output generator 167 optionally comprises one or more electroacoustic devices such as speakers or other audio components and / or motors, solenoids, electroactive polymers, piezoelectric actuators, electrostatic actuators, or the like. Includes electromechanical devices that convert energy into linear motion, such as tactile output generation components (eg, components that convert electrical signals to tactile output on the device). The contact strength sensor 165 receives a tactile feedback generation command from the tactile feedback module 133 and generates a tactile output on the device 100 that can be perceived by the user of the device 100. In some embodiments, at least one tactile output generator is located on or in close proximity to a touch-sensitive surface (eg, touch-sensitive display system 112) and optionally the touch-sensitive surface. To generate a tactile output by moving the device vertically (eg, inside / outside the surface of the device 100) or horizontally (eg, back and forth in the same plane as the surface of the device 100). In some embodiments, the at least one tactile output generator sensor is located on the back surface of the device 100, as opposed to the touch screen display 112, which is located on the front surface of the device 100.

また、デバイス100は、任意選択的に、1つ以上の加速度計168を含む。図1Aは、周辺機器インタフェース118に結合された加速度計168を示す。代わりに、加速度計168は、任意選択的に、I/Oサブシステム106内の入力コントローラ160に結合される。加速度計168は、任意選択的に、どちらも全体として参照により本明細書に組み込まれている、米国特許公開第20050190059号、「Acceleration−based Theft Detection System for Portable Electronic Devices」、及び米国特許公開第20060017692号、「Methods And Apparatuses For Operating A Portable Device Based On An Accelerometer」に記載されているように機能する。いくつかの実施形態では、情報は、1つ以上の加速度計から受信したデータの分析に基づいて、ポートレートビュー又はランドスケープビューでタッチスクリーンディスプレイ上に表示される。デバイス100は、加速度計(単数又は複数)168に加えて、磁気計並びにデバイス100の場所及び向き(例えば、縦方向又は横方向)に関する情報を取得するためのGPS(又はGLONASS又は他のグローバルナビゲーションシステム)受信機を任意選択的に含む。 The device 100 also optionally includes one or more accelerometers 168. FIG. 1A shows an accelerometer 168 coupled to the peripheral interface 118. Instead, the accelerometer 168 is optionally coupled to the input controller 160 in the I / O subsystem 106. The accelerometer 168 is optionally incorporated herein by reference, both of which are incorporated herein by reference, U.S. Patent Publication No. 20050190059, "Acceleration-based Theft Detection System for Portable Devices," and U.S. Patent Publication No. It functions as described in 20060017692, "Methods And Apps For Operating A Patent Based On Accelerometer". In some embodiments, the information is displayed on a touch screen display in portrait or landscape view based on the analysis of data received from one or more accelerometers. The device 100, in addition to the accelerometer (s) 168, is a GPS (or GLONASS or other global navigation) for acquiring information about the location and orientation (eg, vertical or horizontal) of the accelerometer and device 100. System) Including receivers arbitrarily.

いくつかの実施形態では、メモリ102内に記憶されているソフトウェア構成要素は、オペレーティングシステム126、通信モジュール(又は命令セット)128、接触/動きモジュール(又は命令セット)130、グラフィックモジュール(又は命令セット)132、テキスト入力モジュール(又は命令セット)134、全地球測位システム(Global Positioning System、GPS)モジュール(又は命令セット)135、及びアプリケーション(又は命令セット)136を含む。更に、いくつかの実施形態では、メモリ102(図1A)又は370(図3)は、図1A及び図3に示すように、デバイス/グローバル内部状態157を記憶する。デバイス/グローバル内部状態157は、現在アクティブ状態のアプリケーションがある場合に、どのアプリケーションがアクティブであるかを示す、アクティブアプリケーション状態、どのアプリケーション、ビュー、又は他の情報がタッチスクリーンディスプレイ112の様々な領域を占有しているかを示すディスプレイ状態、デバイスの様々なセンサ及び入力コントロールデバイス116から入手した情報を含むセンサ状態、並びにデバイスの場所及び/又は姿勢に関する場所情報のうちの1つ以上を含む。 In some embodiments, the software components stored in the memory 102 are the operating system 126, the communication module (or instruction set) 128, the contact / motion module (or instruction set) 130, the graphic module (or instruction set). ) 132, a text input module (or instruction set) 134, a Global Positioning System (GPS) module (or instruction set) 135, and an application (or instruction set) 136. Further, in some embodiments, memory 102 (FIG. 1A) or 370 (FIG. 3) stores device / global internal state 157, as shown in FIGS. 1A and 3. The device / global internal state 157 indicates which application is active, if any, is currently active, with various areas of the touchscreen display 112 showing the active application state, which application, view, or other information. Includes one or more of display states indicating whether the device is occupied, sensor states including information obtained from various sensors and input control devices 116 of the device, and location information regarding the location and / or orientation of the device.

オペレーティングシステム126(例えば、Darwin(登録商標)、RTXC(登録商標)、LINUX(登録商標)、UNIX(登録商標)、OS X(登録商標)、iOS(登録商標)、WINDOWS(登録商標)、又はVxWorks(登録商標)などの組み込み型オペレーティングシステム)は、通常のシステムタスク(例えば、メモリ管理、記憶デバイスの制御、電力管理など)を制御及び管理する様々なソフトウェア構成要素及び/又はドライバを含み、様々なハードウェアとソフトウェア構成要素との間の通信を容易にする。 Operating system 126 (eg, Darwin®, RTXC®, LINUX®, UNIX®, OS X®, iOS®, WINDOWS®, or Embedded operating systems such as VxWorks® include various software components and / or drivers that control and manage normal system tasks (eg, memory management, storage device control, power management, etc.). Facilitates communication between various hardware and software components.

通信モジュール128は、1つ以上の外部ポート124を介して他のデバイスとの通信を容易にし、RF回路108及び/又は外部ポート124が受信したデータを処理するための様々なソフトウェア構成要素をも含む。外部ポート124(例えばユニバーサルシリアルバス(Universal Serial Bus、USB)、FIREWIRE(登録商標)など)は、直接的に、又はネットワーク(例えばインターネット、無線LANなど)を介して間接的に、他のデバイスに連結するように適合されている。いくつかの実施形態では、外部ポートは、iPod(登録商標)(Apple Inc.の商標)デバイス上で使用される30ピンコネクタと同じ若しくは類似であり、かつ/又はそれに適合しているマルチピン(例えば、30ピン)コネクタである。 The communication module 128 also facilitates communication with other devices via one or more external ports 124 and also includes various software components for processing the data received by the RF circuit 108 and / or the external port 124. include. External ports 124 (eg, Universal Serial Bus, USB, FIREWIRE®, etc.) can be connected to other devices, either directly or indirectly via a network (eg, Internet, WiFi, etc.). Adapted to connect. In some embodiments, the external port is the same or similar to and / or compatible with a multi-pin connector used on an iPod® (Apple Inc. trademark) device (eg, a multi-pin connector (eg, Apple Inc.)). , 30 pin) connector.

接触/動きモジュール130は、任意選択的に、タッチスクリーン112(ディスプレイコントローラ156と連動して)及び他のタッチ感知デバイス(例えば、タッチパッド又は物理クリックホイール)との接触を検出する。接触/動きモジュール130は、接触が生じたかを判定すること(例えば、指を下ろすイベントを検出すること)、接触の強度(例えば、接触の力若しくは圧力、又は接触の力若しくは圧力の代替物)を判定すること、接触の移動が存在するかを判定し、タッチ感知面を横断する移動を追跡すること(例えば、指をドラッグする1つ以上のイベントを検出すること)、及び接触が停止したかを判定すること(例えば、指を上げるイベント又は接触の中断を検出すること)などの、接触の検出に関する様々な動作を実行する、様々なソフトウェア構成要素を含む。接触/動きモジュール130は、タッチ感知面から接触データを受信する。一連の接触データによって表される、接触点の移動を判定することは、任意選択的に、接触点の速さ(大きさ)、速度(大きさ及び方向)、及び/又は加速度(大きさ及び/又は方向の変化)を判定することを含む。これらの動作は、任意選択的に、単一の接触(例えば、1本の指の接触)又は複数の同時接触(例えば、「マルチタッチ」/複数の指の接触)に適用される。いくつかの実施形態では、接触/動きモジュール130及びディスプレイコントローラ156は、タッチパッド上の接触を検出する。 The contact / motion module 130 optionally detects contact with the touch screen 112 (in conjunction with the display controller 156) and other touch sensing devices (eg, touchpad or physical click wheel). The contact / movement module 130 determines if a contact has occurred (eg, detecting a finger-lowering event), the strength of the contact (eg, a force or pressure of contact, or an alternative to force or pressure of contact). To determine if a contact movement is present, to track the movement across the touch-sensitive surface (eg, to detect one or more finger dragging events), and to stop the contact. Includes various software components that perform various actions related to contact detection, such as determining whether or not (eg, detecting a finger raising event or contact interruption). The contact / motion module 130 receives contact data from the touch sensing surface. Determining the movement of a contact point, represented by a series of contact data, is optionally the speed (magnitude), velocity (magnitude and direction), and / or acceleration (magnitude and direction) of the contact point. / Or change of direction) includes determining. These actions are optionally applied to a single contact (eg, one finger contact) or multiple simultaneous contacts (eg, "multi-touch" / multiple finger contacts). In some embodiments, the contact / motion module 130 and the display controller 156 detect contact on the touchpad.

いくつかの実施形態では、接触/動きモジュール130は、1つ以上の強度閾値のセットを使用して、ユーザによって操作が実行されたかどうかを判定する(例えば、ユーザがアイコン上で「クリック」したかどうかを判定する)。いくつかの実施形態では、強度閾値の少なくとも1つのサブセットが、ソフトウェアパラメータに従って判定される(例えば、強度閾値は、特定の物理アクチュエータのアクティブ化閾値によって判定されるのではなく、デバイス100の物理ハードウェアを変化させることなく調整することができる)。例えば、トラックパッド又はタッチスクリーンディスプレイのマウス「クリック」閾値は、トラックパッド又はタッチスクリーンディスプレイハードウェアを変化させることなく、広範囲の所定の閾値のうちのいずれかに設定することができる。加えて、いくつかの実装形態では、デバイスのユーザは、1組の強度閾値の1つ以上を調整するソフトウェア設定が提供される(例えば、システムレベルのクリック「強度」パラメータによって、個々の強度閾値を調整すること、及び/又は複数の強度閾値を一度に調整することによる)。 In some embodiments, the contact / motion module 130 uses a set of one or more intensity thresholds to determine if an operation has been performed by the user (eg, the user "clicks" on the icon. Determine if). In some embodiments, at least one subset of the intensity threshold is determined according to software parameters (eg, the intensity threshold is not determined by the activation threshold of a particular physical actuator, but rather the physical hardware of device 100. It can be adjusted without changing the wear). For example, the mouse "click" threshold of a trackpad or touchscreen display can be set to any of a wide range of predetermined thresholds without changing the trackpad or touchscreen display hardware. In addition, in some embodiments, the user of the device is provided with software settings that adjust one or more of a set of intensity thresholds (eg, by a system-level click "intensity" parameter, the individual intensity thresholds. And / or by adjusting multiple intensity thresholds at once).

接触/動きモジュール130は、任意選択的に、ユーザによるジェスチャ入力を検出する。タッチ感知面上の異なるジェスチャは、異なる接触パターンを有する(例えば検出される接触の動き、タイミング、及び/又は強度が異なる)。したがって、ジェスチャは、任意選択的に、特定の接触パターンを検出することによって検出される。例えば、指タップジェスチャを検出することは、指ダウンイベントを検出し、それに続いて指ダウンイベントと同じ位置(又は実質上同じ位置)(例えば、アイコンの位置)で指アップ(リフトオフ)イベントを検出することを含む。別の例として、タッチ感知面上で指スワイプジェスチャを検出することは、指ダウンイベントを検出し、それに続いて1つ以上の指ドラッグイベントを検出し、その後それに続いて指アップ(リフトオフ)イベントを検出することを含む。 The contact / motion module 130 optionally detects a gesture input by the user. Different gestures on the touch-sensitive surface have different contact patterns (eg, different detected contact movements, timings, and / or intensities). Therefore, gestures are detected by optionally detecting a particular contact pattern. For example, detecting a finger tap gesture detects a finger down event, followed by a finger up (lift off) event at the same position (or substantially the same position) as the finger down event (for example, the position of the icon). Including doing. As another example, detecting a finger swipe gesture on a touch-sensitive surface detects a finger down event, followed by one or more finger drag events, followed by a finger up (lift off) event. Includes detecting.

グラフィックモジュール132は、表示されるグラフィックの視覚的な影響(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚的特性)を変化させる構成要素を含めて、タッチスクリーン112又は他のディスプレイ上にグラフィックをレンダリング及び表示する様々な知られているソフトウェア構成要素を含む。本明細書では、「グラフィック」という用語は、それだけに限定されるものではないが、文字、ウェブページ、アイコン(ソフトキーを含むユーザインタフェースオブジェクトなど)、デジタル画像、ビデオ、アニメーションなどを含む、ユーザに表示することができる任意のオブジェクトを含む。 The graphic module 132 includes components that change the visual effect of the displayed graphic (eg, brightness, transparency, saturation, contrast, or other visual characteristics) on the touch screen 112 or other display. Includes various known software components that render and display graphics in. As used herein, the term "graphic" is not limited to that, but includes, but is not limited to, characters, web pages, icons (such as user interface objects including softkeys), digital images, videos, animations, etc. Includes any object that can be displayed.

いくつかの実施形態では、グラフィックモジュール132は、使用されることになるグラフィックを表すデータを記憶する。各グラフィックには、任意選択的に、対応するコードが割り当てられる。グラフィックモジュール132は、アプリケーションなどから、必要に応じて、座標データ及び他のグラフィック特性データとともに、表示されることとなるグラフィックを指定する1つ以上のコードを受信し、次にディスプレイコントローラ156に出力するスクリーンの画像データを生成する。 In some embodiments, the graphics module 132 stores data representing the graphics that will be used. Each graphic is optionally assigned a corresponding code. The graphic module 132 receives, if necessary, one or more codes that specify the graphic to be displayed, together with coordinate data and other graphic characteristic data, from an application or the like, and then outputs it to the display controller 156. Generate screen image data.

触覚フィードバックモジュール133は、デバイス100とのユーザ対話に応じて、デバイス100上の1つ以上の場所で触知出力を生成するために、触知出力生成器(単数又は複数)167によって使用される命令を生成するための、様々なソフトウェア構成要素を含む。 The tactile feedback module 133 is used by the tactile output generator (s) 167 to generate tactile outputs at one or more locations on the device 100 in response to user interaction with the device 100. Includes various software components for generating instructions.

テキスト入力モジュール134は、任意選択で、グラフィックモジュール132の構成要素であり、様々なアプリケーション(例えば、連絡先137、電子メール140、IM141、ブラウザ147、及びテキスト入力を必要とする任意の他のアプリケーション)でテキストを入力するためのソフトキーボードを提供する。 The text input module 134 is optionally a component of the graphic module 132 and is a variety of applications (eg, contacts 137, email 140, IM 141, browser 147, and any other application that requires text input. ) Provides a soft keyboard for entering text.

GPSモジュール135は、デバイスの位置を判定し、この情報を様々なアプリケーションで使用するために(例えば、位置に基づくダイヤル発呼で使用するために電話138へ、画像/ビデオのメタデータとしてカメラ143へ、並びに、天気ウィジェット、地域のイエローページウィジェット、及び地図/ナビゲーションウィジェットなどの、位置に基づくサービスを提供するアプリケーションへ)提供する。 GPS module 135 determines the position of the device and uses this information in various applications (eg, to phone 138 for use in position-based dialing, camera 143 as image / video metadata. To applications that provide location-based services, such as weather widgets, regional yellow page widgets, and map / navigation widgets.

アプリケーション136は、任意選択的に、以下のモジュール(又は命令セット)又はそれらのサブセット若しくはスーパーセットを含む。
●連絡先モジュール137(アドレス帳又は連絡先リストと呼ばれることもある)、
●電話モジュール138、
●テレビ会議モジュール139、
●電子メールクライアントモジュール140、
●インスタントメッセージング(Instant messaging、IM)モジュール141、
●トレーニングサポートモジュール142、
●静止画像及び/又はビデオ画像用のカメラモジュール143、
●画像管理モジュール144、
●ビデオプレーヤモジュール、
●音楽プレーヤモジュール、
●ブラウザモジュール147、
●カレンダモジュール148、
●任意選択的に気象ウィジェット149−1、株価ウィジェット149−2、計算機ウィジェット149−3、アラーム時計ウィジェット149−4、辞書ウィジェット149−5、及びユーザによって入手された他のウィジェット、並びにユーザ作成ウィジェット149−6のうちの1つ以上を含むウィジェットモジュール149、
●ユーザ作成ウィジェット149−6を作るウィジェットクリエータモジュール150、
●検索モジュール151、
●ビデオプレーヤモジュール及び音楽プレーヤモジュールを一体化したビデオ及び音楽プレーヤモジュール152、
●メモモジュール153、
●地図モジュール154、並びに/又は、
●オンラインビデオモジュール155。
Application 136 optionally includes the following modules (or instruction sets) or subsets or supersets thereof.
● Contact Module 137 (sometimes called address book or contact list),
Telephone module 138,
Video conferencing module 139,
Email client module 140,
● Instant messaging (IM) module 141,
Training support module 142,
Camera module 143 for still and / or video images,
Image management module 144,
● Video player module,
● Music player module,
Browser module 147,
Calendar module 148,
● Arbitrarily meteorological widget 149-1, stock price widget 149-2, calculator widget 149-3, alarm clock widget 149-4, dictionary widget 149-5, and other widgets obtained by the user, as well as user-created widgets. Widget module 149, which contains one or more of 149-6,
Widget creator module 150 to create user-created widget 149-6,
Search module 151,
● Video and music player module 152, which integrates the video player module and music player module,
Memo module 153,
Map module 154 and / or
Online video module 155.

任意選択的にメモリ102に記憶される他のアプリケーション136の例としては、他のワードプロセッシングアプリケーション、他の画像編集アプリケーション、描画アプリケーション、プレゼンテーションアプリケーション、JAVA(登録商標)対応アプリケーション、暗号化、デジタル著作権管理、音声認識、及び音声複製が挙げられる。 Examples of other applications 136 that are optionally stored in memory 102 include other word processing applications, other image editing applications, drawing applications, presentation applications, JAVA® compatible applications, encryption, digital writing. Rights management, voice recognition, and voice duplication.

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、連絡先モジュール137は、任意選択的に、アドレス帳に名前(単数又は複数)を追加すること、アドレス帳から名前(単数又は複数)を削除すること、電話番号(単数又は複数)、電子メールアドレス(単数又は複数)、住所(単数又は複数)、又は他の情報を名前に関連付けること、画像を名前に関連付けること、名前を分類して並べ替えること、電話番号又は電子メールアドレスを提供して、電話138、テレビ会議モジュール139、電子メール140、又はIM141による通信を開始及び/又は促進することなどを含めて、アドレス帳又は連絡先リスト(例えば、メモリ102又はメモリ370内の連絡先モジュール137のアプリケーション内部状態192内に記憶される)を管理するために使用される。 In conjunction with the touch screen 112, display controller 156, contact / movement module 130, graphic module 132, and text input module 134, the contact module 137 optionally adds a name (s) to the address book. To do, remove the name (s) from the address book, associate a phone number (s), email address (s), address (s), or other information with the name. , Associating images with names, classifying and sorting names, providing telephone numbers or email addresses to initiate and / or facilitate communications via telephone 138, video conferencing module 139, email 140, or IM141. It is used to manage an address book or contact list (eg, stored in application internal state 192 of contact module 137 in memory 102 or memory 370), including doing so.

RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、電話モジュール138は、任意選択的に、電話番号に対応する文字シーケンスの入力、連絡先モジュール137内の1つ以上の電話番号へのアクセス、入力された電話番号の修正、それぞれの電話番号のダイヤル、会話の実施、会話が終了したときの通話停止又はハングアップのために使用される。前述したように、無線通信は、任意選択的に、複数の通信規格、プロトコル、及び技術のうちのいずれかを使用する。 In conjunction with the RF circuit 108, audio circuit 110, speaker 111, microphone 113, touch screen 112, display controller 156, contact / motion module 130, graphic module 132, and text input module 134, the telephone module 138 is optional. Enter a character sequence corresponding to a phone number, access one or more phone numbers in the contact module 137, modify the phone number entered, dial each phone number, conduct a conversation, end the conversation It is used to stop the call or hang up when the call is stopped. As mentioned above, wireless communication optionally uses any of a plurality of communication standards, protocols, and technologies.

RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、光センサ164、光センサコントローラ158、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、連絡先モジュール137、及び電話モジュール138と連動して、テレビ会議モジュール139は、ユーザ命令に従ってユーザと1人以上の他の参加者との間のテレビ会議を開始、実行、及び終了するための実行可能な命令を含む。 RF circuit 108, audio circuit 110, speaker 111, microphone 113, touch screen 112, display controller 156, optical sensor 164, optical sensor controller 158, contact / motion module 130, graphic module 132, text input module 134, contact module 137. , And in conjunction with the telephone module 138, the video conferencing module 139 issues executable instructions to start, execute, and end a video conference between the user and one or more other participants in accordance with user instructions. include.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、電子メールクライアントモジュール140は、ユーザ命令に応じて電子メールを作成、送信、受信、及び管理するための実行可能な命令を含む。画像管理モジュール144と連動して、電子メールクライアントモジュール140は、カメラモジュール143で撮影された静止画像又はビデオ画像を有する電子メールの作成及び送信を非常に容易にする。 In conjunction with the RF circuit 108, touch screen 112, display controller 156, contact / motion module 130, graphic module 132, and text input module 134, the email client module 140 creates and sends emails in response to user commands. Includes executable instructions for receiving, receiving, and managing. In conjunction with the image management module 144, the email client module 140 greatly facilitates the creation and transmission of emails with still or video images taken by the camera module 143.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、インスタントメッセージングモジュール141は、インスタントメッセージに対応する文字シーケンスの入力、以前に入力された文字の修正、それぞれのインスタントメッセージの送信(例えば、電話通信ベースのインスタントメッセージ向けのショートメッセージサービス(Short Message Service、SMS)若しくはマルチメディアメッセージサービス(Multimedia Message Service、MMS)プロトコル、又はインターネットベースのインスタントメッセージ向けのXMPP、SIMPLE、若しくはIMPSを使用する)、インスタントメッセージの受信、及び受信したインスタントメッセージの閲覧のための実行可能な命令を含む。いくつかの実施形態では、送信及び/又は受信されるインスタントメッセージは、任意選択的に、MMS及び/又は拡張メッセージングサービス(Enhanced Messaging Service、EMS)でサポートされるグラフィック、写真、オーディオファイル、ビデオファイル、及び/又は他の添付ファイルを含む。本明細書では、「インスタントメッセージング」とは、電話通信ベースのメッセージ(例えば、SMS又はMMSを使用して送信されるメッセージ)と、インターネットベースのメッセージ(例えば、XMPP、SIMPLE、又はIMPSを使用して送信されるメッセージ)との両方を指す。 In conjunction with the RF circuit 108, touch screen 112, display controller 156, contact / motion module 130, graphic module 132, and text input module 134, the instant messaging module 141 inputs a character sequence corresponding to an instant message, previously. Correcting entered characters, sending each instant message (for example, Short Message Service (SMS) or Multimedia Message Service (MMS) protocol for telephone communication-based instant messages, or the Internet. Includes executable instructions for receiving instant messages (using XMPP, SIMPLE, or IMPS) for based instant messages, and viewing received instant messages. In some embodiments, the transmitted and / or received instant message is optionally a graphic, photo, audio file, video file supported by MMS and / or Enhanced Messaging Service (EMS). , And / or other attachments. As used herein, "instant messaging" refers to telephony-based messages (eg, messages sent using SMS or MMS) and Internet-based messages (eg, XMPP, SIMPLE, or IMPS). (Messages sent by) and both.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、地図モジュール154、及び音楽プレーヤモジュールと連動して、トレーニングサポートモジュール142は、トレーニング(例えば、時間、距離、及び/又はカロリー燃焼目標を有する)の作成、トレーニングセンサ(スポーツデバイス)との通信、トレーニングセンサデータの受信、トレーニングをモニタするために使用されるセンサの較正、トレーニングのための音楽の選択及び再生、並びに、トレーニングデータの表示、記憶、及び送信のための実行可能な命令を含む。 In conjunction with the RF circuit 108, touch screen 112, display controller 156, contact / movement module 130, graphic module 132, text input module 134, GPS module 135, map module 154, and music player module, the training support module 142 Creating training (eg, having time, distance, and / or calorie burning targets), communicating with training sensors (sports devices), receiving training sensor data, calibrating sensors used to monitor training, training Includes actionable instructions for selecting and playing music for, as well as displaying, storing, and transmitting training data.

タッチスクリーン112、ディスプレイコントローラ156、光センサ164、光センサコントローラ158、接触/動きモジュール130、グラフィックモジュール132、及び画像管理モジュール144と連動して、カメラモジュール143は、静止画像若しくはビデオ(ビデオストリームを含む)のキャプチャ及びメモリ102内への記憶、静止画像若しくはビデオの特性の修正、又はメモリ102からの静止画像若しくはビデオの削除のための実行可能な命令を含む。 In conjunction with the touch screen 112, display controller 156, optical sensor 164, optical sensor controller 158, contact / motion module 130, graphic module 132, and image management module 144, the camera module 143 provides a still image or video (video stream). Includes actionable instructions for capturing (including) and storing in memory 102, modifying the characteristics of a still image or video, or deleting a still image or video from memory 102.

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びカメラモジュール143と連動して、画像管理モジュール144は、静止画像及び/又はビデオ画像の配置、修正(例えば、編集)、あるいはその他の操作、ラベル付け、削除、提示(例えば、デジタルスライドショー又はアルバムにおける)、及び記憶のための実行可能な命令を含む。 In conjunction with the touch screen 112, display controller 156, contact / motion module 130, graphic module 132, text input module 134, and camera module 143, the image management module 144 arranges and modifies still and / or video images ( Includes executable instructions for, for example, editing) or other operations, labeling, deleting, presenting (eg, in a digital slideshow or album), and memory.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、ブラウザモジュール147は、ウェブページ又はその一部分、並びにウェブページにリンクされた添付ファイル及び他のファイルの検索、リンク、受信、及び表示を含めて、ユーザ命令に従ってインターネットをブラウジングするための実行可能な命令を含む。 In conjunction with the RF circuit 108, touch screen 112, display controller 156, contact / motion module 130, graphic module 132, and text input module 134, the browser module 147 is linked to a web page or part thereof, as well as a web page. Includes actionable instructions for browsing the Internet according to user instructions, including finding, linking, receiving, and displaying attachments and other files.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と連動して、カレンダモジュール148は、ユーザ命令に従ってカレンダ及びカレンダに関連付けられたデータ(例えば、カレンダ入力、やることリストなど)を作成、表示、修正、及び記憶するための実行可能な命令を含む。 In conjunction with the RF circuit 108, touch screen 112, display controller 156, contact / motion module 130, graphic module 132, text input module 134, email client module 140, and browser module 147, the calendar module 148 follows user instructions. Includes executable instructions for creating, displaying, modifying, and storing the module and the data associated with the module (eg, calendar input, to-do list, etc.).

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と連動して、ウィジェットモジュール149は、任意選択的にユーザによってダウンロード及び使用されるミニアプリケーション(例えば、気象ウィジェット149−1、株価ウィジェット149−2、計算機ウィジェット149−3、アラーム時計ウィジェット149−4、及び辞書ウィジェット149−5)、又はユーザによって作成されるミニアプリケーション(例えば、ユーザ作成ウィジェット149−6)である。いくつかの実施形態では、ウィジェットは、HTML(Hypertext Markup Language;ハイパーテキストマークアップ言語)ファイル、CSS(Cascading Style Sheets;カスケーディングスタイルシート)ファイル、及びJavaScript(登録商標)ファイルを含む。いくつかの実施形態では、ウィジェットは、XML(Extensible Markup Language:拡張可能マークアップ言語)ファイル及びJavaScriptファイル(例えば、Yahoo!ウィジェット)を含む。 In conjunction with the RF circuit 108, touch screen 112, display controller 156, contact / motion module 130, graphic module 132, text input module 134, and browser module 147, the widget module 149 is optionally downloaded and used by the user. Mini-applications (eg, weather widget 149-1, stock price widget 149-2, computer widget 149-3, alarm clock widget 149-4, and dictionary widget 149-5), or mini-applications created by the user (eg, , User-created widget 149-6). In some embodiments, the widget includes an HTML (Hypertext Markup Language) file, a CSS (Cascading Style Sheets) file, and a Javascript® file. In some embodiments, the widget includes an XML (Extensible Markup Language) file and a Javascript file (eg, a Yahoo! widget).

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と連動して、ウィジェットクリエータモジュール150は、任意選択的に、ウィジェットを作成する(例えば、ウェブページのユーザ指定部分をウィジェットにする)ために、ユーザによって使用される。 In conjunction with the RF circuit 108, touch screen 112, display controller 156, contact / movement module 130, graphic module 132, text input module 134, and browser module 147, the widget creator module 150 optionally creates widgets. Used by users to do (eg, make a user-specified part of a web page a widget).

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、検索モジュール151は、ユーザ命令に従って1つ以上の検索基準(例えば、1つ以上のユーザ指定検索語)に一致するメモリ102内の文字、音楽、サウンド、画像、ビデオ、及び/又は他のファイルを検索するための実行可能な命令を含む。 In conjunction with the touch screen 112, display controller 156, contact / motion module 130, graphic module 132, and text input module 134, the search module 151 follows one or more search criteria (eg, one or more users) according to user instructions. Includes executable instructions for searching for characters, music, sounds, images, videos, and / or other files in memory 102 that match (designated search term).

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、及びブラウザモジュール147と連動して、ビデオ及び音楽プレーヤモジュール152は、ユーザがMP3若しくはAACファイルなどの1つ以上のファイル形式で記憶されている記録された音楽及び他のサウンドファイルをダウンロード及び再生することを可能にする実行可能な命令、並びにビデオを表示、提示、又は他の方法で(例えば、タッチスクリーン112上又は外部ポート124を介して接続された外部ディスプレイ上に)再生するための実行可能な命令を含む。いくつかの実施形態では、デバイス100は、任意選択的に、iPod(Apple社の商標)などのMP3プレーヤの機能を含む。 In conjunction with the touch screen 112, display controller 156, contact / motion module 130, graphic module 132, audio circuit 110, speaker 111, RF circuit 108, and browser module 147, the video and music player module 152 can be populated by the user as an MP3 or Executable instructions that allow you to download and play recorded music and other sound files stored in one or more file formats, such as AAC files, as well as viewing, presenting, or other methods of video. Includes executable instructions for playback on (eg, on a touch screen 112 or on an external display connected via an external port 124). In some embodiments, the device 100 optionally includes the functionality of an MP3 player such as an iPod (Apple trademark).

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、メモモジュール153は、ユーザ命令に従ってメモ、やることリストなどを作成及び管理するための実行可能な命令を含む。 In conjunction with the touch screen 112, display controller 156, contact / movement module 130, graphic module 132, and text input module 134, the memo module 153 executes to create and manage memos, to-do lists, etc. according to user instructions. Includes possible instructions.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、及びブラウザモジュール147と連動して、地図モジュール154は、任意選択的に、ユーザ命令に従って、地図及び地図に関連付けられたデータ(例えば、運転方向、特定の場所又はその付近の店舗及び他の対象地点に関するデータ、並びに他の場所ベースのデータ)を受信、表示、修正、及び記憶するために使用される。 In conjunction with the RF circuit 108, touch screen 112, display controller 156, contact / movement module 130, graphic module 132, text input module 134, GPS module 135, and browser module 147, the map module 154 is optionally Receive, display, modify, and receive, display, modify, and data on the map and its associated data (eg, data about driving directions, stores in or near a particular location and other target points, and other location-based data) in accordance with user instructions. Used to remember.

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と連動して、オンラインビデオモジュール155は、ユーザが特定のオンラインビデオへのアクセス、特定のオンラインビデオのブラウジング、受信(例えば、ストリーミング及び/又はダウンロードによる)、再生(例えば、タッチスクリーン上又は外部ポート124を介して接続された外部ディスプレイ上)、特定のオンラインビデオへのリンクを有する電子メールの送信、並びにH.264などの1つ以上のファイル形式のオンラインビデオの他の管理を行うことを可能にする命令を含む。いくつかの実施形態では、特定のオンラインビデオへのリンクを送信するために、電子メールクライアントモジュール140ではなく、インスタントメッセージングモジュール141が使用される。オンラインビデオアプリケーションについての追加の説明は、その内容が全体として参照により本明細書に組み込まれている、2007年6月20日出願の米国仮特許出願第60/936,562号、「Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos」、及び2007年12月31日出願の米国特許出願第11/968,067号、「Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos」において見ることができる。 Online in conjunction with touch screen 112, display controller 156, contact / motion module 130, graphic module 132, audio circuit 110, speaker 111, RF circuit 108, text input module 134, email client module 140, and browser module 147. The video module 155 is connected by a user to access a particular online video, browse a particular online video, receive (eg, by streaming and / or download), play (eg, on a touch screen or via an external port 124). On an external display), sending an email with a link to a particular online video, and H.M. Includes instructions that allow other management of online video in one or more file formats, such as 264. In some embodiments, an instant messaging module 141 is used instead of an email client module 140 to send a link to a particular online video. Additional instructions for online video applications are incorporated herein by reference in their entirety, US Provisional Patent Application No. 60 / 936,562, filed June 20, 2007, "Method, Graphical Function Device". , Method, and Graphical User Interface for Playing Online Video, and US Patent Application No. 11 / 968,067, filed December 31, 2007, "Portable Graphical Technology, Digital Technology, Technology, Technology, Technology, Technology" You can see it.

上記で特定したモジュール及びアプリケーションはそれぞれ、前述した1つ以上の機能及び本出願に記載する方法(例えば、本明細書に記載するコンピュータにより実施される方法及び他の情報処理方法)を実行する1組の実行可能な命令に対応する。これらのモジュール(例えば、命令セット)は、別個のソフトウェアプログラム、手順、又はモジュールとして実施する必要はなく、したがって、様々な実施形態において、これらのモジュールの様々なサブセットが、任意選択的に、組み合わされ、又は他の形で再構成される。例えば、ビデオプレーヤモジュールは、任意選択的に、音楽プレーヤモジュールと組み合わされて、単一のモジュール(例えば、図1Aのビデオ及び音楽プレーヤモジュール152)にされる。いくつかの実施形態では、メモリ102は、任意選択的に、上記で特定したモジュール及びデータ構造のサブセットを記憶する。更に、メモリ102は、上記で説明されていない追加のモジュール及びデータ構造を任意選択的に記憶する。 Each of the modules and applications identified above performs one or more of the functions described above and the methods described in this application (eg, computer-implemented methods and other information processing methods described herein). Corresponds to a set of executable instructions. These modules (eg, instruction sets) do not need to be implemented as separate software programs, procedures, or modules, and therefore, in various embodiments, various subsets of these modules are optionally combined. Or otherwise reconstructed. For example, the video player module is optionally combined with the music player module into a single module (eg, the video and music player module 152 of FIG. 1A). In some embodiments, the memory 102 optionally stores a subset of the modules and data structures identified above. Further, the memory 102 optionally stores additional modules and data structures not described above.

いくつかの実施形態では、デバイス100は、そのデバイスにおける所定の機能のセットの動作がタッチスクリーン及び/又はタッチパッドのみを通じて実行されるデバイスである。デバイス100が動作するための主要な入力コントロールデバイスとしてタッチスクリーン及び/又はタッチパッドを使用することにより、任意選択的に、デバイス100上の物理的な入力コントロールデバイス(プッシュボタン、ダイヤルなど)の数が削減される。 In some embodiments, the device 100 is a device in which the operation of a set of predetermined functions on the device is performed only through the touch screen and / or the touch pad. Optional number of physical input control devices (push buttons, dials, etc.) on the device 100 by using the touch screen and / or touchpad as the primary input control device for the device 100 to operate. Is reduced.

タッチスクリーン及び/又はタッチパッドを通じてのみ実行される所定の機能のセットは、任意選択的に、ユーザインタフェース間のナビゲーションを含む。いくつかの実施形態では、タッチパッドは、ユーザによってタッチされたときに、デバイス100上に表示される任意のユーザインタフェースから、メインメニュー、ホームメニュー、又はルートメニューにデバイス100をナビゲートする。このような実施形態では、「メニューボタン」は、タッチパッドを使用して実装される。いくつかの他の実施形態では、メニューボタンは、タッチパッドではなく、物理プッシュボタン又はその他の物理入力コントロールデバイスである。 A set of predetermined functions performed only through the touch screen and / or touch pad optionally includes navigation between user interfaces. In some embodiments, the touchpad navigates the device 100 from any user interface displayed on the device 100 to the main menu, home menu, or root menu when touched by the user. In such an embodiment, the "menu button" is implemented using a touchpad. In some other embodiments, the menu button is not a touchpad, but a physical push button or other physical input control device.

図1Bは、いくつかの実施形態によるイベント処理のための例示的な構成要素を示すブロック図である。いくつかの実施形態では、メモリ102(図1A)又は370(図3)は、イベントソータ170(例えば、オペレーティングシステム126内)と、それぞれのアプリケーション136−1(例えば、前述のアプリケーション137〜151、155、380〜390のうちのいずれか)とを含む。 FIG. 1B is a block diagram showing exemplary components for event handling according to some embodiments. In some embodiments, memory 102 (FIG. 1A) or 370 (FIG. 3) is the event sorter 170 (eg, in operating system 126) and the respective application 136-1 (eg, applications 137-151 described above). 155, any of 380 to 390) and.

イベントソータ170は、イベント情報を受信し、イベント情報が配信されるアプリケーション136−1及びアプリケーション136−1のアプリケーションビュー191を判定する。イベントソータ170は、イベントモニタ171及びイベントディスパッチャモジュール174を含む。いくつかの実施形態では、アプリケーション136−1は、アプリケーションがアクティブ又は実行中であるときにタッチ感知ディスプレイ112上に表示される現在のアプリケーションビューを示すアプリケーション内部状態192を含む。いくつかの実施形態では、デバイス/グローバル内部状態157は、どのアプリケーション(単数又は複数)が現在アクティブであるかを判定するためにイベントソータ170によって使用され、アプリケーション内部状態192は、イベント情報が配信されるアプリケーションビュー191を決定するためにイベントソータ170によって使用される。 The event sorter 170 receives the event information and determines the application view 191 of the application 136-1 and the application 136-1 to which the event information is distributed. The event sorter 170 includes an event monitor 171 and an event dispatcher module 174. In some embodiments, application 136-1 includes an application internal state 192 indicating the current application view displayed on the touch-sensitive display 112 when the application is active or running. In some embodiments, device / global internal state 157 is used by the event sorter 170 to determine which application (s) are currently active, and application internal state 192 is where event information is delivered. Used by the event sorter 170 to determine the application view 191 to be made.

いくつかの実施形態では、アプリケーション内部状態192は、アプリケーション136−1が実行を再開するときに使用される再開情報、アプリケーション136−1によって表示されている又は表示される準備ができている情報を示すユーザインタフェース状態情報、ユーザがアプリケーション136−1の以前の状態又はビューに戻ることを可能にする状態待ち行列、及びユーザが行った以前のアクションのリドゥ/アンドゥ待ち行列のうちの1つ以上などの追加の情報を含む。 In some embodiments, the application internal state 192 provides resumption information used when application 136-1 resumes execution, information displayed or ready to be displayed by application 136-1. Indicates user interface state information, a state queue that allows the user to return to a previous state or view of application 136-1, and one or more of the redo / undo queues for previous actions taken by the user, etc. Contains additional information about.

イベントモニタ171は、周辺機器インタフェース118からイベント情報を受信する。イベント情報は、サブイベント(例えば、マルチタッチジェスチャの一部としてのタッチ感知ディスプレイ112上のユーザタッチ)に関する情報を含む。周辺機器インタフェース118は、I/Oサブシステム106、又は近接センサ166、加速度計(単数又は複数)168、及び/若しくは(オーディオ回路110を介した)マイクロフォン113などのセンサから受信する情報を伝送する。周辺機器インタフェース118がI/Oサブシステム106から受信する情報は、タッチ感知ディスプレイ112又はタッチ感知面からの情報を含む。 The event monitor 171 receives event information from the peripheral device interface 118. Event information includes information about sub-events (eg, user touch on the touch-sensitive display 112 as part of a multi-touch gesture). Peripheral interface 118 transmits information received from sensors such as the I / O subsystem 106, or proximity sensor 166, accelerometer (s) 168, and / or microphone 113 (via audio circuit 110). .. The information received by the peripheral interface 118 from the I / O subsystem 106 includes information from the touch-sensitive display 112 or the touch-sensitive surface.

いくつかの実施形態では、イベントモニタ171は、所定の間隔で周辺機器インタフェース118に要求を送信する。それに応じて、周辺機器インタフェース118は、イベント情報を伝送する。他の実施形態では、周辺機器インタフェース118は、重要なイベント(例えば、所定のノイズ閾値を上回る及び/又は所定の持続時間を超える入力の受信)があるときのみイベント情報を送信する。 In some embodiments, the event monitor 171 sends a request to the peripheral interface 118 at predetermined intervals. Accordingly, the peripheral interface 118 transmits event information. In another embodiment, the peripheral interface 118 transmits event information only when there is a significant event (eg, reception of an input that exceeds a predetermined noise threshold and / or exceeds a predetermined duration).

いくつかの実施形態では、イベントソータ170はまた、ヒットビュー判定モジュール172及び/又はアクティブイベント認識部判定モジュール173を含む。 In some embodiments, the event sorter 170 also includes a hit view determination module 172 and / or an active event recognizer determination module 173.

ヒットビュー判定モジュール172は、タッチ感知ディスプレイ112が2つ以上のビューを表示するとき、サブイベントが1つ以上のビュー内のどこで行われたかを判定するソフトウェア手順を提供する。ビューは、ユーザがディスプレイ上で見ることができる制御装置及び他の要素から構成されている。 The hit view determination module 172 provides a software procedure for determining where in one or more views a sub-event has occurred when the touch-sensitive display 112 displays two or more views. The view consists of a control device and other elements that the user can see on the display.

アプリケーションに関連付けられたユーザインタフェースの別の態様は、本明細書ではアプリケーションビュー又はユーザインタフェースウインドウと呼ばれることもあるビューのセットであり、その中で情報が表示され、タッチに基づくジェスチャが生じる。タッチが検出される(それぞれのアプリケーションの)アプリケーションビューは、任意選択的に、アプリケーションのプログラム階層又はビュー階層内のプログラムレベルに対応する。例えば、タッチが検出される最下位レベルビューは、任意選択的に、ヒットビューと呼ばれ、また、適切な入力として認識されるイベントのセットは、任意選択的に、タッチによるジェスチャを開始する初期タッチのヒットビューに少なくとも部分的に基づいて決定される。 Another aspect of the user interface associated with an application is a set of views, sometimes referred to herein as application views or user interface windows, in which information is displayed and touch-based gestures occur. The application view (of each application) for which touch is detected optionally corresponds to the program hierarchy of the application or the program level within the view hierarchy. For example, the lowest level view where a touch is detected is optionally called a hit view, and a set of events that are recognized as appropriate inputs are optionally the initial to initiate a touch gesture. Determined at least in part based on the hit view of the touch.

ヒットビュー判定モジュール172は、タッチに基づくジェスチャのサブイベントに関連する情報を受信する。アプリケーションが階層状に構成された複数のビューを有するときには、ヒットビュー判定モジュール172は、サブイベントを処理すべき階層内の最下位のビューとして、ヒットビューを特定する。ほとんどの状況では、ヒットビューは、開始サブイベント(例えば、イベント又は潜在的イベントを形成するサブイベントシーケンス内の第1のサブイベント)が行われる最も低いレベルのビューである。ヒットビューがヒットビュー判定モジュール172によって特定された後、このヒットビューは、典型的には、ヒットビューとして特定されたのと同じタッチ又は入力ソースに関係する全てのサブイベントを受信する。 The hit view determination module 172 receives information related to touch-based gesture sub-events. When the application has a plurality of views organized in a hierarchy, the hit view determination module 172 identifies the hit view as the lowest view in the hierarchy to handle the sub-event. In most situations, the hit view is the lowest level view at which the starting subevent (eg, the first subevent in the subevent sequence that forms the event or potential event) takes place. After the hit view has been identified by the hit view determination module 172, the hit view typically receives all sub-events related to the same touch or input source identified as the hit view.

アクティブイベント認識部判定モジュール173は、ビュー階層内のどのビュー(単数又は複数)がサブイベントの特定のシーケンスを受信すべきかを判定する。いくつかの実施形態では、アクティブイベント認識部判定モジュール173は、ヒットビューのみがサブイベントの特定のシーケンスを受信すべきであると判定する。他の実施形態では、アクティブイベント認識部判定モジュール173は、サブイベントの物理位置を含む全てのビューがアクティブに関わりがあるビューであると判定し、したがって、全てのアクティブに関わりがあるビューが、サブイベントの特定のシーケンスを受信すべきであると判定する。他の実施形態では、タッチサブイベントが1つの特定のビューに関連するエリアに完全に限定された場合でも、階層内の上位のビューは、依然としてアクティブに関わりがあるビューであり続ける。 The active event recognition unit determination module 173 determines which view (s) in the view hierarchy should receive a particular sequence of sub-events. In some embodiments, the active event recognizer determination module 173 determines that only the hit view should receive a particular sequence of sub-events. In another embodiment, the active event recognizer determination module 173 determines that all views, including the physical position of the sub-event, are active-related views, and thus all active-related views. Determines that a particular sequence of subevents should be received. In other embodiments, even if the touch subevents are completely confined to the area associated with one particular view, the higher-level views in the hierarchy remain the views that are actively involved.

イベントディスパッチャモジュール174は、イベント情報をイベント認識部(例えばイベント認識部180)にディスパッチする。アクティブイベント認識部判定モジュール173を含む実施形態において、イベントディスパッチャモジュール174は、アクティブイベント認識部判定モジュール173により判定されたイベント認識部にイベント情報を配信する。いくつかの実施形態では、イベントディスパッチャモジュール174は、それぞれのイベント受信部182によって取得されるイベント情報をイベント待ち行列に記憶する。 The event dispatcher module 174 dispatches event information to an event recognition unit (for example, event recognition unit 180). In the embodiment including the active event recognition unit determination module 173, the event dispatcher module 174 distributes event information to the event recognition unit determined by the active event recognition unit determination module 173. In some embodiments, the event dispatcher module 174 stores event information acquired by each event receiver 182 in the event queue.

いくつかの実施形態では、オペレーティングシステム126は、イベントソータ170を含む。代替として、アプリケーション136−1がイベントソータ170を含む。更に他の実施形態では、イベントソータ170は、独立型のモジュール、又は接触/動きモジュール130などの、メモリ102に記憶された別のモジュールの一部である。 In some embodiments, the operating system 126 comprises an event sorter 170. As an alternative, application 136-1 includes an event sorter 170. In yet another embodiment, the event sorter 170 is part of a stand-alone module, or another module stored in memory 102, such as a contact / motion module 130.

いくつかの実施形態では、アプリケーション136−1は、それぞれがアプリケーションのユーザインタフェースのそれぞれのビュー内で発生するタッチイベントを処理する命令を含む、複数のイベントハンドラ190及び1つ以上のアプリケーションビュー191を含む。アプリケーション136−1の各アプリケーションビュー191は、1つ以上のイベント認識部180を含む。典型的には、それぞれのアプリケーションビュー191は、複数のイベント認識部180を含む。他の実施形態では、イベント認識部180のうちの1つ以上は、ユーザインタフェースキット、又は、アプリケーション136−1が方法及び他の属性を継承する上位レベルのオブジェクトなどの、別個のモジュールの一部である。いくつかの実施形態では、対応するイベントハンドラ190は、データアップデータ176、オブジェクトアップデータ177、GUIアップデータ178及び/又はイベントソータ170から受信されたイベントデータ179、のうちの1つ以上を含む。イベントハンドラ190は、任意選択的に、データアップデータ176、オブジェクトアップデータ177、又はGUIアップデータ178を利用し又は呼び出して、アプリケーション内部状態192を更新する。別法として、アプリケーションビュー191のうちの1つ以上が、1つ以上のそれぞれのイベントハンドラ190を含む。また、いくつかの実施形態では、データアップデータ176、オブジェクトアップデータ177及びGUIアップデータ178のうちの1つ以上は、対応するアプリケーションビュー191に含まれる。 In some embodiments, application 136-1 provides a plurality of event handlers 190 and one or more application views 191 each containing instructions for handling touch events that occur within each view of the application's user interface. include. Each application view 191 of application 136-1 includes one or more event recognizers 180. Typically, each application view 191 includes a plurality of event recognizers 180. In other embodiments, one or more of the event recognizers 180 are part of a separate module, such as a user interface kit, or a higher level object for which application 136-1 inherits methods and other attributes. Is. In some embodiments, the corresponding event handler 190 includes one or more of data updater 176, object updater 177, GUI updater 178 and / or event data 179 received from the event sorter 170. The event handler 190 optionally uses or calls the data updater 176, the object updater 177, or the GUI updater 178 to update the application internal state 192. Alternatively, one or more of the application views 191 includes one or more of each event handler 190. Also, in some embodiments, one or more of the data updater 176, the object updater 177 and the GUI updater 178 is included in the corresponding application view 191.

それぞれのイベント認識部180は、イベントソータ170からイベント情報(例えば、イベントデータ179)を受信し、このイベント情報からイベントを特定する。イベント認識部180は、イベント受信部182及びイベント比較部184を含む。いくつかの実施形態では、イベント認識部180はまた、メタデータ183及びイベント配信命令188(任意選択的にサブイベント配信命令を含む)の少なくともサブセットも含む。 Each event recognition unit 180 receives event information (for example, event data 179) from the event sorter 170, and identifies an event from this event information. The event recognition unit 180 includes an event reception unit 182 and an event comparison unit 184. In some embodiments, the event recognizer 180 also includes at least a subset of metadata 183 and event delivery instructions 188, optionally including sub-event delivery instructions.

イベント受信部182は、イベントソータ170からイベント情報を受信する。イベント情報は、サブイベントについての情報、例えば、タッチ又はタッチの移動についての情報を含む。サブイベントに応じて、イベント情報はまた、サブイベントの位置などの追加の情報を含む。サブイベントがタッチの動きに関わるとき、イベント情報はまた任意選択的に、サブイベントの速さ及び方向を含む。いくつかの実施形態では、イベントは、1つの向きから別の向きへの(例えば、縦向きから横向きへ、又はその逆の)デバイスの回転を含み、イベント情報は、デバイスの現在の向き(デバイスの姿勢とも呼ぶ)についての対応する情報を含む。 The event receiving unit 182 receives event information from the event sorter 170. Event information includes information about sub-events, such as touch or touch movement. Depending on the sub-event, the event information also includes additional information such as the location of the sub-event. When the sub-event involves touch movement, the event information also optionally includes the speed and direction of the sub-event. In some embodiments, the event comprises rotating the device from one orientation to another (eg, from portrait to landscape, or vice versa), and the event information is the current orientation of the device (device). Includes corresponding information about (also called posture).

イベント比較部184は、イベント情報を、定義済みのイベント又はサブイベントの定義と比較し、その比較に基づいて、イベント又はサブイベントを判定するか、あるいはイベント又はサブイベントの状態を判定若しくは更新する。いくつかの実施形態では、イベント比較部184は、イベント定義186を含む。イベント定義186は、例えばイベント1(187−1)及びイベント2(187−2)などのイベント(例えば所定のサブイベントのシーケンス)の定義を含む。いくつかの実施形態では、イベント(187)内のサブイベントは、例えば、タッチの開始、タッチの終了、タッチの動き、タッチの取り消し、及び複数のタッチを含む。一例では、イベント1(187−1)についての定義は、表示されたオブジェクト上のダブルタップである。ダブルタップは、例えば、所定の段階に対する表示オブジェクト上の第1のタッチ(タッチ開始)、所定の段階に対する第1のリフトオフ(タッチ終了)、所定の段階に対する表示オブジェクト上の第2のタッチ(タッチ開始)、及び所定の段階に対する第2のリフトオフ(タッチ終了)を含む。別の例では、イベント2(187−2)の定義は、表示されたオブジェクト上のドラッグである。ドラッグは、例えば、所定の段階に対する表示オブジェクトのタッチ(又は接触)、タッチ感知ディスプレイ112におけるタッチの動き、及びタッチのリフトオフ(タッチ終了)を含む。いくつかの実施形態では、イベントはまた、1つ以上の関連付けられたイベントハンドラ190に関する情報を含む。 The event comparison unit 184 compares the event information with the defined event or sub-event definition, and determines the event or sub-event based on the comparison, or determines or updates the state of the event or sub-event. .. In some embodiments, the event comparison unit 184 includes an event definition 186. Event definition 186 includes definitions of events (eg, sequences of predetermined sub-events) such as event 1 (187-1) and event 2 (187-2). In some embodiments, the sub-event within the event (187) includes, for example, the start of a touch, the end of a touch, the movement of a touch, the cancellation of a touch, and a plurality of touches. In one example, the definition for event 1 (187-1) is a double tap on the displayed object. Double tapping is, for example, a first touch (touch start) on the display object for a predetermined stage, a first lift-off (touch end) for a predetermined stage, and a second touch (touch) on the display object for a predetermined stage. Includes start) and a second lift-off (touch end) to a given stage. In another example, the definition of event 2 (187-2) is a drag on the displayed object. Dragging includes, for example, touching (or touching) the display object with respect to a given step, touch movement on the touch-sensitive display 112, and lift-off (touch termination) of the touch. In some embodiments, the event also contains information about one or more associated event handlers 190.

いくつかの実施形態では、イベント定義187は、それぞれのユーザインタフェースオブジェクトについてのイベントの定義を含む。いくつかの実施形態では、イベント比較部184は、どのユーザインタフェースオブジェクトがサブイベントに関連付けられているかを判定するヒットテストを実行する。例えば、タッチ感知ディスプレイ112上に、3つのユーザインタフェースオブジェクトが表示されているアプリケーションビューでは、タッチ感知ディスプレイ112上でタッチが検出されると、イベント比較部184は、3つのユーザインタフェースオブジェクトのうちのいずれが、そのタッチ(サブイベント)と関連付けられているかを判定するために、ヒットテストを実行する。表示された各オブジェクトが、対応するイベントハンドラ190に関連付けられている場合、イベント比較部は、ヒットテストの結果を用いて、どのイベントハンドラ190をアクティブ化すべきかを判定する。例えば、イベント比較部184は、ヒットテストをトリガするサブイベント及びオブジェクトと関連付けられたイベントハンドラを選択する。 In some embodiments, the event definition 187 includes an event definition for each user interface object. In some embodiments, the event comparison unit 184 performs a hit test to determine which user interface object is associated with the subevent. For example, in an application view in which three user interface objects are displayed on the touch-sensitive display 112, when a touch is detected on the touch-sensitive display 112, the event comparison unit 184 is among the three user interface objects. A hit test is run to determine which is associated with that touch (sub-event). If each displayed object is associated with a corresponding event handler 190, the event comparison unit uses the result of the hit test to determine which event handler 190 should be activated. For example, the event comparison unit 184 selects an event handler associated with a sub-event and an object that triggers a hit test.

いくつかの実施形態では、それぞれのイベント(187)に対する定義はまた、サブイベントシーケンスがイベント認識部のイベントタイプに対応するか否かが判定される後までイベント情報の伝送を遅延する遅延アクションを含む。 In some embodiments, the definition for each event (187) also includes a delayed action that delays the transmission of event information until after it has been determined whether the sub-event sequence corresponds to the event type of the event recognizer. include.

それぞれのイベント認識部180が一連のサブイベントがイベント定義186のいずれのイベントとも一致しないと判断した場合には、それぞれのイベント認識部180は、イベント不可能、イベント失敗、又はイベント終了の状態になり、その後は、タッチによるジェスチャの後続のサブイベントを無視する。この状況では、ヒットビューについてアクティブのままである他のイベント認識部があれば、そのイベント認識部は、進行中のタッチによるジェスチャのサブイベントの追跡及び処理を続行する。 When each event recognition unit 180 determines that the series of sub-events does not match any of the events in the event definition 186, each event recognition unit 180 is in the state of event impossible, event failure, or event end. After that, it ignores the subsequent sub-events of the touch gesture. In this situation, if there are other event recognizers that remain active for the hit view, that event recognizer will continue to track and process sub-events of gestures with ongoing touches.

いくつかの実施形態では、対応するイベント認識部180は、イベント配信システムがどのようにサブイベント配信を実行すべきかをアクティブに関与しているイベント認識部に示す構成可能なプロパティ、フラグ、及び/又はリストを有するメタデータ183を含む。いくつかの実施形態では、メタデータ183は、イベント認識部が互いにどのように対話するか、又はイベント認識部が互いにどのように対話することができるようになっているかを示す構成可能なプロパティ、フラグ、及び/又はリストを含む。いくつかの実施形態では、メタデータ183は、サブイベントがビュー階層又はプログラム階層における多様なレベルに配信されるかを示す構成可能なプロパティ、フラグ、及び/又はリストを含む。 In some embodiments, the corresponding event recognizer 180 indicates configurable properties, flags, and / of to the event recognizer that is actively involved in how the event delivery system should perform subevent delivery. Alternatively, it includes metadata 183 with a list. In some embodiments, the metadata 183 is a configurable property that indicates how event recognizers interact with each other, or how event recognizers are allowed to interact with each other. Includes flags and / or lists. In some embodiments, the metadata 183 includes configurable properties, flags, and / or lists indicating whether subevents are delivered to various levels in the view hierarchy or program hierarchy.

いくつかの実施形態では、それぞれのイベント認識部180は、イベントの1つ以上の特定のサブイベントが認識されるときに、イベントと関連付けられたイベントハンドラ190をアクティブ化する。いくつかの実施形態では、それぞれのイベント認識部180は、イベントと関連付けられたイベント情報をイベントハンドラ190に配信する。イベントハンドラ190をアクティブ化することは、それぞれのヒットビューにサブイベントを送信する(及び、送信を延期する)こととは別個である。いくつかの実施形態では、イベント認識部180は、認識したイベントと関連付けられたフラグを投入し、そのフラグと関連付けられたイベントハンドラ190は、そのフラグを捕らえ、既定のプロセスを実行する。 In some embodiments, each event recognizer 180 activates an event handler 190 associated with an event when one or more specific sub-events of the event are recognized. In some embodiments, each event recognition unit 180 delivers event information associated with the event to the event handler 190. Activating the event handler 190 is separate from sending (and deferring) subevents to each hit view. In some embodiments, the event recognizer 180 inputs a flag associated with the recognized event, and the event handler 190 associated with the flag catches the flag and executes a default process.

いくつかの実施形態では、イベント配信命令188は、イベントハンドラをアクティブ化することなくサブイベントについてのイベント情報を配信するサブイベント配信命令を含む。代わりに、サブイベント配信命令は、一連のサブイベントと関連付けられたイベントハンドラに、又はアクティブに関与しているビューにイベント情報を配信する。一連のサブイベント又はアクティブに関与しているビューと関連付けられたイベントハンドラは、イベント情報を受信し、所定の処理を実行する。 In some embodiments, the event delivery instruction 188 includes a sub-event delivery instruction that delivers event information about the sub-event without activating the event handler. Instead, the sub-event delivery instruction delivers event information to the event handler associated with the set of sub-events, or to the views that are actively involved. The event handler associated with the series of sub-events or views actively involved receives the event information and executes a predetermined process.

いくつかの実施形態では、データアップデータ176は、アプリケーション136−1で使用されるデータを作成及び更新する。例えば、データアップデータ176は、連絡先モジュール137で使用される電話番号を更新する、又はビデオプレーヤモジュールで使用されるビデオファイルを記憶する。いくつかの実施形態では、オブジェクトアップデータ177は、アプリケーション136−1で使用されるオブジェクトを作成及び更新する。例えば、オブジェクトアップデータ177は、新たなユーザインタフェースオブジェクトを作成するか、又はユーザインタフェースオブジェクトの位置を更新する。GUIアップデータ178は、GUIを更新する。例えば、GUIアップデータ178は、表示情報を準備し、タッチ感知ディスプレイ上に表示するために表示情報をグラフィックモジュール132に送る。 In some embodiments, the data updater 176 creates and updates the data used in application 136-1. For example, the data updater 176 updates the phone number used by the contact module 137 or stores a video file used by the video player module. In some embodiments, the object updater 177 creates and updates the objects used in application 136-1. For example, the object updater 177 creates a new user interface object or updates the position of the user interface object. The GUI updater 178 updates the GUI. For example, the GUI updater 178 prepares the display information and sends the display information to the graphic module 132 for display on the touch-sensitive display.

いくつかの実施形態では、イベントハンドラ(単数又は複数)190は、データアップデータ176、オブジェクトアップデータ177、及びGUIアップデータ178を含むか又はそれらへのアクセスを有する。いくつかの実施形態では、データアップデータ176、オブジェクトアップデータ177、及びGUIアップデータ178は、それぞれのアプリケーション136−1又はアプリケーションビュー191の単一モジュールに含まれる。他の実施形態では、それらは、2つ以上のソフトウェアモジュールに含まれる。 In some embodiments, the event handler (s) 190 includes or has access to a data updater 176, an object updater 177, and a GUI updater 178. In some embodiments, the data updater 176, object updater 177, and GUI updater 178 are contained in a single module of application 136-1 or application view 191 respectively. In other embodiments, they are included in two or more software modules.

タッチ感知ディスプレイ上のユーザタッチのイベント処理に関する上記の論考は、入力デバイスを有する多機能デバイス100を動作させるためのユーザ入力の他の形態にも当てはまり、それらのユーザ入力は、必ずしも全てがタッチスクリーン上で開始されるとは限らないことが理解されよう。例えば、キーボードの単一又は複数の押圧若しくは保持と任意選択的に連携される、マウスの移動及びマウスボタンの押圧、タッチパッド上のタップ、ドラッグ、スクロールなどの接触の動き、ペンスタイラス入力、デバイスの移動、口頭による命令、検出された目の動き、バイオメトリック入力、並びに/又はそれらの任意の組み合わせを、任意選択的に、認識するイベントを定義するサブイベントに対応する入力として利用する。 The above discussion of user touch event handling on touch-sensitive displays also applies to other forms of user input for operating the multifunction device 100 with input devices, and those user inputs are not necessarily all touch screens. It will be understood that it does not always start above. For example, mouse movements and mouse button presses, touch movements such as tapping, dragging, scrolling on the touchpad, pen stylus input, devices, optionally linked with single or multiple keyboard presses or holds. Movements, verbal commands, detected eye movements, biometric inputs, and / or any combination thereof are optionally used as inputs corresponding to sub-events that define the event to be recognized.

図2は、いくつかの実施形態によるタッチスクリーン112を有するポータブル多機能デバイス100を示す。タッチスクリーンは、任意選択的に、ユーザインタフェース(user interface、UI)200内に1つ以上のグラフィックを表示する。本実施形態、並びに以下で説明される他の実施形態では、ユーザは、例えば、1本以上の指202(図には正確な縮尺では描かれていない)又は1つ以上のスタイラス203(図には正確な縮尺では描かれていない)を使用して、グラフィック上でジェスチャを実施することによって、それらのグラフィックのうちの1つ以上を選択することが可能となる。いくつかの実施形態では、1つ以上のグラフィックの選択は、ユーザが、その1つ以上のグラフィックとの接触を中断する場合に実施される。いくつかの実施形態では、ジェスチャは、任意選択的に、1つ以上のタップ、1つ以上のスワイプ(左から右、右から左、上向き、及び/若しくは下向き)、並びに/又はデバイス100と接触した指のロール(右から左、左から右、上向き、及び/若しくは下向き)を含む。いくつかの実装形態又は状況では、グラフィックとの不測の接触は、そのグラフィックを選択するものではない。例えば、選択に対応するジェスチャがタップである場合、アプリケーションアイコンの上をスイープするスワイプジェスチャは、任意選択的に、対応するアプリケーションを選択するものではない。 FIG. 2 shows a portable multifunction device 100 with a touch screen 112 according to some embodiments. The touch screen optionally displays one or more graphics within the user interface (UI) 200. In this embodiment, and other embodiments described below, the user may see, for example, one or more fingers 202 (not drawn to exact scale in the figure) or one or more stylus 203 (in the figure). Is not drawn to the exact scale), and by performing gestures on the graphics, it is possible to select one or more of those graphics. In some embodiments, the selection of one or more graphics is performed when the user interrupts contact with the one or more graphics. In some embodiments, the gesture optionally contacts one or more taps, one or more swipes (left to right, right to left, up and / or down), and / or device 100. Includes finger rolls (right-to-left, left-to-right, upward, and / or downward). In some implementations or situations, unforeseen contact with a graphic does not select that graphic. For example, if the gesture corresponding to the selection is a tap, the swipe gesture that sweeps over the application icon does not optionally select the corresponding application.

デバイス100はまた、任意選択的に、「ホーム」ボタン又はメニューボタン204などの1つ以上の物理ボタンを含む。前述したように、メニューボタン204は、任意選択的に、任意選択的にデバイス100上で実行される1組のアプリケーション内の任意のアプリケーション136へナビゲートするために使用される。別法として、いくつかの実施形態では、メニューボタンは、タッチスクリーン112上に表示されるGUI内のソフトキーとして実施される。 The device 100 also optionally includes one or more physical buttons such as a "home" button or a menu button 204. As mentioned above, menu button 204 is used to optionally navigate to any application 136 within a set of applications running on device 100. Alternatively, in some embodiments, the menu button is implemented as a softkey in the GUI displayed on the touch screen 112.

いくつかの実施形態では、デバイス100は、タッチスクリーン112、メニューボタン204、デバイスの電源をオン/オフにしてデバイスをロックするプッシュボタン206、音量調整ボタン208、加入者識別モジュール(SIM)カードスロット210、ヘッドセットジャック212、及びドッキング/充電用外部ポート124を含む。プッシュボタン206は、任意選択的に、ボタンを押し下げて、所定の期間にわたってボタンを押し下げた状態に保持することによって、デバイスの電源をオン/オフするため、ボタンを押し下げて、所定の期間が経過する前にボタンを解放することによって、デバイスをロックするため、及び/又はデバイスをロック解除する、若しくはロック解除プロセスを開始するために、使用される。代替的実施形態では、デバイス100はまた、マイクロフォン113を介して、一部の機能をアクティブ化又は非アクティブ化するための口頭入力も受け入れる。デバイス100はまた、任意選択的に、タッチスクリーン112上の接触の強度を検出する1つ以上の接触強度センサ165、及び/又はデバイス100のユーザに対する触知出力を生成する1つ以上の触知出力生成器167を含む。 In some embodiments, the device 100 includes a touch screen 112, a menu button 204, a push button 206 that locks the device by turning the device on and off, a volume control button 208, a subscriber identification module (SIM) card slot. Includes 210, headset jack 212, and external docking / charging port 124. The push button 206 optionally presses the button down and holds the button down for a predetermined period of time to power on / off the device, so that the button is pressed down for a predetermined period of time. Used to lock the device and / or to unlock the device or initiate the unlocking process by releasing the button before doing so. In an alternative embodiment, the device 100 also accepts verbal input to activate or deactivate some functions via the microphone 113. The device 100 also optionally produces one or more contact strength sensors 165 that detect the strength of the contact on the touch screen 112 and / or one or more tactile outputs to the user of the device 100. Includes output generator 167.

図3は、いくつかの実施形態によるディスプレイ及びタッチ感知面を有する例示的な多機能デバイスのブロック図である。デバイス300は、ポータブル型である必要はない。いくつかの実施形態では、デバイス300は、ラップトップコンピュータ、デスクトップコンピュータ、タブレットコンピュータ、マルチメディア再生デバイス、ナビゲーションデバイス、教育的デバイス(子供の学習玩具など)、ゲームシステム、又は制御デバイス(例えば、家庭用又は業務用コントローラ)である。デバイス300は、典型的には、1つ以上の処理ユニット(CPU)310、1つ以上のネットワーク又は他の通信インタフェース360、メモリ370、及びこれらの構成要素を相互接続する1つ以上の通信バス320を含む。通信バス320は、任意選択的に、システム構成要素間の通信を相互接続及び制御する回路(チップセットと呼ばれることもある)を含む。デバイス300は、ディスプレイ340を備える入出力(I/O)インタフェース330を含み、ディスプレイ340は、典型的には、タッチスクリーンディスプレイである。I/Oインタフェース330はまた、任意選択的に、キーボード及び/又はマウス(若しくは他のポインティングデバイス)350と、タッチパッド355と、デバイス300上に触知出力を生成する触知出力生成器357(例えば、図1Aを参照して前述した触知出力生成器167に類似している)と、センサ359(例えば、図1Aを参照して前述した接触強度センサ165に類似している光、加速度、近接、タッチ感知、及び/又は接触強度センサ)とを含む。メモリ370は、DRAM、SRAM、DDR RAM、又は他のランダムアクセスソリッドステートメモリデバイスなどの高速ランダムアクセスメモリを含み、任意選択的に、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性ソリッドステート記憶デバイスなどの不揮発性メモリを含む。メモリ370は、CPU310からリモートに位置する1つ以上の記憶デバイスを任意選択的に含む。いくつかの実施形態では、メモリ370は、ポータブル多機能デバイス100(図1A)のメモリ102内に記憶されているプログラム、モジュール、及びデータ構造に類似したプログラム、モジュール、及びデータ構造、又はそのサブセットを記憶する。更に、メモリ370は任意選択で、ポータブル多機能デバイス100のメモリ102に存在しない追加のプログラム、モジュール、及びデータ構造を記憶する。例えば、デバイス300のメモリ370は、任意選択的に、描画モジュール380、プレゼンテーションモジュール382、ワードプロセッシングモジュール384、ウェブサイト作成モジュール386、ディスクオーサリングモジュール388、及び/又はスプレッドシートモジュール390を記憶するのに対して、ポータブル多機能デバイス100(図1A)のメモリ102は、任意選択的に、これらのモジュールを記憶しない。 FIG. 3 is a block diagram of an exemplary multifunctional device having a display and a touch sensitive surface according to some embodiments. The device 300 does not have to be portable. In some embodiments, the device 300 is a laptop computer, desktop computer, tablet computer, multimedia playback device, navigation device, educational device (such as a children's learning toy), gaming system, or control device (eg, home). Computer for business use or business use). The device 300 typically has one or more processing units (CPUs) 310, one or more networks or other communication interfaces 360, memory 370, and one or more communication buses that interconnect these components. Includes 320. The communication bus 320 optionally includes circuits (sometimes referred to as chipsets) that interconnect and control communication between system components. The device 300 includes an input / output (I / O) interface 330 including a display 340, which is typically a touch screen display. The I / O interface 330 also optionally produces a keyboard and / or mouse (or other pointing device) 350, a touchpad 355, and a tactile output generator 357 (which produces tactile output on the device 300). For example, light, acceleration, similar to the tactile output generator 167 described above with reference to FIG. 1A) and sensor 359 (eg, similar to the contact strength sensor 165 described above with reference to FIG. 1A). Proximity, touch sensing, and / or contact strength sensors). Memory 370 includes high-speed random access memory such as DRAM, SRAM, DDR RAM, or other random access solid state memory device, optionally one or more magnetic disk storage devices, optical disk storage devices, flash memory devices. , Or other non-volatile memory such as solid-state storage devices. The memory 370 optionally includes one or more storage devices located remotely from the CPU 310. In some embodiments, memory 370 is a program, module, and data structure similar to, or a subset of, a program, module, and data structure stored in memory 102 of portable multifunction device 100 (FIG. 1A). Remember. Further, the memory 370 optionally stores additional programs, modules, and data structures that do not exist in the memory 102 of the portable multifunction device 100. For example, the memory 370 of the device 300 optionally stores a drawing module 380, a presentation module 382, a word processing module 384, a website creation module 386, a disk authoring module 388, and / or a spreadsheet module 390. On the other hand, the memory 102 of the portable multifunctional device 100 (FIG. 1A) optionally does not store these modules.

図3の上記で特定した要素はそれぞれ、任意選択的に、前述したメモリデバイスのうちの1つ以上の中に記憶される。上記で特定したモジュールはそれぞれ、前述した機能を実行する1組の命令に対応する。上記で特定したモジュール又はプログラム(例えば、命令セット)は、別個のソフトウェアプログラム、手順、又はモジュールとして実施する必要はなく、したがって様々な実施形態では、これらのモジュールの様々なサブセットは、任意選択的に、組み合わされ、又は他の形で再構成される。いくつかの実施形態では、メモリ370は、任意選択的に、上記で特定したモジュール及びデータ構造のサブセットを記憶する。更に、メモリ370は、上記で説明されていない追加のモジュール及びデータ構造を任意選択的に記憶する。 Each of the above-specified elements of FIG. 3 is optionally stored in one or more of the aforementioned memory devices. Each module identified above corresponds to a set of instructions that perform the functions described above. The modules or programs identified above (eg, instruction sets) need not be implemented as separate software programs, procedures, or modules, so in various embodiments, various subsets of these modules are optional. , Combined, or otherwise reconstructed. In some embodiments, memory 370 optionally stores a subset of the modules and data structures identified above. In addition, memory 370 optionally stores additional modules and data structures not described above.

次に、任意選択的に例えばポータブル多機能デバイス100上で実施されるユーザインタフェースの実施形態に注意を向ける。 Next, attention is paid to an embodiment of a user interface optionally implemented, for example, on the portable multifunction device 100.

図4Aは、いくつかの実施形態によるポータブル多機能デバイス100上のアプリケーションのメニューの例示的なユーザインタフェースを示す。同様のユーザインタフェースは、デバイス300上に任意選択的に実装される。いくつかの実施形態では、ユーザインタフェース400は、以下の要素、又はそれらのサブセット若しくはスーパーセットを含む。
●セルラー信号及びWi−Fi信号などの無線通信(単数又は複数)のための信号強度インジケータ(単数又は複数)402、
●時刻404、
●Bluetoothインジケータ405、
●バッテリ状態インジケータ406、
●以下のような、頻繁に使用されるアプリケーションのアイコンを有するトレイ408、
○不在着信又はボイスメールメッセージの数のインジケータ414を任意選択的に含む、「電話」とラベル付けされた、電話モジュール138のアイコン416、
○未読電子メールの数のインジケータ410を任意選択的に含む、「メール」とラベル付けされた、電子メールクライアントモジュール140のアイコン418、
○「ブラウザ」とラベル付けされた、ブラウザモジュール147のアイコン420、及び
○「iPod」とラベル付けされた、iPod(Apple Inc.の商標)モジュール152とも称されるビデオ及び音楽プレーヤモジュール152のアイコン422、及び
●以下のような、他のアプリケーションのアイコン、
○「メッセージ」とラベル付けされた、IMモジュール141のアイコン424、
○「カレンダ」とラベル付けされた、カレンダモジュール148のアイコン426、
○「写真」とラベル付けされた、画像管理モジュール144のアイコン428、
○「カメラ」とラベル付けされた、カメラモジュール143のアイコン430、
○「オンラインビデオ」とラベル付けされた、オンラインビデオモジュール155のアイコン432、
○「株価」とラベル付けされた、株価ウィジェット149−2のアイコン434、
○「地図」のラベル付けされた、地図モジュール154のためのアイコン436、
○「天気」とラベル付けされた、気象ウィジェット149−1のアイコン438、
○「時計」とラベル付けされた、アラーム時計ウィジェット149−4のアイコン440、
○「トレーニングサポート」とラベル付けされた、トレーニングサポートモジュール142のアイコン442、
○「メモ」とラベル付けされた、メモモジュール153のアイコン444、及び
○デバイス100及びその様々なアプリケーション136に対する設定へのアクセスを提供する「設定」のラベル付きの設定アプリケーション又はモジュールのためのアイコン446。
FIG. 4A shows an exemplary user interface of a menu of applications on a portable multifunction device 100 according to some embodiments. A similar user interface is optionally implemented on the device 300. In some embodiments, the user interface 400 includes the following elements, or a subset or superset thereof.
● Signal strength indicator (s) for wireless communication (s) such as cellular and Wi-Fi signals 402,
● Time 404,
Bluetooth indicator 405,
Battery status indicator 406,
Tray 408 with frequently used application icons, such as:
The icon 416 of the telephone module 138, labeled "Telephone", optionally includes an indicator 414 of the number of missed calls or voicemail messages.
The icon 418 of the email client module 140, labeled "Email", optionally includes an indicator 410 of the number of unread emails.
○ Icon 420 for browser module 147 labeled “Browser” and ○ Icon for video and music player module 152, also known as iPod (Apple Inc. trademark) module 152, labeled “iPod” 422, and ● Other application icons, such as:
IM module 141 icon 424, labeled "Message",
Calendar module 148 icon 426, labeled "Calendar",
○ Icon 428 of image management module 144, labeled "Photo",
○ Camera module 143 icon 430, labeled "Camera",
○ Icon 432 of the online video module 155, labeled "online video",
○ Icon 434 of Stock Price Widget 149-2, labeled "Stock Price",
Icon 436 for map module 154, labeled "Map",
○ Weather widget 149-1 icon 438, labeled "Weather",
○ Alarm clock widget 149-4 icon 440, labeled "Clock",
○ Icon 442 of the training support module 142, labeled "Training Support",
○ Icon 444 of the memo module 153 labeled “Memo”, and ○ Icon for the “Settings” labeled settings application or module that provides access to settings for device 100 and its various applications 136. 446.

図4Aに示すアイコンラベルは、単なる例示であることに留意されたい。例えば、ビデオ及び音楽プレーヤモジュール152のためのアイコン422は、「音楽」又は「音楽プレーヤ」と表示される、他のラベルが、様々なアプリケーションアイコンのために、任意選択的に使用される。いくつかの実施形態では、それぞれのアプリケーションアイコンに関するラベルは、それぞれのアプリケーションアイコンに対応するアプリケーションの名前を含む。いくつかの実施形態では、特定のアプリケーションアイコンのラベルは、その特定のアプリケーションアイコンに対応するアプリケーションの名前とは異なる。 Note that the icon label shown in FIG. 4A is merely an example. For example, the icon 422 for the video and music player module 152 may be labeled "Music" or "Music Player", with other labels optionally used for the various application icons. In some embodiments, the label for each application icon includes the name of the application corresponding to each application icon. In some embodiments, the label of a particular application icon is different from the name of the application that corresponds to that particular application icon.

図4Bは、ディスプレイ450(例えば、タッチスクリーンディスプレイ112)とは別個のタッチ感知面451(例えば、図3のタブレット又はタッチパッド355)を有するデバイス(例えば、図3のデバイス300)上の例示的なユーザインタフェースを示す。デバイス300はまた、任意選択的に、タッチ感知面451上の接触の強度を検出する1つ以上の接触強度センサ(例えば、センサ359のうちの1つ以上)、及び/又はデバイス300のユーザに対する触知出力を生成する1つ以上の触知出力生成器357を含む。 FIG. 4B is an example on a device (eg, device 300 of FIG. 3) having a touch sensing surface 451 (eg, tablet or touchpad 355 of FIG. 3) separate from the display 450 (eg, touch screen display 112). User interface is shown. The device 300 also optionally refers to one or more contact strength sensors (eg, one or more of the sensors 359) that optionally detect the strength of contact on the touch sensing surface 451 and / or the user of the device 300. Includes one or more tactile output generators 357 that generate tactile outputs.

以下の例のうちのいくつかは、タッチスクリーンディスプレイ112(タッチ感知面及びディスプレイが組み合わされている)上の入力を参照して与えられるが、いくつかの実施形態では、デバイスは、図4Bに示すディスプレイとは別個のタッチ感知面上の入力を検出する。いくつかの実施形態では、タッチ感知面(例えば、図4Bの451)は、ディスプレイ(例えば、450)上の1次軸(例えば、図4Bの453)に対応する1次軸(例えば、図4Bの452)を有する。これらの実施形態によれば、デバイスは、ディスプレイ上のそれぞれの場所に対応する場所(例えば、図4Bでは、460は468に対応し、462は470に対応する)で、タッチ感知面451との接触(例えば、図4Bの460及び462)を検出する。このようにして、タッチ感知面(例えば、図4Bの451)上でデバイスによって検出されるユーザ入力(例えば、接触460及び462、並びにこれらの動き)は、タッチ感知面がディスプレイとは別個であるとき、多機能デバイスのディスプレイ(例えば、図4Bの450)上のユーザインタフェースを操作するために、デバイスによって使用される。同様の方法が、本明細書に記載の他のユーザインタフェースに任意選択的に使用されることを理解されたい。 Some of the examples below are given with reference to the inputs on the touch screen display 112 (where the touch sensing surface and display are combined), but in some embodiments the device is shown in FIG. 4B. Detects inputs on the touch-sensitive surface separate from the display shown. In some embodiments, the touch sensitive surface (eg, 451 in FIG. 4B) is the primary axis (eg, FIG. 4B) corresponding to the primary axis (eg, 453 in FIG. 4B) on the display (eg, 450). 452). According to these embodiments, the device is at a location corresponding to each location on the display (eg, in FIG. 4B, 460 corresponds to 468 and 462 corresponds to 470) with the touch sensing surface 451. Contact (eg, 460 and 462 in FIG. 4B) is detected. In this way, the user input (eg, contacts 460 and 462, and their movements) detected by the device on the touch sensitive surface (eg, 451 in FIG. 4B) has the touch sensitive surface separate from the display. When used by the device to manipulate the user interface on the display of the multifunctional device (eg, 450 in FIG. 4B). It should be understood that similar methods are optionally used for the other user interfaces described herein.

加えて、以下の例は、主に指入力(例えば、指接触、指タップジェスチャ、指スワイプジェスチャ)を参照して与えられるが、いくつかの実施形態では、指入力のうちの1つ以上は、別の入力デバイスからの入力(例えば、マウスベースの入力又はスタイラス入力)に置き換えられることを理解されたい。例えば、スワイプジェスチャは、(例えば、接触の代わりの)マウスクリックに続けた、(例えば、接触の移動の代わりの)スワイプの経路に沿ったカーソルの移動によって、任意選択的に置き換えられる。別の例として、タップジェスチャは、任意選択的に、カーソルがタップジェスチャの位置の上に位置する間はマウスクリックと置き換えられる(例えば、接触を検出して、それに続いて接触の検出を停止する代わりに)。同様に、複数のユーザ入力が同時に検出されるとき、複数のコンピュータマウスが、任意選択的に、同時に使用され、又はマウス及び指の接触が、任意選択的に、同時に使用されることを理解されたい。 In addition, the following examples are given primarily with reference to finger input (eg, finger contact, finger tap gesture, finger swipe gesture), but in some embodiments, one or more of the finger inputs , It should be understood that it can be replaced by input from another input device (eg, mouse-based input or stylus input). For example, a swipe gesture is optionally replaced by a mouse click (eg, instead of a contact) followed by a cursor move along the swipe path (eg, instead of a touch move). As another example, tap gestures are optionally replaced with mouse clicks while the cursor is over the position of the tap gesture (eg, detect a contact and then stop detecting the contact). instead). Similarly, it is understood that when multiple user inputs are detected simultaneously, multiple computer mice are optionally and simultaneously used, or mouse and finger contact is optionally and simultaneously used. sea bream.

図5Aは、例示的なパーソナル電子デバイス500を示す。デバイス500は、本体502を含む。いくつかの実施形態では、デバイス500は、デバイス100及び300(例えば、図1A〜4B)に関して説明する特徴のうちのいくつか又は全てを含むことができる。いくつかの実施形態では、デバイス500は、タッチ感知ディスプレイスクリーン504、以下タッチスクリーン504を有する。タッチスクリーン504に対する別法又は追加として、デバイス500は、ディスプレイ及びタッチ感知面を有する。デバイス100及び300と同様に、いくつかの実施形態では、タッチスクリーン504(又はタッチ感知面)は、任意選択的に、加えられている接触(例えば、タッチ)の強度を検出する1つ以上の強度センサを含む。タッチスクリーン504(又はタッチ感知面)の1つ以上の強度センサは、タッチの強度を表す出力データを提供することができる。デバイス500のユーザインタフェースは、タッチの強度に基づいてタッチに応答することができ、これは、異なる強度のタッチが、デバイス500上で異なるユーザインタフェース動作を呼び出すことができることを意味する。 FIG. 5A shows an exemplary personal electronic device 500. The device 500 includes a main body 502. In some embodiments, the device 500 can include some or all of the features described for the devices 100 and 300 (eg, FIGS. 1A-4B). In some embodiments, the device 500 comprises a touch-sensitive display screen 504, hereafter touch screen 504. Alternatively or in addition to the touch screen 504, the device 500 has a display and a touch sensitive surface. Similar to devices 100 and 300, in some embodiments, the touch screen 504 (or touch-sensitive surface) is optionally one or more to detect the intensity of the contact (eg, touch) being applied. Includes strength sensor. One or more intensity sensors on the touch screen 504 (or touch sensing surface) can provide output data representing the intensity of the touch. The user interface of the device 500 can respond to touches based on the intensity of the touch, which means that touches of different intensities can call different user interface actions on the device 500.

タッチ強度を検出及び処理する例示的な技法は、例えば、それぞれ全体として参照により本明細書に組み込まれている、国際特許第WO/2013/169849号として公開された、2013年5月8日出願の国際特許出願第PCT/US2013/040061号、「Device,Method,and Graphical User Interface for Displaying User Interface Objects Corresponding to an Application」、及び国際特許第WO/2014/105276号として公開された、2013年11月11日出願の国際特許出願第PCT/US2013/069483号、「Device,Method,and Graphical User Interface for Transitioning Between Touch Input to Display Output Relationships」という関連出願に見られる。 Exemplary techniques for detecting and processing touch intensities are, for example, published as International Patent No. WO / 2013/169849, each incorporated herein by reference in its entirety, filed May 8, 2013. International Patent Application No. PCT / US2013 / 040061, "Device, Method, and Graphical User Interface for Displaying User Interface Objects Correspending to an Application", and International Patent No. 13/20/11 Publication No. 13/20/11 WO International Patent Application No. PCT / US2013 / 069483 filed on March 11, "Device, Method, and Graphical User Interface for Transitioning Between Touch Input to Display Related Application".

いくつかの実施形態では、デバイス500は、1つ以上の入力機構506及び508を有する。入力機構506及び508は、含まれる場合、物理的機構とすることができる。物理的入力機構の例としては、プッシュボタン及び回転可能機構が挙げられる。いくつかの実施形態では、デバイス500は、1つ以上のアタッチメント機構を有する。そのようなアタッチメント機構は、含まれる場合、例えば帽子、アイウェア、イアリング、ネックレス、シャツ、ジャケット、ブレスレット、腕時計のバンド、チェーン、ズボン、ベルト、靴、財布、バックパックなどにデバイス500を取り付けることを可能にすることができる。これらのアタッチメント機構は、ユーザがデバイス500を着用することを可能にする。 In some embodiments, the device 500 has one or more input mechanisms 506 and 508. The input mechanisms 506 and 508, if included, can be physical mechanisms. Examples of physical input mechanisms include pushbuttons and rotatable mechanisms. In some embodiments, the device 500 has one or more attachment mechanisms. Such attachment mechanisms, if included, attach the device 500 to, for example, hats, eyewear, earrings, necklaces, shirts, jackets, bracelets, watch bands, chains, trousers, belts, shoes, purses, backpacks, etc. Can be made possible. These attachment mechanisms allow the user to wear the device 500.

図5Bは、例示的なパーソナル電子デバイス500を示す。いくつかの実施形態では、デバイス500は、図1A、図1B、及び図3に関して説明した構成要素のうちのいくつか又は全てを含むことができる。デバイス500は、I/Oセクション514を1つ以上のコンピュータプロセッサ516及びメモリ518に動作可能に結合するバス512を有する。I/Oセクション514は、ディスプレイ504に接続することができ、ディスプレイ504は、タッチ感知構成要素522と、任意選択的に強度センサ524(例えば、接触強度センサ)とを有することができる。加えて、I/Oセクション514は、Wi−Fi、Bluetooth、近距離通信(NFC)、セルラー、及び/又は他の無線通信技法を使用してアプリケーション及びオペレーティングシステムデータを受信する通信ユニット530に接続することができる。デバイス500は、入力機構506及び/又は508を含むことができる。入力機構506は、任意選択的に、例えば回転可能入力デバイス又は押下可能及び回転可能入力デバイスである。いくつかの例では、入力機構508は、任意選択的にボタンである。 FIG. 5B shows an exemplary personal electronic device 500. In some embodiments, the device 500 may include some or all of the components described with respect to FIGS. 1A, 1B, and 3. The device 500 has a bus 512 that operably couples the I / O section 514 to one or more computer processors 516 and memory 518. The I / O section 514 can be connected to the display 504, which can optionally have a touch sensing component 522 and an intensity sensor 524 (eg, a contact intensity sensor). In addition, I / O section 514 connects to a communication unit 530 that receives application and operating system data using Wi-Fi, Bluetooth, Near Field Communication (NFC), cellular, and / or other wireless communication techniques. can do. The device 500 can include an input mechanism 506 and / or 508. The input mechanism 506 is optionally, for example, a rotatable input device or a pushable and rotatable input device. In some examples, the input mechanism 508 is optionally a button.

いくつかの例では、入力機構508は、任意選択的にマイクロフォンである。パーソナル電子デバイス500は、任意選択的に、GPSセンサ532、加速度計534、方向センサ540(例えば、コンパス)、ジャイロスコープ536、動きセンサ538、及び/又はこれらの組み合わせなどの様々なセンサを含み、これらのセンサは全て、I/Oセクション514に動作可能に接続することができる。 In some examples, the input mechanism 508 is optionally a microphone. The personal electronic device 500 optionally includes various sensors such as a GPS sensor 532, an accelerometer 534, a direction sensor 540 (eg, a compass), a gyroscope 536, a motion sensor 538, and / or a combination thereof. All of these sensors can be operably connected to the I / O section 514.

パーソナル電子デバイス500のメモリ518は、コンピュータ実行可能命令を記憶する1つ以上の非一時的コンピュータ可読記憶媒体を含むことができ、コンピュータ実行可能命令は、1つ以上のコンピュータプロセッサ516によって行われると、例えば、プロセス700、900、1100、1300、1500、1700、1900、2000、2100、2300、2500、2700、2800、3000、3200、3400、3600、及び3800を含む後述する技術をコンピュータプロセッサに実行させることができる。コンピュータ可読記憶媒体は、命令実行システム、装置、又はデバイスによって使用するための、又は命令実行システム、装置、又はデバイスに接続されているコンピュータ実行可能命令を、有形に含み又は記憶することができる任意の媒体とすることができる。いくつかの例では、記憶媒体は、一時的コンピュータ可読記憶媒体である。いくつかの例では、記憶媒体は、非一時的コンピュータ可読記憶媒体である。非一時的コンピュータ可読記憶媒体は、それだけに限定されるものではないが、磁気、光学、及び/又は半導体記憶装置を含むことができる。そのような記憶装置の例としては、磁気ディスク、CD、DVD、又はBlu−ray(登録商標)技術に基づく光学ディスク、並びにフラッシュ、ソリッドステートドライブなどの常駐ソリッドステートメモリなどが挙げられる。パーソナル電子デバイス500は、図5Bの構成要素及び構成に限定されるものではなく、他の又は追加の構成要素を複数の構成で含むことができる。 The memory 518 of the personal electronic device 500 may include one or more non-temporary computer-readable storage media for storing computer executable instructions, the computer executable instructions being made by one or more computer processors 516. , For example, performing the techniques described below on a computer processor, including processes 700, 900, 1100, 1300, 1500, 1700, 1900, 2000, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3400, 3600, and 3800. Can be made to. A computer-readable storage medium can tangibly contain or store computer-executable instructions for use by an instruction execution system, device, or device, or attached to an instruction execution system, device, or device. Can be used as a medium. In some examples, the storage medium is a temporary computer-readable storage medium. In some examples, the storage medium is a non-temporary computer-readable storage medium. Non-temporary computer-readable storage media can include, but are not limited to, magnetic, optical, and / or semiconductor storage devices. Examples of such storage devices include magnetic disks, CDs, DVDs, or optical disks based on Blu-ray® technology, as well as resident solid state memories such as flash and solid state drives. The personal electronic device 500 is not limited to the components and components of FIG. 5B, and may include other or additional components in a plurality of components.

本明細書では、「アフォーダンス」という用語は、任意選択的にデバイス100、300、及び/又は500(図1A、図3、及び図5A〜5B)のディスプレイスクリーン上に表示されるユーザ対話グラフィカルユーザインタフェースオブジェクトを指す。例えば、画像(例えば、アイコン)、ボタン、及び文字(例えば、ハイパーリンク)はそれぞれ、意選択的に、アフォーダンスを構成する。 As used herein, the term "affordance" is optionally displayed on the display screens of devices 100, 300, and / or 500 (FIGS. 1A, 3, and 5A-5B). Refers to an interface object. For example, images (eg, icons), buttons, and characters (eg, hyperlinks) each optionally constitute an affordance.

本明細書で使用される「フォーカスセレクタ」という用語は、ユーザが対話しているユーザインタフェースの現在の部分を示す入力要素を指す。カーソル又は他の場所マーカを含むいくつかの実装形態では、カーソルが「フォーカスセレクタ」として作用し、したがってカーソルが特定のユーザインタフェース要素(例えば、ボタン、ウインドウ、スライダ、又は他のユーザインタフェース要素)の上に位置する間に、タッチ感知面(例えば、図3のタッチパッド355又は図4Bのタッチ感知面451)上で入力(例えば、押下入力)が検出されたとき、特定のユーザインタフェース要素が、検出された入力に従って調整される。タッチスクリーンディスプレイ上のユーザインタフェース要素との直接対話を有効化するタッチスクリーンディスプレイ(例えば、図1Aのタッチ感知ディスプレイシステム112又は図4Aのタッチスクリーン112)を含むいくつかの実装形態では、タッチスクリーン上の検出された接触が「フォーカスセレクタ」として作用し、したがってタッチスクリーンディスプレイ上の特定のユーザインタフェース要素(例えば、ボタン、ウインドウ、スライダ、又は他のユーザインタフェース要素)の場所で入力(例えば、接触による押下入力)が検出されたとき、特定のユーザインタフェース要素が、検出された入力に従って調整される。いくつかの実装形態では、タッチスクリーンディスプレイ上の対応するカーソルの動き又は接触の動き(例えば、フォーカスを1つのボタンから別のボタンへ動かすためにタブキー又は矢印キーを使用することによる)なく、フォーカスがユーザインタフェースの1つの領域からユーザインタフェースの別の領域へ動かされ、これらの実装形態では、フォーカスセレクタは、ユーザインタフェースの種々の領域間でのフォーカスの移動に従って移動する。フォーカスセレクタがとる特有の形態にかかわらず、フォーカスセレクタは、概して、ユーザインタフェース要素(又はタッチスクリーンディスプレイ上の接触)であり、ユーザの意図する対話をユーザインタフェースによって通信するように、ユーザによって制御される(例えば、ユーザが対話することを意図しているユーザインタフェースの要素をデバイスに示すことによる)。例えば、タッチ感知面(例えば、タッチパッド又はタッチスクリーン)上で押圧入力が検出されている間の、対応のボタンの上のフォーカスセレクタ(例えば、カーソル、接触、又は選択ボックス)の位置は、その対応のボタンを(そのデバイスのディスプレイ上に示される他のユーザインタフェース要素ではなく)アクティブ化することをユーザが意図していることを示すものである。 As used herein, the term "focus selector" refers to an input element that indicates the current part of the user interface with which the user is interacting. In some embodiments that include a cursor or other location marker, the cursor acts as a "focus selector" and thus the cursor is of a particular user interface element (eg, a button, window, slider, or other user interface element). When an input (eg, a press input) is detected on a touch-sensitive surface (eg, touchpad 355 in FIG. 3 or touch-sensitive surface 451 in FIG. 4B) while located above, a particular user interface element Adjusted according to the detected input. In some embodiments, including a touch screen display that enables direct interaction with user interface elements on the touch screen display (eg, the touch sensitive display system 112 of FIG. 1A or the touch screen 112 of FIG. 4A), on the touch screen. Detected contact acts as a "focus selector" and is therefore input at the location of a particular user interface element (eg, a button, window, slider, or other user interface element) on the touch screen display (eg, by contact). When a press input) is detected, a particular user interface element is adjusted according to the detected input. In some embodiments, focus without the corresponding cursor movement or touch movement on the touch screen display (eg, by using the tab key or arrow keys to move the focus from one button to another). Is moved from one area of the user interface to another area of the user interface, and in these embodiments, the focus selector moves according to the movement of focus between the various areas of the user interface. Regardless of the particular form the focus selector takes, the focus selector is generally a user interface element (or contact on a touchscreen display) and is controlled by the user to communicate the user's intended interaction through the user interface. (For example, by showing the device an element of the user interface that the user intends to interact with). For example, the position of the focus selector (eg, cursor, touch, or selection box) on the corresponding button while the press input is being detected on the touch sensitive surface (eg, touchpad or touchscreen) is its position. It indicates that the user intends to activate the corresponding button (rather than the other user interface elements shown on the device's display).

本明細書及び特許請求の範囲で使用される、接触の「特性強度」という用語は、接触の1つ以上の強度に基づく、その接触の特性を指す。いくつかの実施形態では、特性強度は複数の強度サンプルに基づく。特性強度は、任意選択的に、既定の数の強度サンプル、すなわち、既定のイベント(例えば、接触を検出した後、接触のリフトオフを検出する前、接触の移動の開始を検出する前若しくは後、接触の終了を検出する前、接触の強度の増大を検出する前若しくは後、及び/又は、接触の強度の減少を検出する前若しくは後の)に関連する既定の期間(例えば、0.05、0.1、0.2、0.5、1、2、5、10秒)の間に収集された強度サンプルのセットに基づく。接触の特性強度は、任意選択的に、接触の強度の最大値、接触の強度の平均(mean)値、接触の強度の平均(average)値、接触の強度の上位10パーセンタイル値、接触の強度の最大の2分の1の値、接触の強度の最大の90パーセントの値などのうちの1つ以上に基づいている。いくつかの実施形態では、特性強度を特定する際に(例えば、特性強度が経時的な接触の強度の平均であるときに)、接触の持続期間が使用される。いくつかの実施形態では、特性強度は、ユーザによって操作が実行されたかどうかを判定するために、1つ以上の強度閾値のセットと比較される。例えば、1組の1つ以上の強度閾値は、任意選択的に、第1の強度閾値及び第2の強度閾値を含む。この例では、第1の閾値を超過しない特性強度を有する接触は、第1の動作をもたらし、第1の強度閾値を超過するが第2の強度閾値を超過しない特性強度を有する接触は、第2の動作をもたらし、第2の閾値を超過する特性強度を有する接触は、第3の動作をもたらす。いくつかの実施形態では、特性強度と1つ以上の閾値との間の比較は、第1の動作を実行するべきか、それとも第2の動作を実行するべきかを判定するために使用されるのではなく、1つ以上の動作を実行するべきか否か(例えば、それぞれの動作を実行するべきか、それともそれぞれの動作を実行するのを取り止めるべきか)を判定するために使用される。 As used herein and in the claims, the term "characteristic strength" of a contact refers to the characteristic of the contact based on one or more strengths of the contact. In some embodiments, the characteristic intensity is based on multiple intensity samples. The characteristic intensity is optionally a predetermined number of intensity samples, i.e., a predetermined event (eg, after detecting a contact, before detecting a lift-off of a contact, before or after detecting the start of movement of a contact, A predetermined period (eg, 0.05, before or after detecting the end of contact, before or after detecting an increase in contact strength, and / or before or after detecting a decrease in contact strength). Based on a set of intensity samples collected between 0.1, 0.2, 0.5, 1, 2, 5, 10 seconds). The contact characteristic strengths are optionally the maximum value of the contact strength, the average value of the contact strength, the average value of the contact strength, the top 10 percentile values of the contact strength, and the contact strength. It is based on one or more of the maximum half value of, the maximum 90% value of contact strength, and so on. In some embodiments, the duration of contact is used in identifying the property strength (eg, when the property strength is the average of the contact strengths over time). In some embodiments, the characteristic intensity is compared to one or more sets of intensity thresholds to determine if the operation was performed by the user. For example, a set of one or more intensity thresholds optionally includes a first intensity threshold and a second intensity threshold. In this example, a contact having a characteristic strength that does not exceed the first threshold results in a first action, and a contact that exceeds the first intensity threshold but does not exceed the second intensity threshold is the first. A contact having a characteristic strength that results in a second action and exceeds the second threshold results in a third action. In some embodiments, the comparison between the characteristic intensity and one or more thresholds is used to determine whether the first action should be performed or the second action should be performed. Rather than, it is used to determine whether one or more actions should be performed (eg, whether each action should be performed or whether each action should be stopped).

図5Cは、複数の強度センサ524A〜524Dによってタッチ感知ディスプレイスクリーン504上で複数の接触552A〜552Eを検出することを示す。図5Cは、追加として、強度単位に対する強度センサ524A〜524Dの現在の強度測定値を示す強度ダイアグラムを含む。この例では、強度センサ524A及び524Dの強度測定値はそれぞれ9強度単位であり、強度センサ524B及び524Cの強度測定値はそれぞれ7強度単位である。いくつかの実装形態では、集約強度は、複数の強度センサ524A〜524Dの強度測定値の和であり、この例では32強度単位である。いくつかの実施形態では、各接触に、集約強度の一部分であるそれぞれの強度が割り当てられる。図5Dは、力の中心554からの距離に基づいて、集約強度を接触552A〜552Eに割り当てることを示す。この例では、接触552A、552B、及び552Eのそれぞれに、集約強度の8強度単位の接触の強度が割り当てられ、接触552C及び552Dのそれぞれに、集約強度の4強度単位の接触の強度が割り当てられる。より一般的には、一部の実装例では、各接触jは、所定の数学関数Ij=A・(Dj/ΣDi)に従って、合計の強度Aの一部分である、それぞれの強度Ijが割り当てられ、ここで、Djは、力の中心からそれぞれの接触jまでの距離であり、ΣDiは、力の中心から全てのそれぞれ接触(例えば、i=1から最後まで)までの距離の和である。図5C〜図5Dを参照して説明した動作は、デバイス100、300又は500と類似若しくは同一の電子デバイスを使用して行うことができる。いくつかの実施形態では、接触の特性強度は、接触の1つ以上の強度に基づいている。いくつかの実施形態では、強度センサは、単一の特性強度(例えば、単一の接触の単一の特性強度)を判定するために使用される。強度ダイアグラムは、表示ユーザインタフェースの一部ではなく、読み手の助けになるように図5C〜5Dに含まれていることに留意されたい。 FIG. 5C shows that the plurality of intensity sensors 524A to 524D detect a plurality of contacts 552A to 552E on the touch-sensitive display screen 504. FIG. 5C additionally includes an intensity diagram showing the current intensity measurements of the intensity sensors 524A-524D relative to the intensity unit. In this example, the intensity measurement values of the intensity sensors 524A and 524D are 9 intensity units, respectively, and the intensity measurement values of the intensity sensors 524B and 524C are 7 intensity units, respectively. In some implementations, the aggregate strength is the sum of the strength measurements of the plurality of strength sensors 524A-524D, in this example 32 strength units. In some embodiments, each contact is assigned its own strength, which is part of the aggregate strength. FIG. 5D shows that the aggregation strength is assigned to contacts 552A-552E based on the distance from the center of force 554. In this example, contacts 552A, 552B, and 552E are each assigned a contact strength of 8 strength units of aggregate strength, and contacts 552C and 552D are each assigned a contact strength of 4 strength units of aggregate strength. .. More generally, in some implementations, each contact j is assigned its own strength Ij, which is part of the total strength A according to a given mathematical function Ij = A · (Dj / ΣDi). Here, Dj is the distance from the center of force to each contact j, and ΣDi is the sum of the distances from the center of force to all the contacts (for example, from i = 1 to the end). The operations described with reference to FIGS. 5C-5D can be performed using electronic devices similar to or identical to devices 100, 300 or 500. In some embodiments, the characteristic strength of the contact is based on the strength of one or more of the contacts. In some embodiments, the strength sensor is used to determine a single characteristic strength (eg, a single characteristic strength of a single contact). Note that the intensity diagrams are not part of the display user interface and are included in Figures 5C-5D to aid the reader.

いくつかの実施形態では、特性強度を特定する目的のために、ジェスチャの一部分が識別される。例えば、タッチ感知面は、任意選択的に、開始場所から遷移して終了場所に到達する連続するスワイプ接触を受信し、その時点で接触の強度が増大する。この例では、終了場所での接触の特性強度は、任意選択的に、スワイプ接触全体ではなく、連続するスワイプ接触の一部分のみ(例えば、スワイプ接触のうち終了場所の部分のみ)に基づいている。いくつかの実施形態では、任意選択的に、接触の特性強度を判定する前に、平滑化アルゴリズムがスワイプ接触の強度に適用される。例えば、平滑化アルゴリズムは、任意選択的に、非加重移動平均平滑化アルゴリズム、三角平滑化アルゴリズム、中央値フィルタ平滑化アルゴリズム、及び/又は指数平滑化アルゴリズムのうちの1つ以上を含む。いくつかの状況では、これらの平滑化アルゴリズムは、特性強度を特定する目的のために、スワイプ接触の強度の小幅な上昇又は降下を排除する。 In some embodiments, a portion of the gesture is identified for the purpose of identifying characteristic intensities. For example, the touch-sensitive surface optionally receives a series of swipe contacts that transition from the start location to reach the end location, at which point the strength of the contact increases. In this example, the characteristic strength of the contact at the end location is optionally based on only a portion of the continuous swipe contact (eg, only the end location portion of the swipe contact) rather than the entire swipe contact. In some embodiments, a smoothing algorithm is optionally applied to the strength of the swipe contact before determining the characteristic strength of the contact. For example, the smoothing algorithm optionally includes one or more of an unweighted moving average smoothing algorithm, a triangular smoothing algorithm, a median filter smoothing algorithm, and / or an exponential smoothing algorithm. In some situations, these smoothing algorithms eliminate a small increase or decrease in the strength of the swipe contact for the purpose of identifying characteristic intensities.

タッチ感知面上の接触の強度は、任意選択的に、接触検出強度閾値、軽い押下の強度閾値、深い押下の強度閾値、及び/又は1つ以上の他の強度閾値などの1つ以上の強度閾値に対して特徴付けられる。いくつかの実施形態では、軽い押圧強度閾値は、通常、物理マウスのボタン又はトラックパッドをクリックすることに関連付けられた動作をデバイスが実行する強度に相当する。いくつかの実施形態では、深い押圧強度閾値は、通常、物理マウスのボタン又はトラックパッドをクリックすることに関連付けられた動作とは異なる動作をデバイスが実行する強度に相当する。いくつかの実施形態では、軽い押下の強度閾値を下回る(例えば、それを下回ると接触が検出されなくなる公称接触検出強度閾値を上回る)特性強度を有する接触が検出されたとき、デバイスは、軽い押下の強度閾値又は深い押下の強度閾値に関連付けられた動作を実行することなく、タッチ感知面上の接触の動きに従ってフォーカスセレクタを動かす。一般に、特に明記しない限り、これらの強度閾値は、ユーザインタフェース図の様々なセットの間で一貫している。 The intensity of contact on the touch-sensitive surface is optionally one or more intensities, such as a contact detection intensity threshold, a light press intensity threshold, a deep press intensity threshold, and / or one or more other intensity thresholds. Characterized against the threshold. In some embodiments, the light pressure intensity threshold corresponds to the intensity with which the device typically performs the action associated with clicking a physical mouse button or trackpad. In some embodiments, the deep pressure intensity threshold corresponds to the intensity with which the device performs an action that is different from the action normally associated with clicking a physical mouse button or trackpad. In some embodiments, the device detects a light press when a contact with a characteristic intensity below the light press intensity threshold (eg, above the nominal contact detection intensity threshold at which no contact is detected) is detected. The focus selector is moved according to the movement of contact on the touch-sensitive surface without performing the action associated with the intensity threshold of or the intensity threshold of deep pressing. In general, unless otherwise stated, these intensity thresholds are consistent across different sets of user interface diagrams.

軽い押下の強度閾値を下回る強度から、軽い押下の強度閾値と深い押下の強度閾値との間の強度への、接触の特性強度の増大は、「軽い押下」の入力と呼ばれることがある。深い押下の強度閾値を下回る強度から、深い押下の強度閾値を上回る強度への、接触の特性強度の増大は、「深い押下」の入力と呼ばれることがある。接触検出強度閾値を下回る強度から、接触検出強度閾値と軽い押下の強度閾値との間の強度への、接触の特性強度の増大は、タッチ面上の接触の検出と呼ばれることがある。接触検出強度閾値を上回る強度から、接触検出強度閾値を下回る強度への、接触の特性強度の減少は、タッチ面からの接触のリフトオフの検出と呼ばれることがある。いくつかの実施形態では、接触検出強度閾値はゼロである。いくつかの実施形態では、接触検出強度閾値は、ゼロより大きい。 An increase in the characteristic intensity of contact from an intensity below the light pressing intensity threshold to an intensity between the light pressing intensity threshold and the deep pressing intensity threshold is sometimes referred to as a "light pressing" input. Increasing the characteristic intensity of contact from an intensity below the deep pressing intensity threshold to an intensity above the deep pressing intensity threshold is sometimes referred to as a "deep pressing" input. An increase in the characteristic intensity of contact from an intensity below the contact detection intensity threshold to an intensity between the contact detection intensity threshold and the light pressing intensity threshold is sometimes referred to as contact detection on the touch surface. The decrease in the characteristic strength of the contact from the strength above the contact detection strength threshold to the strength below the contact detection strength threshold is sometimes referred to as the detection of lift-off of contact from the touch surface. In some embodiments, the contact detection intensity threshold is zero. In some embodiments, the contact detection intensity threshold is greater than zero.

本明細書に記載するいくつかの実施形態では、それぞれの押下入力を含むジェスチャを検出したことに応じて、又はそれぞれの接触(若しくは複数の接触)によって実行されたそれぞれの押下入力を検出したことに応じて、1つ以上の動作が実行され、それぞれの押下入力は、押下入力強度閾値を上回る接触(又は複数の接触)の強度の増大を検出したことに少なくとも部分的に基づいて検出される。いくつかの実施形態では、それぞれの動作は、押下入力強度閾値を上回るそれぞれの接触の強度の増大(例えば、それぞれの押下入力の「ダウンストローク」)を検出したことに応じて実行される。いくつかの実施形態では、押下入力は、押下入力強度閾値を上回るそれぞれの接触の強度の増大、及びそれに続く押下入力強度閾値を下回る接触の強度の減少を含み、それぞれの動作は、それに続く押下入力閾値を下回るそれぞれの接触の強度の減少(例えば、それぞれの押下入力の「アップストローク」)を検出したことに応じて実行される。 In some embodiments described herein, each press input performed in response to the detection of a gesture containing each press input or by each contact (or multiple contacts) is detected. Depending on, one or more actions are performed, and each press input is detected at least in part based on the detection of an increase in the intensity of the contact (or multiple contacts) above the press input intensity threshold. .. In some embodiments, each action is performed in response to detecting an increase in the intensity of each contact above the press input intensity threshold (eg, a "downstroke" of each press input). In some embodiments, the press input includes an increase in the intensity of each contact above the press input intensity threshold, followed by a decrease in the intensity of the contact below the press input intensity threshold, and each action follows a subsequent press. It is executed in response to the detection of a decrease in the intensity of each contact below the input threshold (eg, the "upstroke" of each pressing input).

図5E〜5Hは、図5Eの軽い押下の強度閾値(例えば、「ITL」)を下回る強度から、図5Hの深い押下の強度閾値(例えば、「ITD」)を上回る強度への、接触562の強度の増大に対応する押下入力を含むジェスチャの検出を示す。接触562によって実行されるジェスチャは、タッチ感知面560上で検出され、所定の領域574内に表示されたアプリケーションアイコン572A〜572Dを含む表示ユーザインタフェース570上では、アプリ2に対応するアプリケーションアイコン572Bの上にカーソル576が表示される。いくつかの実施形態では、ジェスチャは、タッチ感知ディスプレイ504上に検出される。強度センサは、タッチ感知面560上の接触の強度を検出する。デバイスは、接触562の強度が深い押下の強度閾値(例えば、「ITD」)を上回ってピークに達したと判定する。接触562は、タッチ感知面560上で維持される。ジェスチャの検出に応じて、ジェスチャ中に深い押下の強度閾値(例えば、「ITD」)を上回る強度を有する接触562に従って、図5F〜5Hに示すように、アプリ2に対して最近開いた文書の縮尺が低減された表現578A〜578C(例えば、サムネイル)が表示される。いくつかの実施形態では、1つ以上の強度閾値と比較されるこの強度は、接触の特性強度である。接触562に対する強度ダイアグラムは、表示ユーザインタフェースの一部ではなく、読み手の助けになるように図5E〜5Hに含まれていることに留意されたい。 5E-5H show contact from an intensity below the light pressing intensity threshold of FIG. 5E (eg, "IT L ") to an intensity above the deep pressing intensity threshold of FIG. 5H (eg, "IT D "). The detection of a gesture including a press input corresponding to an increase in intensity of 562 is shown. The gesture performed by the contact 562 is detected on the touch sensing surface 560 and on the display user interface 570 including the application icons 572A-572D displayed in the predetermined area 574, of the application icon 572B corresponding to the application 2. The cursor 576 is displayed above. In some embodiments, the gesture is detected on the touch-sensitive display 504. The strength sensor detects the strength of the contact on the touch sensing surface 560. The device determines that the intensity of the contact 562 has peaked above the deep pressing intensity threshold (eg, "IT D"). The contact 562 is maintained on the touch sensitive surface 560. A document recently opened to app 2 as shown in FIGS. 5F-5H, according to a contact 562 having an intensity above the deep press intensity threshold (eg, "IT D") during the gesture in response to the gesture detection. Representations 578A to 578C (eg, thumbnails) with reduced scale are displayed. In some embodiments, this strength compared to one or more strength thresholds is the characteristic strength of the contact. Note that the strength diagram for contact 562 is not part of the display user interface and is included in FIGS. 5E-5H to aid the reader.

いくつかの実施形態では、表現578A〜578Cの表示は、アニメーションを含む。例えば、図5Fに示すように、表現578Aが、アプリケーションアイコン572Bに近接して最初に表示される。アニメーションが進むにつれて、図5Gに示すように、表現578Aは上方へ動き、表現578Bが、アプリケーションアイコン572Bに近接して表示される。次いで、図5Hに示すように、表現578Aが上方へ動き、表現578Bが表現578Aに向かって上方へ動き、表現578Cが、アプリケーションアイコン572Bに近接して表示される。表現578A〜578Cは、アイコン572Bの上にアレイを形成する。いくつかの実施形態では、アニメーションは、図5F〜5Gに示すように、接触562の強度に従って進行し、接触562の強度が深い押下の強度閾値(例えば、「ITD」)に向かって増大するにつれて、表現578A〜578Cが現れ、上方へ動く。いくつかの実施形態では、アニメーションの進行が基づいている強度は、接触の特性強度である。図5E〜5Hを参照して説明する動作は、デバイス100、300、又は500に類似又は同一の電子デバイスを使用して実行することができる。 In some embodiments, the display of representations 578A-578C comprises an animation. For example, as shown in FIG. 5F, representation 578A is first displayed in close proximity to the application icon 572B. As the animation progresses, representation 578A moves upwards and representation 578B is displayed in close proximity to the application icon 572B, as shown in FIG. 5G. Then, as shown in FIG. 5H, the representation 578A moves upwards, the representation 578B moves upwards towards the representation 578A, and the representation 578C is displayed in close proximity to the application icon 572B. Representations 578A-578C form an array on top of the icon 572B. In some embodiments, the animation proceeds according to the intensity of the contact 562, as shown in FIGS. 5F-5G, where the intensity of the contact 562 increases towards a deep pressing intensity threshold (eg, "IT D"). As the expressions 578A to 578C appear, they move upward. In some embodiments, the strength on which the progression of the animation is based is the characteristic strength of the contact. The operations described with reference to FIGS. 5E-5H can be performed using electronic devices similar to or identical to devices 100, 300, or 500.

いくつかの実施形態では、デバイスは、「ジッタ」と呼ばれる場合がある偶発的な入力を回避するために強度ヒステリシスを採用し、デバイスは、押圧入力強度閾値との既定の関係を有するヒステリシス強度閾値を定義又は選択する(例えば、ヒステリシス強度閾値は、押圧入力強度閾値よりも低いX強度単位であり、又はヒステリシス強度閾値は、押圧入力強度閾値の75%、90%、若しくは何らかの妥当な割合である)。したがって、いくつかの実施形態では、押下入力は、押下入力強度閾値を上回るそれぞれの接触の強度の増大、及びそれに続く押下入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少を含み、それぞれの動作は、それに続くヒステリシス強度閾値を下回るそれぞれの接触の強度の減少(例えば、それぞれの押下入力の「アップストローク」)を検出したことに応じて実行される。同様に、いくつかの実施形態では、押下入力は、デバイスが、ヒステリシス強度閾値以下の強度から押下入力強度閾値以上の強度への接触の強度の増大、及び任意選択的に、その後のヒステリシス強度以下の強度への接触の強度の減少を検出するときにのみ検出され、それぞれの動作は、押下入力(例えば、状況に応じて、接触の強度の増大又は接触の強度の減少)を検出したことに応じて実行される。 In some embodiments, the device employs intensity hysteresis to avoid accidental inputs, which may be referred to as "jitter", and the device has a hysteresis intensity threshold that has a predetermined relationship with the pressing input intensity threshold. (For example, the hysteresis intensity threshold is an X intensity unit lower than the press input intensity threshold, or the hysteresis intensity threshold is 75%, 90%, or some reasonable proportion of the press input intensity threshold. ). Thus, in some embodiments, the press input includes an increase in the intensity of each contact above the press input intensity threshold, followed by a decrease in the intensity of the contact below the hysteresis intensity threshold corresponding to the press input intensity threshold. Each action is performed in response to the detection of a subsequent decrease in the intensity of each contact below the hysteresis intensity threshold (eg, the "upstroke" of each pressing input). Similarly, in some embodiments, the press input is such that the device increases the intensity of contact from an intensity below the hysteresis intensity threshold to an intensity greater than or equal to the press input intensity threshold, and optionally below the hysteresis intensity thereafter. It was detected only when detecting a decrease in contact strength to the strength of, and each action detected a pressing input (for example, an increase in contact strength or a decrease in contact strength depending on the situation). Will be executed accordingly.

説明を容易にするために、押下入力強度閾値に関連付けられた押下入力、又は押下入力を含むジェスチャに応じて実行される動作の説明は、任意選択的に、押下入力強度閾値を上回る接触の強度の増大、ヒステリシス強度閾値を下回る強度から押下入力強度閾値を上回る強度への接触の強度の増大、押下入力強度閾値を下回る接触の強度の減少、及び/又は押下入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少のいずれかを検出したことに応じてトリガされる。更に、押圧入力強度閾値を下回る接触の強度の減少を検出したことに応じて実行されるように動作が記載される例では、動作は、任意選択的に、押圧入力強度閾値に対応し、かつそれよりも低いヒステリシス強度閾値を下回る接触の強度の減少を検出したことに応じて実行される。 For ease of explanation, the description of the press input associated with the press input intensity threshold, or the action performed in response to the gesture containing the press input, optionally describes the contact intensity above the press input intensity threshold. Increase, increase contact intensity from below the hysteresis intensity threshold to above the press input intensity threshold, decrease contact intensity below the press input intensity threshold, and / or the hysteresis intensity threshold corresponding to the press input intensity threshold. Triggered in response to any detection of a decrease in contact strength below. Further, in the example in which the operation is described so as to be executed in response to the detection of a decrease in contact intensity below the pressing input intensity threshold, the operation optionally corresponds to the pressing input intensity threshold and It is performed in response to the detection of a decrease in contact intensity below the lower hysteresis intensity threshold.

本明細書では、「インストール済みアプリケーション」は、電子デバイス(例えば、デバイス100、300、及び/又は500)上へダウンロードされ、デバイス上で起動する準備ができた(例えば、開かれた)ソフトウェアアプリケーションを指す。いくつかの実施形態では、ダウンロードされたアプリケーションは、ダウンロードされたパッケージからプログラム部分を抽出し、抽出された部分をコンピュータシステムのオペレーティングシステムと統合するインストールプログラムによって、インストール済みアプリケーションになる。 As used herein, an "installed application" is a software application that has been downloaded onto an electronic device (eg, devices 100, 300, and / or 500) and is ready to be launched on the device (eg, opened). Point to. In some embodiments, the downloaded application becomes an installed application by an installation program that extracts a program portion from the downloaded package and integrates the extracted portion with the operating system of the computer system.

本明細書では、「開いているアプリケーション」又は「実行中のアプリケーション」という用語は、保持された状態情報(例えば、デバイス/グローバル内部状態157及び/又はアプリケーション内部状態192の一部として)を有するソフトウェアアプリケーションを指す。開いている又は実行中のアプリケーションは、任意選択的に、以下のタイプのアプリケーションのうちのいずれか1つである。
●アプリケーションが使用されているデバイスのディスプレイスクリーン上に現在表示されているアクティブアプリケーション、
●現在表示されていないが、アプリケーションに対する1つ以上のプロセスが1つ以上のプロセッサによって処理されている背景アプリケーション(又は背景プロセス)、並びに
●走行していないが、メモリ(それぞれ揮発性及び不揮発性)内に記憶されており、アプリケーションの実行を再開するために使用することができる状態情報を有する中断又は休止状態アプリケーション。
As used herein, the term "open application" or "running application" has retained state information (eg, as part of device / global internal state 157 and / or application internal state 192). Refers to a software application. The open or running application is optionally one of the following types of applications:
● The active application currently displayed on the display screen of the device in which the application is used,
● Background applications (or background processes) that are not currently displayed, but one or more processes for the application are being processed by one or more processors, and ● Not running, but memory (volatile and non-volatile, respectively). Suspended or hibernated application that is stored in) and has state information that can be used to resume execution of the application.

本明細書では、「閉じているアプリケーション」という用語は、保持された状態情報を有していないソフトウェアアプリケーションを指す(例えば、閉じているアプリケーションに対する状態情報は、デバイスのメモリ内に記憶されていない)。したがって、アプリケーションを閉じることは、アプリケーションに対するアプリケーションプロセスを停止及び/又は除去し、アプリケーションに対する状態情報をデバイスのメモリから除去することを含む。概して、第1のアプリケーション中に第2のアプリケーションを開いても、第1のアプリケーションは閉じない。第2のアプリケーションが表示されており、かつ第1のアプリケーションが表示を終了されたとき、第1のアプリケーションは背景アプリケーションになる。 As used herein, the term "closed application" refers to a software application that does not have retained state information (eg, state information for a closed application is not stored in the memory of the device. ). Therefore, closing an application involves stopping and / or removing the application process for the application and removing state information for the application from the device's memory. In general, opening a second application during a first application does not close the first application. When the second application is displayed and the first application is finished displaying, the first application becomes the background application.

次に、ポータブル多機能デバイス100、デバイス300、又はデバイス500などの電子デバイス上で実施されるユーザインタフェース(「UI」)及び関連プロセスの実施形態に注意を向ける。 Next, attention is paid to embodiments of user interfaces (“UI”) and related processes implemented on electronic devices such as the portable multifunction device 100, device 300, or device 500.

図6A〜図6Vは、いくつかの実施形態による電子デバイスを使用してメディアコントロールにアクセスするための例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図7A〜図7Cにおける処理を含む、以下で説明される処理を例示するために使用される。 6A-6V show exemplary user interfaces for accessing media controls using electronic devices according to some embodiments. The user interfaces in those figures are used to illustrate the processes described below, including the processes in FIGS. 7A-7C.

図6Aは、ディスプレイの上部からディスプレイの底部まで任意選択的に延在するライブプレビュー630を表示する電子デバイス600を示す。ライブプレビュー630は、1つ以上のカメラセンサによって検出された画像に基づく。いくつかの実施形態では、デバイス600は、複数のカメラセンサを使用して画像をキャプチャし、それらを組み合わせてライブプレビュー630を表示する。いくつかの実施形態では、デバイス600は、単一のカメラセンサを使用して画像をキャプチャして、ライブプレビュー630を表示する。図6Aのカメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含み、これらは、インジケータ及びコントロールがライブプレビューと同時に表示され得るように、ライブプレビュー630上に重ねられる。カメラディスプレイ領域604は、インジケータ又はコントロールと実質的に重ならない。この例では、ライブプレビューは、対象640及び周囲環境を含む。図6Aのカメラユーザインタフェースは、インジケータ領域602とカメラディスプレイ領域604との境界部及びカメラディスプレイ領域604とコントロール領域606との境界部を示す視覚境界部608を含む。ライブプレビュー630は、デバイス600の1つ以上のカメラの(例えば、部分的な)視野の表現である。 FIG. 6A shows an electronic device 600 displaying a live preview 630 that optionally extends from the top of the display to the bottom of the display. Live preview 630 is based on images detected by one or more camera sensors. In some embodiments, the device 600 uses a plurality of camera sensors to capture images and combine them to display a live preview 630. In some embodiments, the device 600 captures an image using a single camera sensor and displays a live preview 630. The camera user interface of FIG. 6A includes an indicator area 602 and a control area 606, which are overlaid on the live preview 630 so that the indicators and controls can be displayed at the same time as the live preview. The camera display area 604 does not substantially overlap the indicator or control. In this example, the live preview includes subject 640 and the surrounding environment. The camera user interface of FIG. 6A includes a visual boundary 608 indicating a boundary between the indicator area 602 and the camera display area 604 and a boundary between the camera display area 604 and the control area 606. The live preview 630 is a representation of the (eg, partial) field of view of one or more cameras on the device 600.

図6Aに示すように、インジケータ領域602は、ライブプレビュー630上に重ねられ、任意選択的に着色された(例えば、灰色;半透明)オーバーレイを含む。インジケータ領域602は、フラッシュインジケータ602aを含む。概して、フラッシュインジケータ602aは、フラッシュがオン、オフ、又は別のモード(例えば、自動モード)であるかどうかを示す。図6Aにおいて、フラッシュインジケータ602aは、フラッシュがオフであることをユーザに示す。 As shown in FIG. 6A, the indicator area 602 includes an optionally colored (eg, gray; translucent) overlay overlaid on the live preview 630. The indicator area 602 includes a flash indicator 602a. In general, the flash indicator 602a indicates whether the flash is on, off, or in another mode (eg, automatic mode). In FIG. 6A, the flash indicator 602a indicates to the user that the flash is off.

図6Aに示すように、カメラディスプレイ領域604は、ライブプレビュー630及びズームアフォーダンス622を含む。図6Aに示すように、コントロール領域606は、ライブプレビュー630上に重ねられ、任意選択的に着色された(例えば、灰色;半透明)オーバーレイを含む。 As shown in FIG. 6A, the camera display area 604 includes a live preview 630 and a zoom affordance 622. As shown in FIG. 6A, the control area 606 includes an optionally colored (eg, gray; translucent) overlay overlaid on the live preview 630.

図6Aに示すように、コントロール領域606は、カメラモードアフォーダンス620、追加のコントロールアフォーダンス614、シャッターアフォーダンス610、及びカメラスイッチャアフォーダンス612を含む。カメラモードアフォーダンス620は、どのカメラモードが現在選択されているかを示し、ユーザがカメラモードを変更することを可能にする。図6Aにおいて、カメラモードアフォーダンス620a〜620eが表示され、「Photo」カメラモード620cは、カメラが動作している現在のモードとして太字のテキストで示される。追加のコントロールアフォーダンス614は、ユーザが追加のカメラコントロールにアクセスすることを可能にする。シャッターアフォーダンス610は、アクティブ化されると、デバイス600に、ライブプレビュー630の現在の状態及びカメラアプリケーションの現在の状態に基づいて、1つ以上のカメラセンサを使用して、メディア(例えば、写真)をキャプチャさせる。キャプチャされたメディアは、電子デバイス600にローカルに記憶されるか、及び/又は記憶のためにリモートサーバに伝送される。カメラスイッチャアフォーダンス612は、アクティブ化されると、デバイス600に、背面カメラセンサと前面カメラセンサとの間を切り替えることなどによって、ライブプレビュー630内の異なるカメラの視野を示すように切り替えさせる。 As shown in FIG. 6A, the control area 606 includes a camera mode affordance 620, an additional control affordance 614, a shutter affordance 610, and a camera switcher affordance 612. The camera mode affordance 620 indicates which camera mode is currently selected and allows the user to change the camera mode. In FIG. 6A, camera modes affordances 620a-620e are displayed, and the "photo" camera mode 620c is indicated in bold text as the current mode in which the camera is operating. Additional control affordances 614 allow the user to access additional camera controls. When the shutter affordance 610 is activated, the device 600 uses one or more camera sensors based on the current state of the live preview 630 and the current state of the camera application to media (eg, photo). To capture. The captured media is stored locally on the electronic device 600 and / or is transmitted to a remote server for storage. When activated, the camera switcher affordance 612 causes the device 600 to switch between the rear camera sensor and the front camera sensor to indicate the field of view of different cameras in the live preview 630.

図6Bでは、ユーザは、三脚アクセサリ601をデバイス600に取り付けた。その結果、デバイス600は、三脚接続条件が満たされていると判定する。三脚接続条件は、デバイスが接続された三脚を検出すると満たされ、デバイスが接続された三脚を検出しないと満たされない条件である。三脚接続条件が満たされていることに基づいて、デバイス600は、コントロール領域を更新して、追加のコントロールアフォーダンス614を拡張し、タイマーコントロールアフォーダンス614aを表示する。いくつかの実施形態では、デバイス600は、タイマーコントロールアフォーダンス614aに向けられた入力が受信されないとき、所定の期間が経過した後に、タイマーコントロールアフォーダンス614aの表示を停止する。 In FIG. 6B, the user has attached the tripod accessory 601 to the device 600. As a result, the device 600 determines that the tripod connection condition is satisfied. The tripod connection condition is a condition that is satisfied when the device detects a connected tripod and is not satisfied unless the device detects a connected tripod. Based on the tripod connection condition being met, the device 600 updates the control area to extend the additional control affordance 614 to display the timer control affordance 614a. In some embodiments, the device 600 stops displaying the timer control affordance 614a after a predetermined period of time when no input directed to the timer control affordance 614a is received.

図6Aに戻ると、デバイス600は、三脚アクセサリ601が取り付けられていない。その結果、デバイス600は、三脚接続条件が満たされていないと判定する。図6Aでは、三脚接続条件が満たされていることに基づいて、デバイス600は、タイマーコントロールアフォーダンス614aを表示しない。 Returning to FIG. 6A, the device 600 is not fitted with the tripod accessory 601. As a result, the device 600 determines that the tripod connection condition is not satisfied. In FIG. 6A, the device 600 does not display the timer control affordance 614a based on the tripod connection condition being met.

図6Bでは、デバイス600は、タッチ感知面を使用して、タイマーコントロールアフォーダンス614aの表示に対応する場所でのタップジェスチャ650aを検出する。図6Cに示すように、タップジェスチャ650aを検出したことに応答して、デバイス600は、カメラディスプレイ領域604の境界(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトアップし、それにより、インジケータ領域602の高さを低減し、コントロール領域606の高さを増加させる。インジケータ領域602の高さの低減に加えて、デバイス600は、フラッシュインジケータ602aの表示を停止する。いくつかの実施形態では、デバイス600は、インジケータ領域602が高さ低減モードにある間にインジケータ領域602内の任意のインジケータの表示を停止する。コントロール領域606の高さを増加させることに加えて、デバイス600は、カメラモードアフォーダンス620の表示を、調整可能なタイマーコントロールアフォーダンス634a〜634dを含む調整可能なタイマーコントロール634に置き換える。調整可能なタイマーコントロールアフォーダンス634a〜634dは、アクティブ化されると、シャッターアフォーダンス610がアクティブ化されたときにメディアをキャプチャするための遅延を変更する(又は変更するためのプロセスを開始した)。例えば、調整可能なタイマーコントロールアフォーダンス634aは、アクティブ化されると、遅延時間を0秒に設定し、調整可能なタイマーコントロールアフォーダンス634bは、アクティブ化されると、遅延を3秒に設定する。図6Cでは、デバイス600はまた、ズームアフォーダンス622をもはや表示していない。 In FIG. 6B, the device 600 uses the touch-sensitive surface to detect the tap gesture 650a at a location corresponding to the display of the timer control affordance 614a. As shown in FIG. 6C, in response to detecting the tap gesture 650a, the device 600 shifts up the boundary of the camera display area 604 (while maintaining the same size and aspect ratio) and the visual boundary 608. Thereby, the height of the indicator area 602 is reduced and the height of the control area 606 is increased. In addition to reducing the height of the indicator area 602, the device 600 stops displaying the flash indicator 602a. In some embodiments, the device 600 stops displaying any indicator in the indicator area 602 while the indicator area 602 is in height reduction mode. In addition to increasing the height of the control area 606, the device 600 replaces the display of the camera mode affordance 620 with an adjustable timer control 634 that includes adjustable timer control affordances 634a-634d. Adjustable timer control affordances 634a-634d, when activated, change (or initiate a process to change) the delay for capturing media when the shutter affordance 610 is activated. For example, the adjustable timer control affordance 634a sets the delay time to 0 seconds when activated, and the adjustable timer control affordance 634b sets the delay to 3 seconds when activated. In FIG. 6C, the device 600 also no longer displays the zoom affordance 622.

図6Cでは、デバイス600は、タッチ感知面を使用して、調整可能なタイマーコントロールアフォーダンス634dに対応する場所でのタップジェスチャ650bを検出する。図6Dに示すように、タップジェスチャ650bを検出したことに応答して、デバイス600は、調整可能なタイマーコントロール634を更新して、「OFF」がもはや選択されておらず、「10S」が現在は選択されていることを(例えば、太字、ハイライトにより)を示す。加えて、デバイス600は、シャッターアフォーダンス610がアクティブ化されたときに、メディアをキャプチャするために、10秒のセルフタイマー遅延を設定する。いくつかの実施形態では、更に、タップジェスチャ650bを検出したことに応答して、及び追加のユーザ入力を受信することなく、デバイス600は、タップジェスチャ650bを検出した後の所定の期間の後に、調整可能なタイマーコントロール634の表示を停止する。 In FIG. 6C, the device 600 uses a touch-sensitive surface to detect a tap gesture 650b at a location corresponding to an adjustable timer control affordance 634d. As shown in FIG. 6D, in response to detecting the tap gesture 650b, the device 600 updates the adjustable timer control 634 so that "OFF" is no longer selected and "10S" is now. Indicates that it is selected (eg, in bold, highlighted). In addition, the device 600 sets a 10 second self-timer delay to capture the media when the shutter affordance 610 is activated. In some embodiments, the device 600 further, in response to detecting the tap gesture 650b, and without receiving additional user input, after a predetermined period of time after the device 600 has detected the tap gesture 650b. Stops the display of the adjustable timer control 634.

図6Dでは、調整可能なタイマーコントロール634が表示され、かつインジケータ領域602が高さ低減モードにある間に、デバイス600は、タッチ感知面を使用して、追加のコントロールアフォーダンス614に対応する場所でのタップジェスチャ650cを検出する。図6Eに示すように、タップジェスチャ650cを検出したことに応答して、デバイス600は、カメラディスプレイ領域604の境界(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトダウンし、それにより、インジケータ領域602の高さを増加させ、コントロール領域606の高さを低減させる。インジケータ領域602の高さを増加させることに加えて、デバイス600は、コントロール領域606内にフラッシュインジケータ602aを再表示する。いくつかの実施形態では、インジケータ領域602が高さ低減モードにないとき(例えば、インジケータがインジケータ領域602内に表示されているとき)、デバイス600は、インジケータ領域602内に(状態(オン、オフ、自動)にかかわらず)フラッシュインジケータ602aを表示する。コントロール領域606の高さを減少させることに加えて、デバイス600は、調整可能なタイマーコントロール634の表示を、カメラモードアフォーダンス620に置き換える。更に、デバイス600は、カメラディスプレイ領域604内にズームアフォーダンス610を再表示する。セルフタイマー機能がアクティブ化されている結果(例えば、0秒よりも大きい遅延に設定されている)として、デバイス600は、インジケータ領域602内にタイマー状態インジケータ602bを表示する。フラッシュインジケータ602aと同様に、タイマー状態インジケータ602bは、セルフタイマーの状態のインジケーションが提供される。図6Eの例では、タイマー状態インジケータ602bは、セルフタイマー遅延が10秒に設定されていることを示す。いくつかの実施形態では、タイマー状態インジケータ602bは、セルフタイマー遅延が無効化されている(又は0秒に設定されている)ときには表示されない。いくつかの実施形態では、(例えば、タップジェスチャオン)タイマー状態インジケータ602bのアクティブ化により、デバイス600に、セルフタイマー遅延を変更するための様々なオプションを、調整可能なタイマーコントロール634内などに表示させる。 In FIG. 6D, while the adjustable timer control 634 is displayed and the indicator area 602 is in height reduction mode, the device 600 uses the touch sensitive surface at the location corresponding to the additional control affordance 614. Detects tap gesture 650c. As shown in FIG. 6E, in response to detecting the tap gesture 650c, the device 600 shifts down the boundary of the camera display area 604 (while maintaining the same size and aspect ratio) and the visual boundary 608. As a result, the height of the indicator area 602 is increased and the height of the control area 606 is decreased. In addition to increasing the height of the indicator area 602, the device 600 redisplays the flash indicator 602a within the control area 606. In some embodiments, when the indicator area 602 is not in height reduction mode (eg, when the indicator is displayed in the indicator area 602), the device 600 is in the indicator area 602 (state (on, off)). , Automatic) Regardless of) Flash indicator 602a is displayed. In addition to reducing the height of the control area 606, the device 600 replaces the display of the adjustable timer control 634 with a camera mode affordance 620. Further, the device 600 redisplays the zoom affordance 610 within the camera display area 604. As a result of the self-timer function being activated (eg, set to a delay greater than 0 seconds), the device 600 displays a timer status indicator 602b within the indicator area 602. Like the flash indicator 602a, the timer status indicator 602b provides self-timer status indications. In the example of FIG. 6E, the timer status indicator 602b indicates that the self-timer delay is set to 10 seconds. In some embodiments, the timer status indicator 602b is not displayed when the self-timer delay is disabled (or set to 0 seconds). In some embodiments, activation of the timer status indicator 602b (eg, tap gesture) causes the device 600 to display various options for changing the self-timer delay, such as in an adjustable timer control 634. Let me.

図6Eでは、(例えば、タップジェスチャオン)シャッターアフォーダンス610のアクティブ化により、デバイス600に、フラッシュ(フラッシュインジケータ602aによって示されるような)なしで、かつ10秒のセルフタイマー遅延(タイマー状態インジケータ602bによって示されるような)を備えること含む、デバイスの現在の状態に基づいて、メディア(例えば、画像、一連の画像)のキャプチャを開始させる。いくつかの実施形態では、図8A〜図8Vに関して更に詳細に説明されるように、デバイス600は、インジケータ(indictor)領域602及びコントロール領域606に示されるように、ライブプレビュー630に対応する視覚コンテンツ(及び任意選択的に追加の視覚コンテンツ)を含む。 In FIG. 6E, activation of the shutter affordance 610 (eg, tap gesture) causes the device 600 to have a self-timer delay of 10 seconds (by timer state indicator 602b) without flash (as indicated by flash indicator 602a). Initiate a capture of media (eg, an image, a series of images) based on the current state of the device, including including (as shown). In some embodiments, as described in more detail with respect to FIGS. 8A-8V, the device 600 corresponds to the visual content corresponding to the live preview 630, as shown in the indicator area 602 and the control area 606. (And optionally additional visual content).

図6Fでは、デバイス600のカメラ機能は、ライブプレビュー630に示すように、低光環境で使用される。低光環境にある間は、デバイス600は、1つ以上のカメラセンサ、周辺光センサ、及び/又は環境照明条件を検出する追加のセンサを使用して、低光条件が満たされていると判定する(例えば、環境照明条件が閾値(例えば、10ルクス)を下回り、かつフラッシュが有効化されていないことをデバイス600が検出すると満たされ、環境照明条件が閾値を下回らないか、又はフラッシュが有効化(オン又は自動)されていることをデバイスが検出すると満たされない条件)。図6Fにおいて、低光条件が満たされているという判定に従って、デバイス600は、インジケータ領域602内に低光モード状態インジケータ602cを(例えば、追加のユーザ入力を必要とせずに)表示する。加えて、図6F〜図6Gに示すように、低光条件が満たされているという判定に従って、デバイス600は、インジケータ領域606内に低光モードコントロールアフォーダンス614b及びフラッシュコントロールアフォーダンス614cを(例えば、追加のユーザ入力を必要とせずに)表示する。いくつかの実施形態では、デバイス600は、1つのアフォーダンスを他のアフォーダンスに置き換えることによって、インジケータ領域606内に低光モードコントロールアフォーダンス614bの表示とフラッシュコントロールアフォーダンス614cの表示との間で(例えば、所定の回数)サイクルする。いくつかの実施形態では、低光モードコントロールアフォーダンス614b及びフラッシュコントロールアフォーダンス614cは、インジケータ領域606内に同時に表示される。いくつかの実施形態では、低光モードコントロールアフォーダンス614b及びフラッシュコントロールアフォーダンス614cのそれぞれが、異なる照明条件(例えば、異なる周辺光レベル)に対応し、アフォーダンスは、それらの対応する照明条件が満たされているときに、コントロール領域606内に表示される(及び、それらの対応する照明条件が満たされているときに表示されない)。いくつかの例では、第1の照明条件は、環境照明条件が第1の閾値(例えば、20ルクス)を下回ることをデバイス600が検出すると満たされ、第2の照明条件は、環境照明条件が第2の閾値(例えば、10ルクス)を下回ることをデバイス600が検出すると満たされる。いくつかの実施形態では、照明条件は、デバイス600によって検出された環境光の量、及び任意選択的に、フラッシュが有効化されているかどうかに基づく。デバイス600は、任意選択的に、インジケータに対応する機能(例えば、照明強調機能)が使用可能である場合(対応する機能が有効化されているか又は無効化されているかどうかにかかわらず)、低光モード状態インジケータ602cを表示する。 In FIG. 6F, the camera function of the device 600 is used in a low light environment, as shown in the live preview 630. While in a low light environment, the device 600 uses one or more camera sensors, an ambient light sensor, and / or an additional sensor to detect ambient lighting conditions to determine that the low light conditions are met. (For example, when the device 600 detects that the ambient lighting condition is below the threshold (eg, 10 lux) and the flash is not enabled, it is satisfied and the ambient lighting condition is not below the threshold or the flash is enabled. Conditions that are not met when the device detects that it is turned on (on or automatic). In FIG. 6F, according to the determination that the low light condition is satisfied, the device 600 displays the low light mode state indicator 602c in the indicator area 602 (eg, without requiring additional user input). In addition, as shown in FIGS. 6F-6G, according to the determination that the low light condition is satisfied, the device 600 adds a low light mode control affordance 614b and a flash control affordance 614c (eg, additional) within the indicator area 606. Display (without requiring user input). In some embodiments, the device 600 replaces one affordance with another affordance in the indicator area 606 between the display of the low light mode control affordance 614b and the display of the flash control affordance 614c (eg,). Cycle (predetermined number of times). In some embodiments, the low light mode control affordances 614b and flash control affordances 614c are simultaneously displayed within the indicator area 606. In some embodiments, the low light mode control affordances 614b and the flash control affordances 614c each correspond to a different lighting condition (eg, a different peripheral light level), and the affordance is satisfied with those corresponding lighting conditions. When present, it is displayed within the control area 606 (and not when their corresponding lighting conditions are met). In some examples, the first lighting condition is satisfied when the device 600 detects that the environmental lighting condition is below the first threshold (eg, 20 lux), and the second lighting condition is that the environmental lighting condition is It is satisfied when the device 600 detects that it falls below a second threshold (eg, 10 lux). In some embodiments, the illumination conditions are based on the amount of ambient light detected by the device 600 and, optionally, whether the flash is enabled. The device 600 is optionally low when a function corresponding to the indicator (eg, a lighting enhancement function) is available (whether the corresponding function is enabled or disabled). The light mode status indicator 602c is displayed.

対照的に、図6A〜図6Eにおいて、低光条件が満たされていないとデバイス600が判定することに従って、デバイス600は、低光モードコントロールアフォーダンス614b、低光モード状態インジケータ602c、及び低光モード状態インジケータ602cを、それらの対応するカメラユーザインタフェース内に表示するのをやめる。いくつかの実施形態では、デバイス600は、インジケータに対応する機能(例えば、照明強調機能)が使用可能でない場合、インジケータ領域602内に低光モード状態インジケータ602cを表示しない。 In contrast, in FIGS. 6A-6E, according to the device 600 determining that the low light condition is not met, the device 600 has a low light mode control affordance 614b, a low light mode state indicator 602c, and a low light mode. Stop displaying status indicators 602c within their corresponding camera user interface. In some embodiments, the device 600 does not display the low light mode state indicator 602c within the indicator area 602 if the function corresponding to the indicator (eg, the illumination enhancement function) is not available.

図6Gに戻ると、デバイス600は、タッチ感知面を使用して、フラッシュコントロールアフォーダンス614cに対応する場所でのタップジェスチャ650dを検出する。図6Hに示すように、タップジェスチャ650dを検出したことに応答して、デバイス600は、カメラディスプレイ領域604の境界(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトアップし、それにより、インジケータ領域602の高さを減少させ、コントロール領域606の高さを増加させる。インジケータ領域602の高さを減少させることに加えて、デバイス600は、コントロール領域606内のフラッシュインジケータ602aの表示を停止する。いくつかの実施形態では、インジケータ領域602が高さ低減モードにあるときであっても、デバイス600は、インジケータ領域602内に(状態(オン、オフ、自動)にかかわらず)フラッシュインジケータ602aの表示を続行する。コントロール領域606の高さを増加させることに加えて、デバイス600は、カメラモードアフォーダンス620の表示を、調整可能なフラッシュコントロール662に置き換える。調整可能なフラッシュコントロール662は、フラッシュオンコントロール662a及びフラッシュオフコントロール662bを含む。デバイス600は、例えば、フラッシュオフコントロール662b内の「OFF」を強調(例えば、太字、ハイライト)することにより、フラッシュがオフ状態にあることを示す。いくつかの実施形態では、デバイス600はまた、カメラディスプレイ領域604内のズームアフォーダンス610の表示を停止する。いくつかの実施形態では、デバイス600は、カメラディスプレイ領域604内のズームアフォーダンス610の表示を維持する。 Returning to FIG. 6G, the device 600 uses the touch-sensitive surface to detect the tap gesture 650d at the location corresponding to the flash control affordance 614c. As shown in FIG. 6H, in response to detecting the tap gesture 650d, the device 600 shifts up the boundary of the camera display area 604 (while maintaining the same size and aspect ratio) and the visual boundary 608. , Thereby reducing the height of the indicator area 602 and increasing the height of the control area 606. In addition to reducing the height of the indicator area 602, the device 600 stops displaying the flash indicator 602a in the control area 606. In some embodiments, the device 600 displays the flash indicator 602a (regardless of state (on, off, automatic)) within the indicator area 602, even when the indicator area 602 is in height reduction mode. To continue. In addition to increasing the height of the control area 606, the device 600 replaces the display of the camera mode affordance 620 with an adjustable flash control 662. The adjustable flash control 662 includes a flash-on control 662a and a flash-off control 662b. The device 600 indicates that the flash is in the off state, for example by highlighting (eg, bold, highlighting) "OFF" in the flash off control 662b. In some embodiments, the device 600 also stops displaying the zoom affordance 610 within the camera display area 604. In some embodiments, the device 600 maintains a display of the zoom affordance 610 within the camera display area 604.

図6Hでは、デバイス600は、タッチ感知面を使用して、フラッシュオンコントロール662aに対応する場所でのタップジェスチャ650eを検出する。図6Iに示すように、タップジェスチャ650bを検出したことに応答して、デバイス600は、調整可能なフラッシュコントロール662を更新して、「OFF」(フラッシュオフコントロール662bに対応)がもはや選択されておらず、「ON」(フラッシュオンコントロール662aに対応)が現在は選択されていることを(例えば、太字、ハイライトにより)を示す。 In FIG. 6H, the device 600 uses the touch-sensitive surface to detect the tap gesture 650e at a location corresponding to the flash-on control 662a. As shown in FIG. 6I, in response to detecting the tap gesture 650b, the device 600 updates the adjustable flash control 662 and "OFF" (corresponding to the flash off control 662b) is no longer selected. It indicates that "ON" (corresponding to flash-on control 662a) is currently selected (eg, in bold, highlighted).

いくつかの実施形態では、更に、タップジェスチャ650eを検出したことに応答して、及び追加のユーザ入力を受信することなく、デバイス600は、タップジェスチャ650eを検出した後の所定の期間の後に、更新された調整可能なフラッシュコントロール662の表示を停止し、図6Iに示すユーザインタフェースに遷移する。具体的には、デバイス600は、カメラディスプレイ領域604の境界(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトダウンし、それにより、インジケータ領域602の高さを増加させ、コントロール領域606の高さを低減させる(図6Hのユーザインタフェースと比較して)。インジケータ領域602の高さを増加させることに加えて、デバイス600は、コントロール領域606内にフラッシュインジケータ602a(現在、フラッシュが有効化されていることを示す)を再表示する。コントロール領域606の高さを減少させることに加えて、デバイス600は、調整可能なフラッシュコントロール662の表示を、カメラモードアフォーダンス620に置き換える。更に、デバイス600は、カメラディスプレイ領域604内にズームアフォーダンス610を再表示する。図6Jでは、低光条件が満たされ続けているという判定に従って、デバイス600は、コントロール領域606内にフラッシュコントロールアフォーダンス614cを(例えば、追加のユーザ入力を必要とせずに)表示する。図6Jでは、低光条件はもはや満たされず(例えば、フラッシュがオンであるため)、その結果、低光モード状態インジケータ602cは、図18A〜図18Xに関してより詳細に説明されるように、インジケータ領域602内にもはや表示されない。 In some embodiments, the device 600 further, in response to detecting the tap gesture 650e, and without receiving additional user input, after a predetermined period of time after the device 600 has detected the tap gesture 650e. The display of the updated adjustable flash control 662 is stopped, and the transition to the user interface shown in FIG. 6I is performed. Specifically, the device 600 shifts down the boundaries of the camera display area 604 (while maintaining the same size and aspect ratio) and the visual boundary 608, thereby increasing the height of the indicator area 602. The height of the control area 606 is reduced (compared to the user interface of FIG. 6H). In addition to increasing the height of the indicator area 602, the device 600 redisplays the flash indicator 602a (indicating that flash is currently enabled) within the control area 606. In addition to reducing the height of the control area 606, the device 600 replaces the display of the adjustable flash control 662 with a camera mode affordance 620. Further, the device 600 redisplays the zoom affordance 610 within the camera display area 604. In FIG. 6J, according to the determination that the low light condition continues to be satisfied, the device 600 displays the flash control affordance 614c within the control area 606 (eg, without the need for additional user input). In FIG. 6J, the low light condition is no longer met (eg, because the flash is on), so that the low light mode state indicator 602c is an indicator area as described in more detail with respect to FIGS. 18A-18X. It is no longer displayed within 602.

図6Jでは、デバイス600は、タッチ感知面を使用して、追加のコントロールアフォーダンス614に対応する場所でのタップジェスチャ650fを検出する。図6Kに示すように、タップジェスチャ650fを検出したことに応答して、デバイス600は、カメラディスプレイ領域604の境界(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトアップし、それにより、インジケータ領域602の高さを減少させ、コントロール領域606の高さを増加させる。インジケータ領域602の高さを減少させることに加えて、デバイス600は、コントロール領域606内のフラッシュインジケータ602aの表示を停止する。インジケータ領域602の高さの低減に加えて、デバイス600は、フラッシュインジケータ602aの表示を停止する。コントロール領域606の高さを増加させることに加えて、デバイス600は、カメラモードアフォーダンス620の表示を、第1の1組のカメラ設定アフォーダンス626a〜626eを含むカメラ設定アフォーダンス626に置き換える。カメラ設定アフォーダンス626a〜626eは、アクティブ化されると、カメラ設定を変更する(又は変更するためのプロセスを開始する)。例えば、アフォーダンス626aは、アクティブ化されると、フラッシュをオン/オフし、アフォーダンス626dは、アクティブ化されると、セルフ遅延タイマー(シャッター時間としても知られる)を設定するプロセスを開始する。 In FIG. 6J, the device 600 uses the touch sensitive surface to detect the tap gesture 650f at a location corresponding to the additional control affordance 614. As shown in FIG. 6K, in response to detecting the tap gesture 650f, the device 600 shifts up the boundary of the camera display area 604 (while maintaining the same size and aspect ratio) and the visual boundary 608. , Thereby reducing the height of the indicator area 602 and increasing the height of the control area 606. In addition to reducing the height of the indicator area 602, the device 600 stops displaying the flash indicator 602a in the control area 606. In addition to reducing the height of the indicator area 602, the device 600 stops displaying the flash indicator 602a. In addition to increasing the height of the control area 606, the device 600 replaces the display of the camera mode affordance 620 with a camera setting affordance 626 that includes a first set of camera setting affordances 626a-626e. Camera settings affordances 626a-626e change (or initiate a process for changing) camera settings when activated. For example, affordance 626a turns the flash on and off when activated, and affordance 626d initiates the process of setting a self-delay timer (also known as shutter time) when activated.

図6Kでは、デバイス600は、タッチ感知面を使用して、アニメーション化された画像コントロールアフォーダンス626bに対応する場所(コントロール領域606内)でのタップジェスチャ650gを検出する。図6Lでは、タップジェスチャ650gを検出したことに応答して、デバイス600は、アニメーション化された画像コントロールアフォーダンス626bの表示を拡張して、調整可能なアニメーション化された画像コントロール664を表示し、これは、アクティブ化されると(例えば、タップにより)、デバイスが単一の画像又は既定の数の画像をキャプチャするかどうかを構成する、複数のアフォーダンス664a〜664bを含む。図6Lでは、アニメーション化された画像コントロールオフオプション664bが強調され(例えば、太字化される)、シャッターアフォーダンス610のアクティブ化が、既定の数の画像ではなく単一の画像をキャプチャすることを示す。 In FIG. 6K, the device 600 uses the touch-sensitive surface to detect 650 g of tap gesture at a location (within the control area 606) corresponding to the animated image control affordance 626b. In FIG. 6L, in response to detecting tap gesture 650g, device 600 extends the display of the animated image control affordance 626b to display an adjustable animated image control 664. Includes a plurality of affordances 664a-664b that, when activated (eg, by tapping), configure whether the device captures a single image or a predetermined number of images. In FIG. 6L, the animated image control off option 664b is highlighted (eg, bolded) to show that activation of the shutter affordance 610 captures a single image instead of the default number of images. ..

図6Lでは、デバイス600は、タッチ感知面を使用して、アニメーション化された画像コントロールアフォーダンス626bに対応する場所(コントロール領域606内)でのタップジェスチャ650hを検出する。図6Mでは、タップジェスチャ650gを検出したことに応答して、デバイス600は、調整可能なアニメーション化された画像コントロール664を更新して、アニメーション化された画像コントロールオフオプション664bの強調を停止し、代わりに、(例えば、「ON」を太字化することによって)オプション664a上のアニメーション化された画像コントロールを強調する。更に、タップジェスチャ650hを検出したことに応答して、デバイス600は、シャッターアフォーダンス610のアクティブ化(例えば、タップオン)が検出されると、既定の数の画像をキャプチャするようにカメラを構成する。 In FIG. 6L, the device 600 uses the touch-sensitive surface to detect a tap gesture 650h at a location (within the control area 606) corresponding to the animated image control affordance 626b. In FIG. 6M, in response to detecting tap gesture 650g, device 600 updates the adjustable animated image control 664 to stop highlighting the animated image control off option 664b. Instead, it emphasizes the animated image control on option 664a (eg, by bolding "ON"). Further, in response to detecting the tap gesture 650h, the device 600 configures the camera to capture a predetermined number of images when the activation of the shutter affordance 610 (eg, tap-on) is detected.

いくつかの実施形態では、更に、タップジェスチャ650hを検出したことに応答して、及び追加のユーザ入力を受信することなく、デバイス600は、タップジェスチャ650hを検出した後の所定の期間の後に、更新された調整可能なアニメーション化された画像コントロール664の表示を停止し、図6Nに示すユーザインタフェースに遷移する。いくつかの実施形態では、タッチ感知面を使用して、カメラディスプレイ領域606内のライブプレビュー630に対応する場所での下スワイプジェスチャ650iを検出したことに応答して、デバイス600は、図6Nに示すユーザインタフェースを表示するように遷移する。 In some embodiments, the device 600 further, in response to detecting the tap gesture 650h, and without receiving additional user input, after a predetermined period of time after the device 600 has detected the tap gesture 650h. Stops the display of the updated adjustable animated image control 664 and transitions to the user interface shown in FIG. 6N. In some embodiments, the device 600 is shown in FIG. 6N in response to detecting the lower swipe gesture 650i at a location corresponding to the live preview 630 within the camera display area 606 using the touch sensitive surface. Transition to display the indicated user interface.

図6M〜図6Nのユーザインタフェースから遷移する際、デバイス600は、カメラディスプレイ領域604の境界(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトダウンし、それにより、インジケータ領域602の高さを増加させ、コントロール領域606の高さを低減させる(図6Mのユーザインタフェースと比較して)。インジケータ領域602の高さを増加させることに加えて、デバイス600は、フラッシュが有効化されていることを示す、フラッシュインジケータ602aを再表示し、カメラがコントロール領域606内の既定の数の画像(上述のように)をキャプチャすることを示す、アニメーション化された画像状態インジケータ602dを更に表示する。コントロール領域606の高さを減少させることに加えて、デバイス600は、調整可能なアニメーション化された画像コントロール664の表示を、カメラモードアフォーダンス620に置き換える。更に、デバイス600は、カメラディスプレイ領域604内にズームアフォーダンス610を再表示する。図6Nでは、低光条件が満たされ続けているという判定に従って、デバイス600は、コントロール領域606内にフラッシュコントロールアフォーダンス614cを(例えば、追加のユーザ入力を必要とせずに)表示する。 Upon transitioning from the user interface of FIGS. 6M-6N, the device 600 shifts down the boundaries of the camera display area 604 (while maintaining the same size and aspect ratio) and the visual boundary 608, thereby the indicator area. Increase the height of 602 and decrease the height of control area 606 (compared to the user interface of FIG. 6M). In addition to increasing the height of the indicator area 602, the device 600 redisplays the flash indicator 602a, indicating that the flash is enabled, and the camera displays a predetermined number of images in the control area 606 ( It further displays an animated image status indicator 602d indicating that it captures) (as described above). In addition to reducing the height of the control area 606, the device 600 replaces the display of the adjustable animated image control 664 with a camera mode affordance 620. Further, the device 600 redisplays the zoom affordance 610 within the camera display area 604. In FIG. 6N, according to the determination that the low light condition continues to be satisfied, the device 600 displays a flash control affordance 614c (eg, without additional user input) within the control area 606.

図6Nでは、カメラフラッシュが有効化され、かつアニメーション化された画像コントロールが有効化されている間に、デバイス600は、タッチ感知面を使用して、シャッターアフォーダンス610に対応する場所でのタップジェスチャ650jを検出する。タップジェスチャ650jを検出したことに応答して、デバイス600は、ライブプレビュー630の現在の状態及びカメラ設定に基づいて、メディア(例えば、既定の数の画像)をキャプチャする。キャプチャされたメディアは、デバイス600にローカルに記憶されるか、及び/又は記憶のためにリモートサーバに伝送される。更に、図6Oに示すようにタップジェスチャ650jを検出したことに応答して、デバイス600は、(例えば、追加のコントロールアフォーダンス614の表示を部分的に又は完全に置き換えることによって)メディアコレクション624を表示し、コレクションの上に新たにキャプチャされたメディアの表現を含む。図6Oの例では、メディアコレクション624は、新たにキャプチャされたメディアの表現のみを含み、他のメディアの表現を含まない。シャッターアフォーダンス610がアクティブ化されたときにカメラフラッシュが有効化されていたため、新たにキャプチャされたメディアは、フラッシュを用いてキャプチャされた。シャッターアフォーダンス610がアクティブ化されたときにアニメーション化された画像コントロールが有効化されていたため、新たにキャプチャされたメディアは、既定の数の画像(例えば、静止画像及びビデオ)を含む。 In FIG. 6N, while the camera flash is enabled and the animated image control is enabled, the device 600 uses the touch sensitive surface to make a tap gesture at the location corresponding to the shutter affordance 610. 650j is detected. In response to detecting the tap gesture 650j, the device 600 captures media (eg, a predetermined number of images) based on the current state of the live preview 630 and the camera settings. The captured media is stored locally on the device 600 and / or is transmitted to a remote server for storage. Further, in response to detecting the tap gesture 650j as shown in FIG. 6O, the device 600 displays the media collection 624 (eg, by partially or completely replacing the display of the additional control affordance 614). And include a newly captured representation of the media on top of the collection. In the example of FIG. 6O, the media collection 624 contains only representations of the newly captured media and does not include representations of other media. The newly captured media was captured using the flash because the camera flash was enabled when the shutter affordance 610 was activated. The newly captured media includes a predetermined number of images (eg, still images and video) because the animated image control was enabled when the shutter affordance 610 was activated.

図6Oでは、デバイス600は、タッチ感知面を使用して、メディアコレクション624に対応する場所でのタップジェスチャ650kを検出する。図6Pに示すようにタップジェスチャ650kを検出したことに応答して、デバイス600は、ライブプレビュー630の表示を停止し、代わりに、新たにキャプチャされたメディアの表現642を含む写真ビューワユーザインタフェースを表示する。キャプチャされたメディアは、フラッシュを有効化してキャプチャされたため、新たにキャプチャされたメディアの表現642は、シャッターアフォーダンス610がアクティブ化されたときに表示されたライブプレビュー630のビューよりも明るい(フラッシュがアクティブ化されたため)。キャプチャされたメディアの表示表現642は、画像が撮影されたときにカメラディスプレイ領域604内に表示されたライブプレビュー630の視覚コンテンツを含むが、インジケータ領域602及びコントロール領域606内に表示されたライブプレビュー630の視覚コンテンツを含まない。デバイス600がキャプチャされたメディアを再生するとき、再生には、一連の画像がキャプチャされたときにカメラディスプレイ領域604内に表示されたライブプレビュー630の視覚コンテンツの視覚的再生を含むが、インジケータ領域602及びコントロール領域606内に表示されたライブプレビュー630の視覚コンテンツを含まない(また、記録中にライブプレビュー630内に表示されなかったが、キャプチャされたメディアを記憶する部分として任意選択的に保存された記録された視覚コンテンツも含まない)。いくつかの実施形態では、図10A〜図10Kに関して更に説明されるように、キャプチャされたメディアの記録中にインジケータ領域602及びコントロール領域606内に表示されたライブプレビュー630の視覚コンテンツは、保存されたメディアに記憶される。 In FIG. 6O, the device 600 uses the touch-sensitive surface to detect the tap gesture 650k at a location corresponding to the media collection 624. In response to detecting the tap gesture 650k as shown in FIG. 6P, the device 600 stops displaying the live preview 630 and instead provides a photo viewer user interface containing a representation 642 of the newly captured media. indicate. Because the captured media was captured with flash enabled, the newly captured media representation 642 is brighter than the live preview 630 view that was displayed when the shutter affordance 610 was activated (the flash is). Because it was activated). The display representation 642 of the captured media includes the visual content of the live preview 630 displayed in the camera display area 604 when the image was taken, but the live preview displayed in the indicator area 602 and the control area 606. Does not include 630 visual content. When the device 600 plays the captured media, the playback includes a visual playback of the visual content of the live preview 630 displayed within the camera display area 604 when the series of images was captured, but in the indicator area. Does not include the visual content of the live preview 630 displayed in the 602 and control area 606 (and was not displayed in the live preview 630 during recording, but is optionally saved as a portion to store the captured media. Does not include recorded visual content). In some embodiments, the visual content of the live preview 630 displayed within the indicator area 602 and the control area 606 during recording of the captured media is preserved, as further described with respect to FIGS. 10A-10K. It is stored in the media.

図6Pでは、デバイス600は、新たにキャプチャされたメディアの表現642と、新たにキャプチャされたメディアを編集するための編集アフォーダンス644aと、新たにキャプチャされたメディアを伝送するための送信アフォーダンス644bと、新たにキャプチャされたメディアをお気に入りのメディアとしてマーキングするためのお気に入りアフォーダンス644cと、新たにキャプチャされたメディアを削除するためのごみ箱アフォーダンス644dと、ライブプレビュー630の表示に戻るための戻るアフォーダンス644eと、を同時に表示する。デバイス600は、アニメーション化された画像コントロールが有効化されている間に表示されたメディアがキャプチャされたと判定し、それに応じて、アニメーション化された画像状態インジケータ644fを表示する。 In FIG. 6P, the device 600 includes a representation of the newly captured media 642, an edit affordance 644a for editing the newly captured media, and a transmit affordance 644b for transmitting the newly captured media. , Favorite affordance 644c to mark newly captured media as favorite media, Recycle Bin affordance 644d to delete newly captured media, and Return affordance 644e to return to live preview 630 display. , Are displayed at the same time. The device 600 determines that the displayed media was captured while the animated image control was enabled, and displays the animated image status indicator 644f accordingly.

図6Pでは、デバイス600は、タッチ感知面を使用して、戻るアフォーダンス644eに対応する場所でのタップジェスチャ650lを検出する。図6Qに示すようにタップジェスチャ650lを検出したことに応答して、デバイス600は、新たにキャプチャされたメディアの表現642を含む写真ビューワユーザインタフェースの表示を、ライブプレビュー630を含むカメラユーザインタフェースの表示に置き換える。 In FIG. 6P, the device 600 uses the touch-sensitive surface to detect 650 l of tap gestures at a location corresponding to the returning affordance 644e. In response to detecting tap gesture 650l as shown in FIG. 6Q, device 600 displays a photo viewer user interface display including a newly captured media representation 642 of the camera user interface including live preview 630. Replace with display.

図6Qでは、デバイス600は、タッチ感知面を使用して、カメラポートレートモードアフォーダンス620dに対応する場所でのタップジェスチャ650mを検出する。図6Rでは、タップジェスチャ650mを検出したことに応答して、デバイス600は、インジケータ領域602内の訂正された1組のインジケータ、更新されたライブプレビュー630、及び更新されたコントロール領域606を表示する。訂正された1組のインジケータは、以前に表示されたアニメーション化された画像状態インジケータ602dを表示することなく(例えば、新たに選択されたモードは、アニメーション化された画像状態インジケータ602dに対応する機能と不適合であるため)、以前に表示されたフラッシュインジケータ602a及び新たに表示されたf値インジケータ602eを含む(例えば、新たに選択されたモードは、フラッシュインジケータ602a及びf値インジケータ602eに対応する機能と互換性があるため)。いくつかの実施形態では、f値インジケータ602eは、f値(例えば、数値)のインジケーションを提供する。図6Tにおいて、ズームアフォーダンス622は、左にシフトすると、照明効果コントロール628(アクティブ化されると、照明効果を変更することができる)がカメラディスプレイ領域604内に表示される。いくつかの実施形態では、カメラディスプレイ領域604のサイズ、アスペクト比、及び場所は、図6Rと図6Qで同一である。図6Rの更新されたライブプレビュー630は、図6Qのライブプレビュー630と比較して、異なる視覚効果を提供する。例えば、更新されたライブプレビュー630は、ボケ効果及び/又は照明効果を提供するのに対し、図6Qのライブプレビュー630は、ボケ効果及び/又は照明効果を提供しない。いくつかの実施形態では、カメラモード(写真モード対ポートレートモード)の変更により、ライブプレビュー630内のオブジェクトのズームは変化する。いくつかの実施形態では、カメラモード(写真モード対ポートレートモード)の変更にかかわらず、ライブプレビュー630内のオブジェクトのズームは変化しない。照明効果コントロール628の自然光選択によって示すように、ライブプレビューは、対象の環境内の自然光を使用して対象640を表示しており、照明効果を適用しない。照明効果コントロール628を使用して、メディアをキャプチャする際に使用/適用される照明効果のレベル(及びタイプ)を調整することができる。いくつかの実施形態では、照明効果の調整はまた、ライブプレビュー630に反映される。 In FIG. 6Q, the device 600 uses the touch sensing surface to detect a tap gesture 650 m at a location corresponding to the camera portrait mode affordance 620d. In FIG. 6R, in response to detecting the tap gesture 650 m, the device 600 displays a corrected set of indicators in the indicator area 602, an updated live preview 630, and an updated control area 606. .. The corrected set of indicators does not display the previously displayed animated image status indicator 602d (eg, the newly selected mode is a feature corresponding to the animated image status indicator 602d). (Because it is incompatible with), including the previously displayed flash indicator 602a and the newly displayed f-number indicator 602e (for example, the newly selected mode is a function corresponding to the flash indicator 602a and the f-number indicator 602e). Because it is compatible with). In some embodiments, the f-number indicator 602e provides f-number (eg, numerical) indications. In FIG. 6T, when the zoom affordance 622 is shifted to the left, the lighting effect control 628 (when activated, the lighting effect can be changed) is displayed within the camera display area 604. In some embodiments, the size, aspect ratio, and location of the camera display area 604 are the same in FIGS. 6R and 6Q. The updated live preview 630 of FIG. 6R provides a different visual effect as compared to the live preview 630 of FIG. 6Q. For example, the updated live preview 630 provides a bokeh effect and / or a lighting effect, whereas the live preview 630 of FIG. 6Q does not provide a bokeh effect and / or a lighting effect. In some embodiments, changing the camera mode (photo mode vs. portrait mode) changes the zoom of the objects in the live preview 630. In some embodiments, the zoom of the object in the live preview 630 does not change regardless of the change in camera mode (photo mode vs. portrait mode). As shown by the natural light selection of the lighting effect control 628, the live preview uses the natural light in the target environment to display the target 640 and does not apply the lighting effect. Lighting effect control 628 can be used to adjust the level (and type) of lighting effect used / applied when capturing media. In some embodiments, the adjustment of the lighting effect is also reflected in the live preview 630.

図6Rでは、デバイス600は、タッチ感知面を使用して、照明効果コントロール628に対応する場所での左スワイプジェスチャ650nを検出して、スタジオ照明効果を選択する。図6Sでは、左スワイプジェスチャ650nを検出したことに応答して、デバイス600は、照明効果コントロール628を更新して、スタジオ照明効果が選択されることを示し、ライブプレビュー630の表示を更新して、スタジオ照明効果を含み、それにより、スタジオ照明効果を使用してキャプチャされたメディアがどのように見えるかの表現をユーザに提供する。デバイス600はまた、インジケータ領域602内に照明状態インジケータ602fを表示する。照明状態インジケータ602fは、メディアをキャプチャする際に使用/適用される照明効果の現在値のインジケーションを含む。図6Sでは、光調整条件(例えば、カメラがポートレートモードにあるか、又は別の方法で照明効果を変化させることができると満たされる条件)が満たされているという判定に従って、デバイス600は、コントロール領域606内に照明コントロールアフォーダンス614dを(例えば、追加のコントロールアフォーダンス614を拡張することによって、追加のユーザ入力を必要とせずに)表示する。 In FIG. 6R, the device 600 uses the touch sensitive surface to detect a left swipe gesture 650n at a location corresponding to the lighting effect control 628 and select a studio lighting effect. In FIG. 6S, in response to detecting the left swipe gesture 650n, the device 600 updates the lighting effect control 628 to indicate that the studio lighting effect is selected and updates the display of the live preview 630. , Includes studio lighting effects, thereby providing the user with an expression of what the media captured using the studio lighting effects will look like. The device 600 also displays the illumination status indicator 602f within the indicator area 602. The illumination status indicator 602f includes an indication of the current value of the illumination effect used / applied when capturing the media. In FIG. 6S, according to the determination that the light adjustment condition (eg, the condition that the camera is in portrait mode or that the lighting effect can be changed in another way) is met, the device 600 The lighting control affordance 614d is displayed within the control area 606 (eg, by extending the additional control affordance 614, without requiring additional user input).

図6Sでは、デバイス600は、タッチ感知面を使用して、照明コントロールアフォーダンス614dに対応する場所でのタップジェスチャ650oを検出する。図6Tでは、タップジェスチャ650oを検出したことに応答して、デバイス600は、カメラモードアフォーダンス620の表示を、調整可能な照明効果コントロール666に置き換え、現在の照明効果値(例えば、800ルクス)のインジケーション(例えば、カメラディスプレイ領域604内)を提供する。いくつかの実施形態では、インジケータ領域602内のインジケータの表示は維持される。いくつかの実施形態では、タップジェスチャ650oによって、インジケータ(indictor)領域602内にインジケータの表示が停止される(例えば、上述のように、カメラディスプレイ領域606の境界をシフトすること、及びインジケータ(indictor)領域602及びコントロール領域606をリサイズすることによって)。 In FIG. 6S, the device 600 uses the touch sensitive surface to detect the tap gesture 650o at a location corresponding to the illumination control affordance 614d. In FIG. 6T, in response to detecting the tap gesture 650o, the device 600 replaces the display of the camera mode affordance 620 with an adjustable lighting effect control 666 of the current lighting effect value (eg, 800 lux). Indications (eg, within the camera display area 604) are provided. In some embodiments, the display of the indicator within the indicator area 602 is maintained. In some embodiments, the tap gesture 650o stops the display of the indicator within the indicator area 602 (eg, shifting the boundaries of the camera display area 606, as described above, and the indicator. ) By resizing the area 602 and the control area 606).

図6Tでは、調整可能な照明効果コントロール666を表示している間に、デバイス600は、タッチ感知面を使用して、調整可能な照明効果コントロール666に対応する場所でのスワイプジェスチャ650pを検出して、照明効果値を低減する。図6Uでは、スワイプジェスチャ650oを検出したことに応答して、デバイス600は、照明効果値をより低くし、これはライブプレビュー630に反映され、より暗くなり、インジケーション(例えば、カメラディスプレイ領域604内)を更新された照明効果値(例えば、600ルクス)に更新し、インジケータ領域602内の照明状態インジケータ602fを更新して、更新された照明効果値を反映する。 In FIG. 6T, while displaying the adjustable lighting effect control 666, the device 600 uses the touch sensitive surface to detect the swipe gesture 650p at the location corresponding to the adjustable lighting effect control 666. And reduce the lighting effect value. In FIG. 6U, in response to detecting the swipe gesture 650o, the device 600 lowers the lighting effect value, which is reflected in the live preview 630 and becomes darker and the indication (eg, camera display area 604). (Inside) is updated to the updated lighting effect value (for example, 600 lux), and the lighting state indicator 602f in the indicator area 602 is updated to reflect the updated lighting effect value.

図6Uでは、調整可能な照明効果コントロール666が表示される(かつ任意選択的に、インジケータ領域602が高さ低減モードにある)間に、デバイス600は、タッチ感知面を使用して、追加のコントロールアフォーダンス614に対応する場所でのタップジェスチャ650qを検出する。図6Vに示すように、タップジェスチャ650qを検出したことに応答して、デバイス600は、調整可能な照明効果コントロール666の表示を、カメラモードアフォーダンス620の表示に置き換える。いくつかの実施形態では、カメラディスプレイ領域606の境界がシフトアップし、インジケータ(indictor)領域602及びコントロール領域606がサイズ変更された場合、デバイス600は、カメラディスプレイ領域604の境界(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトダウンして戻り、それにより、インジケータ領域602の高さを増加させ、コントロール領域606の高さを低減させる。デバイス600はまた、カメラディスプレイ領域604内の照明効果値のインジケーションの表示を停止するが、任意選択的に、照明効果コントロール628の表示を維持する。 In FIG. 6U, while the adjustable lighting effect control 666 is displayed (and optionally the indicator area 602 is in height reduction mode), the device 600 uses a touch sensitive surface to provide additional Detects tap gesture 650q at a location corresponding to control affordance 614. As shown in FIG. 6V, in response to detecting the tap gesture 650q, the device 600 replaces the display of the adjustable lighting effect control 666 with the display of the camera mode affordance 620. In some embodiments, if the boundaries of the camera display area 606 are shifted up and the indicator area 602 and the control area 606 are resized, the device 600 will see the boundaries of the camera display area 604 (same size and (While maintaining the aspect ratio) and the visual boundary 608 are downshifted back, thereby increasing the height of the indicator area 602 and decreasing the height of the control area 606. The device 600 also stops displaying the indication of the lighting effect value in the camera display area 604, but optionally maintains the display of the lighting effect control 628.

図7A〜図7Cは、いくつかの実施形態による電子デバイスを使用してメディアコントロールにアクセスするための方法を示すフロー図である。方法700は、表示デバイス及び1つ以上のカメラ(例えば、電子デバイスの異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を備えるデバイス(例えば、100、300、500、600)で行われる。方法700のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 7A-7C are flow diagrams illustrating methods for accessing media controls using electronic devices according to some embodiments. Method 700 has one or more cameras (eg, dual cameras, triple cameras, quad cameras, etc.) on display devices and one or more cameras (eg, different sides of the electronic device (eg, front camera, rear camera)). This is done on a device that includes (eg, 100, 300, 500, 600). Some actions of method 700 are optionally combined, some actions are arbitrarily modified in order, and some actions are optionally omitted.

後述するように、方法700は、メディアコントロールにアクセスするための直感的な仕方を提供する。この方法は、メディアコントロールにアクセスする際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアコントロールにアクセスすることを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, Method 700 provides an intuitive way to access media controls. This method reduces the cognitive burden on the user when accessing media controls, thereby creating a more efficient human-machine interface. For battery-powered computing devices, it saves power and prolongs the time between battery charges by enabling users to access media controls faster and more efficiently.

電子デバイス(例えば、600)は、表示デバイスを介して、カメラユーザインタフェースを表示する(702)。カメラユーザインタフェースは、1つ以上のカメラの視野の表現(例えば、630)を含むカメラディスプレイ領域(例えば、606)を含む(704)。 The electronic device (eg, 600) displays the camera user interface via the display device (702). The camera user interface includes a camera display area (eg, 606) that includes a representation of the field of view of one or more cameras (eg, 630) (704).

カメラユーザインタフェースはまた、複数のカメラ設定(例えば、フラッシュ、タイマー、フィルタ効果、f値、アスペクト比、ライブフォトなど)を制御する(例えば、カメラモードを変更する)(例えば、写真を撮影する)(例えば、異なるカメラ(例えば、前面から背面)をアクティブ化する複数のコントロールアフォーダンス(例えば、620、626)(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、プロアクティブコントロールアフォーダンス、シャッターアフォーダンス、カメラ選択アフォーダンス、複数のカメラモードアフォーダンス)を含むカメラコントロール領域(例えば、606)を含む(706)。カメラコントロール領域内の複数のカメラ設定を制御する複数のコントロールアフォーダンスを提供することにより、ユーザが、複数のカメラ設定を迅速かつ容易にかつ変更及び/又は管理することを可能にする。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 The camera user interface also controls multiple camera settings (eg, flash, timer, filter effect, f-value, aspect ratio, live photo, etc.) (eg, changing camera mode) (eg, taking a photo). (For example, multiple control affordances (eg, 620, 626) that activate different cameras (eg, front to back) (eg, selectable user interface objects) (eg, proactive control affordance, shutter affordance, camera selection affordance). Includes a camera control area (eg, 606) that includes a plurality of camera mode accommodations) (706). By providing a plurality of control accommodations that control a plurality of camera settings within the camera control area, the user can perform a plurality of. Allows you to change and / or manage camera settings quickly and easily. The additional controller displayed enhances device usability by providing additional control options without cluttering the UI. Make the user-device interface more efficient (eg, by assisting the user in providing proper input when manipulating / interacting with the device and reducing user error), and in addition, the user By enabling the device to be used faster and more efficiently, the device's power usage is reduced and battery life is improved.

第1の既定の条件及び第2の既定の条件(例えば、デバイスの環境内の環境条件)(例えば、電子デバイスが暗い環境にある)(例えば、電子デバイスが三脚上にある)(例えば、電子デバイスが低光モードにある)(例えば、電子デバイスが特定のカメラモードにある)が満たされない間に、電子デバイス(例えば、600)は、第1の既定の条件に関連付けられた第1のコントロールアフォーダンス(例えば、602b、602c)(例えば、選択可能ユーザインタフェースオブジェクト)を表示することなく、かつ第2の既定の条件に関連付けられた第2のコントロールアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)を表示することなく、カメラユーザインタフェースを表示する(708)。 A first default condition and a second default condition (eg, environmental conditions within the device's environment) (eg, the electronic device is in a dark environment) (eg, the electronic device is on a tripod) (eg, electronic While the device is in low light mode (eg, the electronic device is in a particular camera mode) is not met, the electronic device (eg, 600) is the first control associated with the first default condition. Display second control affordances (eg, selectable user interface objects) associated with a second default condition without displaying affordances (eg, 602b, 602c) (eg, selectable user interface objects). Display the camera user interface without doing (708).

第1のコントロールアフォーダンスを表示することなく、かつ第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示している間に、電子デバイス(例えば、600)は、条件の変化を検出する(710)。 While displaying the camera user interface without displaying the first control affordance and without displaying the second control affordance, the electronic device (eg, 600) detects a change in condition (eg, 600). 710).

条件の変化を検出したことに応答して(712)、第1の既定の条件(例えば、電子デバイスが暗い環境にある)が満たされている(例えば、現在満たされた)という判定に従って、電子デバイス(例えば、600)は、第1のコントロールアフォーダンス(例えば、614c、フラッシュ設定アフォーダンス)(例えば、第1の既定の条件が満たされた結果としてアクティブ又は有効化されているカメラの設定に対応するコントロールアフォーダンス)を(例えば、自動的に、更なるユーザ入力を必要とせずに)表示する(714)。第1の既定の条件が満たされているという判定に従って、第1のコントロールアフォーダンスを表示することは、第1のコントロールアフォーダンスへの迅速かつ便利なアクセスを提供する。操作を行うために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In response to detecting a change in condition (712), according to the determination that the first predetermined condition (eg, the electronic device is in a dark environment) is met (eg, currently met), the electron The device (eg, 600) corresponds to a first control affordance (eg, 614c, flash setting affordance) (eg, a camera setting that is active or enabled as a result of the first default condition being met. Control affordances) are displayed (eg, automatically, without the need for further user input) (714). Displaying the first control affordance according to the determination that the first predetermined condition is met provides quick and convenient access to the first control affordance. By reducing the number of inputs required to perform an operation, the device is more user-friendly and the user-device interface (eg, to provide the appropriate input when operating / interacting with the device). (By assisting and reducing user error), and in addition, by allowing users to use the device faster and more efficiently, the device's power usage is reduced and battery life is improved. Will be done.

いくつかの実施形態では、1つ以上のカメラの視野内の光量(例えば、輝度の量(例えば、20ルクス、5ルクス))が第1の所定の閾値(例えば、10ルクス)を下回るときに、第1の既定の条件が満たされ、第1のコントロールアフォーダンスは、フラッシュ動作を制御するアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)である。1つ以上のカメラの視野内の光量が第1の所定の閾値を下回るときに、フラッシュ動作を制御するアフォーダンスである第1のコントロールアフォーダンスを提供することにより、ユーザは、フラッシュ動作の制御へ、このような制御が必要及び/又は使用されそうなときに迅速かつ容易にアクセスする。操作を行うために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、電子デバイス(例えば、600)は、フラッシュ動作の制御のためのアフォーダンスの選択に対応するユーザ入力を受信し、ユーザ入力を受信したことに応答して、電子デバイスは、フラッシュ動作の状態(例えば、アクティブ(例えば、オン)、例えば、非アクティブ(例えば、オフ)、自動(例えば、条件(例えば、カメラの視野内の光量)に基づいてリアルタイムでフラッシュを非アクティブ又はアクティブに変更する必要があるかを電子デバイスが判定する)を変更するか、及び/又はフラッシュ動作の状態を変更するユーザインタフェースを表示することができる。 In some embodiments, when the amount of light in the field of view of one or more cameras (eg, the amount of brightness (eg, 20 lux, 5 lux)) falls below a first predetermined threshold (eg, 10 lux). , The first predetermined condition is satisfied, and the first control affordance is an affordance (eg, a selectable user interface object) that controls the flash operation. By providing a first control affordance, which is an affordance to control the flash operation when the amount of light in the field of view of one or more cameras falls below a first predetermined threshold, the user can control the flash operation. Access quickly and easily when such controls are needed and / or likely to be used. By reducing the number of inputs required to perform an operation, the device is more user-friendly and the user-device interface (eg, to provide the appropriate input when operating / interacting with the device). (By assisting and reducing user error), and in addition, by allowing users to use the device faster and more efficiently, the device's power usage is reduced and battery life is improved. Will be done. In some embodiments, the electronic device (eg, 600) receives a user input corresponding to the choice of affordance for controlling the flash operation, and in response to receiving the user input, the electronic device receives the user input. Inactive or active flash in real time based on the state of flash operation (eg active (eg on), eg inactive (eg off), automatic (eg condition (eg amount of light in the camera's field of view)) The electronic device determines if it needs to be changed to) and / or can display a user interface that changes the state of the flash operation.

いくつかの実施形態では、電子デバイス(例えば、600)が第1のタイプのアクセサリ(例えば、601、安定化装置(例えば、三脚))に接続(例えば、物理的に接続)されているときに、第1の既定の条件が満たされ、第1のコントロールアフォーダンスは、タイマー動作(例えば、画像キャプチャタイマー、キャプチャ遅延タイマー)を制御するアフォーダンス(例えば、614a)(例えば、選択可能ユーザインタフェースオブジェクト)である。電子デバイスが第1のタイプのアクセサリに接続されているときに、タイマー動作を制御するアフォーダンスである第1のコントロールアフォーダンスを提供することにより、ユーザは、タイマー動作の制御へ、このような制御が必要及び/又は使用されそうなときに迅速かつ容易にアクセスする。操作を行うために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、電子デバイス(例えば、600)は、タイマー動作を制御するアフォーダンス(例えば、630)の選択に対応するユーザ入力を受信し、ユーザ入力を受信したことに応答して、電子デバイスは、タイマー動作の状態(例えば、メディアのキャプチャを開始した後のキャプチャ時間)を変更するか、及び/又はフラッシュ動作の状態を変更するユーザインタフェースを表示することができる。 In some embodiments, when an electronic device (eg, 600) is connected (eg, physically connected) to a first type of accessory (eg, 601, stabilizer (eg, tripod)). , The first default condition is met, and the first control affordance is an affordance (eg, 614a) (eg, selectable user interface object) that controls timer operation (eg, image capture timer, capture delay timer). be. By providing a first control affordance, which is an affordance that controls the timer operation when the electronic device is connected to the first type of accessory, the user can control the timer operation, such control. Quick and easy access when needed and / or likely to be used. By reducing the number of inputs required to perform an operation, the device is more user-friendly and the user-device interface (eg, to provide the appropriate input when operating / interacting with the device). (By assisting and reducing user error), and in addition, by allowing users to use the device faster and more efficiently, the device's power usage is reduced and battery life is improved. Will be done. In some embodiments, the electronic device (eg, 600) receives a user input corresponding to a selection of affordances (eg, 630) that controls timer operation, and in response to receiving the user input, the electronic device (eg, 600) receives an electronic device. The device can change the state of the timer operation (eg, the capture time after starting the capture of the media) and / or display a user interface that changes the state of the flash operation.

いくつかの実施形態では、1つ以上のカメラの視野内の光量(例えば、輝度の量(例えば、20ルクス、5ルクス))が第2の所定の閾値(例えば、20ルクス)を下回るときに、第1の既定の条件が満たされ、第1のコントロールアフォーダンスは、低光キャプチャモードを制御するアフォーダンス(例えば、614b)(例えば、選択可能ユーザインタフェースオブジェクト)である。1つ以上のカメラの視野内の光量が第2の所定の閾値を下回るときに、低光キャプチャモードを制御するアフォーダンスである第1のコントロールアフォーダンスを提供することにより、ユーザは、低光キャプチャモードの制御へ、このような制御が必要及び/又は使用されそうなときに迅速かつ容易にアクセスする。操作を行うために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、電子デバイス(例えば、600)は、低光キャプチャモードを制御するアフォーダンス(例えば、650d)の選択に対応するユーザ入力を受信し、ユーザ入力を受信したことに応答して、電子デバイスは、低光キャプチャモードの状態(例えば、アクティブ(例えば、オン)、非アクティブ(例えば、オフ))を変更するか、及び/又は低光キャプチャモードの状態を変更するユーザインタフェースを表示することができる。 In some embodiments, when the amount of light in the field of view of one or more cameras (eg, the amount of brightness (eg, 20 lux, 5 lux)) falls below a second predetermined threshold (eg, 20 lux). , The first predetermined condition is met, and the first control affordance is an affordance (eg, 614b) (eg, selectable user interface object) that controls the low light capture mode. By providing a first control affordance, which is an affordance to control the low light capture mode when the amount of light in the field of view of one or more cameras falls below a second predetermined threshold, the user can use the low light capture mode. Quickly and easily access control of the above when such control is needed and / or likely to be used. By reducing the number of inputs required to perform an operation, the device is more user-friendly and the user-device interface (eg, to provide the appropriate input when operating / interacting with the device). (By assisting and reducing user error), and in addition, by allowing users to use the device faster and more efficiently, the device's power usage is reduced and battery life is improved. Will be done. In some embodiments, the electronic device (eg, 600) receives a user input corresponding to the choice of affordance (eg, 650d) that controls the low light capture mode, and in response to receiving the user input. , The electronic device displays a user interface that changes the state of the low light capture mode (eg, active (eg, on), inactive (eg, off)) and / or changes the state of the low light capture mode. can do.

いくつかの実施形態では、第1のキャプチャモード(例えば、ポートレートモード)で画像をキャプチャするように電子デバイス(例えば、600)が構成されるときに、第1の既定の条件が満たされ、第1のコントロールアフォーダンスは、照明効果動作(例えば、メディア照明キャプチャコントロール(例えば、ポートレート照明効果コントロール(例えば、スタジオ照明、輪郭照明、舞台照明))を制御するアフォーダンス(例えば、614d)(例えば、選択可能ユーザインタフェースオブジェクト)である(718)。第1のキャプチャモードで画像をキャプチャするように電子デバイスが構成されているときに、照明効果動作を制御するアフォーダンスである第1のコントロールアフォーダンスを提供することにより、ユーザは、照明効果動作の制御へ、このような制御が必要及び/又は使用されそうなときに迅速かつ容易にアクセスする。操作を行うために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、電子デバイス(例えば、600)は、照明効果動作を制御するアフォーダンス(例えば、650o)の選択に対応するユーザ入力を受信し、ユーザ入力を受信したことに応答して、電子デバイスは、照明効果の状態(例えば、照明の量)を変更するか、及び/又は照明効果動作の状態を変更するユーザインタフェースを表示することができる。 In some embodiments, the first default condition is met when the electronic device (eg, 600) is configured to capture the image in the first capture mode (eg, portrait mode). The first control interface is an affordance (eg, 614d) (eg, 614d) (eg, eg, 614d) that controls lighting effect behavior (eg, media lighting capture control (eg, portrait lighting effect control (eg, studio lighting, contour lighting, stage lighting))). A selectable user interface object) (718). Provides a first control affordance, which is an affordance that controls lighting effect behavior when the electronic device is configured to capture an image in the first capture mode. By doing so, the user has quick and easy access to the control of the lighting effect operation when such control is needed and / or is likely to be used. By reducing the number of inputs required to perform the operation. Increases device usability and makes the user-device interface more efficient (eg, by assisting the user in providing proper input when manipulating / interacting with the device and reducing user error). In addition, by allowing the user to use the device more quickly and efficiently, the power usage of the device is reduced and the battery life is improved. In some embodiments, the electronic device (eg, eg). , 600) receives the user input corresponding to the selection of the affordance (eg, 650o) that controls the lighting effect operation, and in response to receiving the user input, the electronic device receives the state of the lighting effect (eg, 650o). The amount of lighting) can be changed and / or a user interface can be displayed to change the state of the lighting effect operation.

いくつかの実施形態では、照明効果を制御するアフォーダンス(例えば、614d)を表示している間に、電子デバイス(例えば、600)は、照明効果を制御するアフォーダンス(例えば、614d)の選択(例えば、タップ)を受信する(720)。いくつかの実施形態では、照明効果を制御するアフォーダンス(例えば、614d)の選択を受信したことに応答して、電子デバイス(例えば、600)は、調整する(例えば、スライダ上の値(例えば、ティックマーク)間でスライダ上のスライダバーをドラッグする)と、1つ以上のカメラの視野の表現に適用された照明効果(例えば、照明)を調整する、照明効果動作(例えば、スライダ)を調整するアフォーダンス(例えば、666)(例えば、選択可能ユーザインタフェースオブジェクト)を表示する(722)。いくつかの実施形態では、調整された照明効果はまた、キャプチャされたメディアにも適用される(例えば、第1のコントロールアフォーダンスがスタジオ照明効果動作を制御するときに、スタジオ光に関連付けられた照明)。 In some embodiments, while displaying an affordance (eg, 614d) that controls the lighting effect, the electronic device (eg, 600) selects an affordance (eg, 614d) that controls the lighting effect (eg, 614d). , Tap) to receive (720). In some embodiments, the electronic device (eg, 600) adjusts (eg, a value on the slider (eg, eg, 614d)) in response to receiving a selection of affordances (eg, 614d) that control the lighting effect. (Drag the slider bar on the slider) between tick marks) to adjust the lighting effect (eg lighting) applied to the representation of the field of view of one or more cameras, adjust the lighting effect behavior (eg slider) The affordance to be performed (eg, 666) (eg, selectable user interface object) is displayed (722). In some embodiments, the tuned lighting effect is also applied to the captured media (eg, the lighting associated with the studio light when the first control affordance controls the studio lighting effect behavior. ).

いくつかの実施形態では、第1のコントロールアフォーダンスを表示している間に、電子デバイス(例えば、600)は、第1のコントロールアフォーダンスに関連付けられた(例えば、それによって制御され得る)(例えば、第1のコントロールの特性又は状態を示す)電子デバイスの特性(例えば、設定)の現在の状態のインジケーション(例えば、602f)(例えば、コントロールの効果(例えば、フラッシュ動作がアクティブであることのインジケーション))を同時に表示する(724)。第1のコントロールアフォーダンスを表示している間に、電子デバイスの特性の現在の状態のインジケーションを同時に表示することにより、ユーザが、第1のコントロールアフォーダンスを使用して、特性の現在の状態を迅速かつ容易に閲覧及び/又は変更することを可能にする。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、インジケーション(例えば、602a、602c)は、ユーザインタフェースの上部(例えば、電話の上部)に表示される。いくつかの実施形態では、カメラトグル(例えば、前カメラと後カメラとの間をトグルする)制御)が変更したことに応答して、インジケーションが表示される。 In some embodiments, while displaying the first control affordance, the electronic device (eg, 600) is associated with (eg, can be controlled by) the first control affordance (eg, it can be controlled). An indication of the current state of an electronic device characteristic (eg, a setting) (eg, 602f) (eg, an indication that the effect of the control (eg, the flash operation is active)) (indicating the characteristic or state of the first control). (Action)) are displayed at the same time (724). While displaying the first control affordance, the user can use the first control affordance to view the current state of the characteristic by simultaneously displaying the indication of the current state of the characteristic of the electronic device. Allows quick and easy viewing and / or modification. By providing additional control options without cluttering the UI with the additional controllers displayed, the user-device interface is enhanced (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved. In some embodiments, the indication (eg, 602a, 602c) is displayed at the top of the user interface (eg, top of the phone). In some embodiments, the indication is displayed in response to a change in the camera toggle (eg, the control that toggles between the front and rear cameras).

いくつかの実施形態では、特性は1つ以上のアクティブ状態及び1つ以上の非アクティブ状態を有し、インジケーションを表示することは、特性が1つ以上のアクティブ状態のうちの少なくとも1つにあるという判定に従う。いくつかの実施形態では、いくつかの動作は、動作に関連付けられたインジケーションがカメラユーザインタフェース内に表示される前にアクティブである必要があるが、いくつかの動作は、動作に関連付けられたインジケーションがカメラユーザインタフェース内に表示される前にアクティブである必要はない。いくつかの実施形態では、特性が非アクティブ状態にある(例えば、非アクティブ状態にあるように変更される)という判定に従って、インジケーションは、表示されないか、又は現在表示されている場合は表示を停止する。 In some embodiments, the trait has one or more active states and one or more inactive states, and displaying the indication is such that the trait is at least one of the one or more active states. Follow the judgment that there is. In some embodiments, some actions need to be active before the indication associated with the action is displayed in the camera user interface, but some actions are associated with the action. The indication does not have to be active before it appears in the camera user interface. In some embodiments, the indication is not displayed, or is displayed if it is currently displayed, according to the determination that the property is inactive (eg, changed to be inactive). Stop.

いくつかの実施形態では、特性は第1のフラッシュ動作設定であり、特性の現在の状態は、フラッシュ動作が有効化されていることである。いくつかの実施形態では、フラッシュが自動に設定されている場合、電子デバイス(例えば、600)が1つ以上のカメラの視野内の光量がフラッシュ範囲内(例えば、0〜10ルクスの範囲)にあると判定すると、フラッシュ動作はアクティブである。電子デバイスが1つ以上のカメラの視野内の光量がフラッシュ範囲内にあると判定するとアクティブになるフラッシュ動作は、ユーザがデバイスをより効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the characteristic is the first flash operation setting and the current state of the characteristic is that the flash operation is enabled. In some embodiments, when the flash is set to automatic, the amount of light in the field of view of one or more cameras with an electronic device (eg, 600) is within the flash range (eg, in the range of 0-10 lux). If so, the flash operation is active. A flash operation that activates when an electronic device determines that the amount of light in the field of view of one or more cameras is within the flash range reduces power consumption by allowing the user to use the device more efficiently. And improve the battery life of the device.

いくつかの実施形態では、特性は第2のフラッシュ動作設定であり、特性の現在の状態は、フラッシュ動作が無効化されていることである(例えば、示す、示す表現を表示する)。いくつかの実施形態では、フラッシュが自動に設定されている場合、電子デバイス(例えば、600)が1つ以上のカメラの視野内の光量がフラッシュ範囲内(例えば、0〜10ルクスの範囲)にないと判定すると、フラッシュ動作は非アクティブである。電子デバイスが1つ以上のカメラの視野内の光量がフラッシュ範囲内にないと判定すると非アクティブになるフラッシュ動作は、ユーザがデバイスをより効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。いくつかの実施形態では、特性が画像キャプチャモード設定であり、特性の現在の状態が、画像キャプチャモードが有効化されていることであり、電子デバイス(例えば、600)が、メディアをキャプチャする要求に対応する入力(例えば、単一の入力)に応答して、静止画像及びビデオ(例えば、動画)をキャプチャするように構成される。特性が画像キャプチャモード設定であり、特性の現在の状態が、画像キャプチャモードが有効化されていることであるときに、静止画像及びビデオをキャプチャすることにより、ユーザが、静止画像及びビデオを迅速かつ容易にキャプチャすることを可能にする。更なるユーザ入力を必要とせずに条件のセットが満たされたときに動作を行うことにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the characteristic is a second flash operation setting, and the current state of the characteristic is that the flash operation is disabled (eg, show, show representation). In some embodiments, when the flash is set to automatic, the amount of light in the field of view of one or more cameras with an electronic device (eg, 600) is within the flash range (eg, in the range of 0-10 lux). If it is determined that there is no flash operation, the flash operation is inactive. A flash operation that deactivates when an electronic device determines that the amount of light in the field of view of one or more cameras is not within the flash range reduces power usage by allowing the user to use the device more efficiently. Reduce and improve device battery life. In some embodiments, the characteristic is an image capture mode setting, the current state of the characteristic is that the image capture mode is enabled, and an electronic device (eg, 600) is required to capture the media. It is configured to capture still images and videos (eg, moving images) in response to the corresponding input (eg, a single input). By capturing still images and videos when the property is in the image capture mode setting and the current state of the property is that the image capture mode is enabled, the user can quickly capture the still images and videos. And it makes it possible to capture easily. By acting when a set of conditions is met without requiring further user input, the usability of the device is enhanced and the user-device interface (eg, when manipulating / interacting with the device) By assisting the user in providing proper input and reducing user errors), and by allowing the user to use the device faster and more efficiently, the power of the device. Reduced use and improved battery life.

いくつかの実施形態では、特性は第2の画像キャプチャモード設定であり、特性の現在の状態は、第2の画像キャプチャモードが有効化されていることである。いくつかの実施形態では、電子デバイス(例えば、600)は、メディアをキャプチャする要求に対応する入力(例えば、単一の入力)に応答して、高ダイナミックレンジイメージング効果を使用してメディアをキャプチャするように構成される。いくつかの実施形態では、カメラメディアに対する要求を受信したことに応答して、電子デバイス(例えば、600)は、1つ以上のカメラを介して、高ダイナミックレンジイメージング画像であるメディアをキャプチャする。特性が第2の画像キャプチャモード設定であり、特性の現在の状態が、第2の画像キャプチャモードが有効化されていることであるときに、高ダイナミックレンジイメージング効果を使用してメディアをキャプチャすることにより、ユーザが、高ダイナミックレンジイメージング効果を使用してメディアを迅速かつ容易にキャプチャすることを可能にする。更なるユーザ入力を必要とせずに条件のセットが満たされたときに動作を行うことにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the characteristic is a second image capture mode setting, and the current state of the characteristic is that the second image capture mode is enabled. In some embodiments, the electronic device (eg, 600) captures the media using a high dynamic range imaging effect in response to an input (eg, a single input) that corresponds to the request to capture the media. It is configured to do. In some embodiments, in response to receiving a request for camera media, an electronic device (eg, 600) captures the media, which is a high dynamic range imaging image, through one or more cameras. Capture media using a high dynamic range imaging effect when the characteristic is the second image capture mode setting and the current state of the characteristic is that the second image capture mode is enabled. This allows the user to quickly and easily capture the media using the high dynamic range imaging effect. By acting when a set of conditions is met without requiring further user input, the usability of the device is enhanced and the user-device interface (eg, when manipulating / interacting with the device) By assisting the user in providing proper input and reducing user errors), and by allowing the user to use the device faster and more efficiently, the power of the device. Reduced use and improved battery life.

いくつかの実施形態では、カメラコントロール領域(例えば、606)は、表示デバイスの第1の側に(例えば、ディスプレイ領域の底部に)隣接して表示され、インジケーションは、第1の側と反対側(カメラディスプレイ領域の上部)の表示デバイスの第2の側(例えば、1つ以上のカメラの場所に最も近い側)に隣接して表示される。 In some embodiments, the camera control area (eg, 606) is displayed adjacent to the first side of the display device (eg, at the bottom of the display area) and the indication is opposite to the first side. Side (upper part of the camera display area) is displayed adjacent to a second side of the display device (eg, the side closest to the location of one or more cameras).

いくつかの実施形態では、第1のコントロールアフォーダンスを表示したことに応答して(726)、第1のコントロールアフォーダンスが第1のタイプ(例えば、対応するインジケーションが常に示されているタイプ(例えば、フラッシュコントロール))のものであるという判定に従って、電子デバイス(例えば、600)は、第1のコントロールに関連付けられた第2のインジケーションを表示する(例えば、第1のコントロールに関連付けられた特性の状態に関係なく、第2のインジケーションが表示される)(728)。いくつかの実施形態では、第1のコントロールアフォーダンスを表示したことに応答して、第1のコントロールアフォーダンスが第1のタイプとは異なる第2のタイプ(例えば、対応するインジケーションが条件付きで示されるタイプ)のものであるという判定、及び第1のコントロールに関連付けられた電子デバイス(例えば、600)の第2の特性(例えば、設定)がアクティブ状態にあるという判定に従って、電子デバイスは、第1のコントロールに関連付けられた第2のインジケーションを表示する(730)。いくつかの実施形態では、第1のコントロールアフォーダンスを表示したことに応答して、第1のコントロールアフォーダンスが第1のタイプとは異なる第2のタイプ(例えば、対応するインジケーションが条件付きで示されるタイプ)のものであるという判定、及び第1のコントロールに関連付けられた電子デバイス(例えば、600)の第2の特性(例えば、設定)が非アクティブ状態にあるという判定に従って、電子デバイスは、第1のコントロールに関連付けられた第2のインジケーションを表示するのをやめる。いくつかの実施形態では、コントロールに関連付けられたいくつかの動作は、動作に関連付けられたインジケーションがカメラユーザインタフェース内に表示される前にアクティブである必要があるが、いくつかの動作は、動作に関連付けられたインジケーションがカメラユーザインタフェース内に表示される前にアクティブである必要はない。 In some embodiments, in response to displaying the first control affordance (726), the first control affordance is of the first type (eg, the type in which the corresponding indication is always shown (eg, eg). , Flash control)), the electronic device (eg, 600) displays a second indication associated with the first control (eg, a characteristic associated with the first control). A second indication is displayed regardless of the state of) (728). In some embodiments, in response to displaying the first control affordance, a second type in which the first control affordance is different from the first type (eg, the corresponding indication is conditionally indicated). According to the determination that the electronic device (eg, 600) is of the type that is active, and that the second characteristic (eg, setting) of the electronic device (eg, 600) associated with the first control is active, the electronic device is second. Display the second indication associated with one control (730). In some embodiments, in response to displaying the first control affordance, a second type in which the first control affordance is different from the first type (eg, the corresponding indication is conditionally indicated). According to the determination that the electronic device (eg, 600) is of the type that is inactive, and that the second characteristic (eg, setting) of the electronic device (eg, 600) associated with the first control is inactive. Stop displaying the second indication associated with the first control. In some embodiments, some actions associated with the control need to be active before the indication associated with the action is displayed in the camera user interface, but some actions are The indication associated with the action does not have to be active before it appears in the camera user interface.

条件の変化を検出したことに応答して(712)、第2の既定の条件(例えば、電子デバイスが三脚上に位置する)(例えば、第1の既定の条件とは異なる既定の条件)が満たされている(例えば、現在満たされた)という判定に従って、電子デバイス(例えば、600)は、第2のコントロールアフォーダンス(例えば、タイマー設定アフォーダンス)(例えば、第2の既定の条件が満たされた結果としてアクティブ又は有効化されているカメラの設定に対応するコントロールアフォーダンス)を(例えば、自動的に、更なるユーザ入力を必要とせずに)表示する(716)。第2の既定の条件が満たされているという判定に従って、第2のコントロールアフォーダンスを表示することは、第2のコントロールアフォーダンスへの迅速かつ便利なアクセスを提供する。操作を行うために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、コントロールアフォーダンスは、既定の条件に関連付けられたカメラ設定を表す外観(例えば、フラッシュ設定を表すカミナリ)を有する。いくつかの実施形態では、コントロールアフォーダンスが選択されると、既定の条件に関連付けられたカメラ設定の状態を変更するための設定インタフェースが表示される。 In response to detecting a change in condition (712), a second default condition (eg, the electronic device is located on a tripod) (eg, a default condition different from the first default condition) According to the determination that it is met (eg, currently met), the electronic device (eg, 600) has met a second control affordance (eg, timer setting affordance) (eg, a second default condition). As a result, the control affordances corresponding to the active or activated camera settings are displayed (eg, automatically, without requiring further user input) (716). Displaying the second control affordance according to the determination that the second predetermined condition is met provides quick and convenient access to the second control affordance. By reducing the number of inputs required to perform an operation, the device is more user-friendly and the user-device interface (eg, to provide the appropriate input when operating / interacting with the device). (By assisting and reducing user error), and in addition, by allowing users to use the device faster and more efficiently, the device's power usage is reduced and battery life is improved. Will be done. In some embodiments, the control affordance has an appearance that represents the camera settings associated with the default conditions (eg, a kaminari that represents the flash settings). In some embodiments, when control affordances are selected, a configuration interface is displayed for changing the state of camera settings associated with default conditions.

いくつかの実施形態では、更に、条件の変化を検出したことに応答して、第1及び第2の既定の条件が満たされているという判定に従って、電子デバイス(例えば、600)は、第1のコントロールアフォーダンス及び第2のコントロールアフォーダンスを同時に表示する。条件の変化を検出したことに応答して、第1及び第2の既定の条件が満たされているという判定に従って、第1のコントロールアフォーダンス及び第2のコントロールアフォーダンスを同時に表示することにより、ユーザに、第1のコントロールアフォーダンス及び第2のコントロールアフォーダンスへの迅速かつ便利なアクセスを提供する。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、複数の条件が満たされていると、複数のアフォーダンスが表示される。 In some embodiments, the electronic device (eg, 600) is further subjected to a first determination in response to the detection of a change in condition that the first and second predetermined conditions are met. Control affordance and second control affordance are displayed at the same time. By simultaneously displaying the first control affordance and the second control affordance according to the determination that the first and second predetermined conditions are satisfied in response to the detection of the change in the condition, the user is informed. Provides quick and convenient access to the first control affordance and the second control affordance. By providing additional control options without cluttering the UI with the additional controllers displayed, the user-device interface is enhanced (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved. In some embodiments, multiple affordances are displayed when multiple conditions are met.

いくつかの実施形態では、更に、条件の変化を検出したことに応答して、第1の既定の条件が満たされており、かつ第2の既定の条件が満たされていないという判定に従って、電子デバイス(例えば、600)は、第1のコントロールアフォーダンスを表示する一方で、第2のコントロールアフォーダンスを表示するのをやめる。条件の変化を検出したことに応答して、第1の既定の条件が満たされており、かつ第2の既定の条件が満たされていないという判定に従って、第1のコントロールアフォーダンスを表示する一方で、第2のコントロールアフォーダンスを表示するのをやめることにより、ユーザは、必要及び/又は使用されそうなコントロールアフォーダンスへ、迅速かつ容易にアクセスし、一方、ユーザは、必要及び/又は使用されそうでないコントロールアフォーダンスへ、迅速かつ容易にアクセスしない。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the electron is further determined in response to the detection of a change in condition that the first predetermined condition is met and the second predetermined condition is not met. The device (eg, 600) displays the first control affordance while stopping displaying the second control affordance. While displaying the first control affordance according to the determination that the first default condition is met and the second default condition is not met in response to detecting a change in condition. By stopping displaying the second control affordance, the user has quick and easy access to the control affordances that are likely to be needed and / or used, while the user is unlikely to be needed and / or used. Do not access control affordances quickly and easily. By providing additional control options without cluttering the UI with the additional controllers displayed, the user-device interface is enhanced (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.

いくつかの実施形態では、更に、条件の変化を検出したことに応答して、第1の既定の条件が満たされておらず、かつ第2の既定の条件が満たされているという判定に従って、電子デバイス(例えば、600)は、第2のコントロールアフォーダンスを表示する一方で、第1のコントロールアフォーダンスを表示するのをやめる。条件の変化を検出したことに応答して、第1の既定の条件が満たされておらず、かつ第2の既定の条件が満たされているという判定に従って、第2のコントロールアフォーダンスを表示する一方で、第1のコントロールアフォーダンスを表示するのをやめることにより、ユーザは、必要及び/又は使用されそうなコントロールアフォーダンスへ、迅速かつ容易にアクセスし、一方、ユーザは、必要及び/又は使用されそうでないコントロールアフォーダンスへ、迅速かつ容易にアクセスしない。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、それぞれの既定の条件が満たされると、既定の条件に関連付けられたそれぞれのアフォーダンスのみが表示される。いくつかの実施形態では、電子は、複数の追加のコントロールアフォーダンス(例えば、楕円アフォーダンス)にナビゲートするアフォーダンス(例えば、614)の選択を受信する。いくつかの実施形態では、複数の追加のコントロールアフォーダンスにナビゲートするアフォーダンス(例えば、614)の選択を受信したことに応答して、電子デバイス(例えば、600)は、(第1のコントロール及び/又は第2のコントロールアフォーダンスを含む)カメラユーザインタフェース内の複数のコントロールアフォーダンス(例えば、626)のうちの少なくともいくらかを表示する。いくつかの実施形態では、既定の条件が満たされると、電子デバイス(例えば、600)は、アフォーダンスが複数の追加のコントロールアフォーダンスにナビゲートするアフォーダンスをポップアウトするとアニメーションを表示することができる。いくつかの実施形態では、複数のコントロールアフォーダンスは、第1又は第2のコントロールアフォーダンスのうちの少なくとも1つを含む、複数の追加のコントロールアフォーダンス(例えば、複数のカメラ設定アフォーダンスを表示するアフォーダンス)にナビゲートするアフォーダンス(例えば、618)を含む。これらの実施形態のうちのいくつかでは、第1の既定の条件が満たされているという判定に従って、第1のアフォーダンスは、複数の追加のコントロールアフォーダンスにナビゲートするアフォーダンスに隣接して表示される(例えば、追加のコントロールアフォーダンスの隣に、追加のコントロールアフォーダンスを備えたバウンダーによって鳴らされる)。これらの実施形態のうちのいくつかでは、第2の既定の条件が満たされているという判定に従って、第2のアフォーダンスは、複数の追加のコントロールアフォーダンスにナビゲートするアフォーダンスに隣接して表示される(例えば、追加のコントロールアフォーダンスの隣に、追加のコントロールアフォーダンスを備えたバウンダーによって鳴らされる)。 In some embodiments, further, in response to the detection of a change in condition, according to the determination that the first default condition is not met and the second default condition is met. The electronic device (eg, 600) displays the second control affordance while stopping displaying the first control affordance. While displaying the second control affordance according to the determination that the first default condition is not met and the second default condition is met in response to detecting a change in condition. By stopping displaying the first control affordance, the user can quickly and easily access the control affordances that are likely to be needed and / or used, while the user is likely to be needed and / or used. Not access to control affordances quickly and easily. By providing additional control options without cluttering the UI with the additional controllers displayed, the user-device interface is enhanced (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved. In some embodiments, when each default condition is met, only the respective affordances associated with the default condition are displayed. In some embodiments, the electron receives a selection of affordances (eg, 614) that navigate to a plurality of additional control affordances (eg, elliptical affordances). In some embodiments, the electronic device (eg, 600) responds to receiving a selection of affordances (eg, 614) navigating to a plurality of additional control affordances (eg, first control and / /). Or display at least some of the plurality of control affordances (eg, 626) in the camera user interface (including a second control affordance). In some embodiments, when certain conditions are met, the electronic device (eg, 600) can display an animation as the affordance pops out an affordance that navigates to multiple additional control affordances. In some embodiments, the plurality of control affordances becomes a plurality of additional control affordances (eg, an affordance displaying multiple camera setting affordances), including at least one of the first or second control affordances. Includes navigating affordances (eg, 618). In some of these embodiments, the first affordance is displayed adjacent to the affordance navigating to a plurality of additional control affordances, according to the determination that the first predetermined condition is met. (For example, next to an additional control affordance, it is sounded by a bouncer with an additional control affordance). In some of these embodiments, the second affordance is displayed adjacent to the affordance navigating to a plurality of additional control affordances, according to the determination that the second predetermined condition is met. (For example, next to an additional control affordance, it is sounded by a bouncer with an additional control affordance).

いくつかの実施形態では、1つ以上のカメラの視野の表現が、第1のアフォーダンス及び/又は第2のアフォーダンスを含むカメラユーザインタフェースの一部分に対して(例えば、わたって)延在する。いくつかの実施形態では、カメラユーザインタフェースは、表示デバイスの表示エリアの全体に対して延在する。いくつかの実施形態では、表現(例えば、プレビュー)は、カメラユーザインタフェースに含まれる全てのコントロールの下に表示される(例えば、ボタンが表現の部分の上に示されるように透明又は半透明に表示される)。 In some embodiments, the representation of the field of view of one or more cameras extends (eg, across) to a portion of the camera user interface that includes a first affordance and / or a second affordance. In some embodiments, the camera user interface extends over the entire display area of the display device. In some embodiments, the representation (eg, preview) is displayed under all controls included in the camera user interface (eg, transparent or translucent as the buttons are shown above the representation portion). Is displayed).

なお、方法700に関して上述したプロセス(例えば、図7A〜図7C)の詳細はまた、後述する方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法900、1100、1300、1500、1700、1900、2000、2100、2300、2500、2700、2800、3000、3200、3400、3600、及び3800は、方法700を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。 It should be noted that the details of the process described above with respect to the method 700 (eg, FIGS. 7A-7C) can also be applied in a similar manner to the methods described below. For example, methods 900, 1100, 1300, 1500, 1700, 1900, 2000, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3400, 3600, and 3800 are various described above with reference to method 700. Optionally include one or more of the properties of the method. For the sake of brevity, these details will not be repeated below.

図8A〜図8Vは、いくつかの実施形態による電子デバイスを使用してメディアコントロールを表示するための例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図9A〜図9Cにおける処理を含む、以下で説明される処理を例示するために使用される。 8A-8V show exemplary user interfaces for displaying media controls using electronic devices according to some embodiments. The user interfaces in those figures are used to illustrate the processes described below, including the processes in FIGS. 9A-9C.

図8Aは、ディスプレイの上部からディスプレイの底部まで任意選択的に延在するライブプレビュー630を表示する電子デバイス600を示す。ライブプレビュー630は、1つ以上のカメラセンサによって検出された画像に基づく。いくつかの実施形態では、デバイス600は、複数のカメラセンサを使用して画像をキャプチャし、それらを組み合わせてライブプレビュー630を表示する。いくつかの実施形態では、デバイス600は、単一のカメラセンサを使用して画像をキャプチャして、ライブプレビュー630を表示する。図8Aのカメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含み、これらは、インジケータ及びコントロールがライブプレビューと同時に表示され得るように、ライブプレビュー630上に重ねられる。カメラディスプレイ領域604は、インジケータ又はコントロールと実質的に重ならない。この例では、ライブプレビューは、対象840及び周囲環境を含む。図8Aのカメラユーザインタフェースは、インジケータ領域602とカメラディスプレイ領域604との境界部及びカメラディスプレイ領域604とコントロール領域606との境界部を示す視覚境界部608を含む。 FIG. 8A shows an electronic device 600 displaying a live preview 630 that optionally extends from the top of the display to the bottom of the display. Live preview 630 is based on images detected by one or more camera sensors. In some embodiments, the device 600 uses a plurality of camera sensors to capture images and combine them to display a live preview 630. In some embodiments, the device 600 captures an image using a single camera sensor and displays a live preview 630. The camera user interface of FIG. 8A includes an indicator area 602 and a control area 606, which are overlaid on the live preview 630 so that the indicators and controls can be displayed at the same time as the live preview. The camera display area 604 does not substantially overlap the indicator or control. In this example, the live preview includes subject 840 and the surrounding environment. The camera user interface of FIG. 8A includes a visual boundary 608 indicating a boundary between the indicator area 602 and the camera display area 604 and a boundary between the camera display area 604 and the control area 606.

図8Aに示すように、インジケータ領域602は、ライブプレビュー630上に重ねられ、任意選択的に着色された(例えば、灰色;半透明)オーバーレイを含む。インジケータ領域602は、フラッシュインジケータ602a及びアニメーション化された画像状態インジケータ602dを含む。フラッシュインジケータ602aは、フラッシュが自動モード、オン、オフ、又は別のモード(例えば、赤目低減モード)であるかどうかを示す。アニメーション化された画像状態インジケータ602dは、(例えば、シャッターアフォーダンス610のアクティブ化を検出したことに応答して、)単一の画像又は複数の画像をキャプチャするようにカメラが構成されているかどうかを示す。 As shown in FIG. 8A, the indicator area 602 includes an optionally colored (eg, gray; translucent) overlay overlaid on the live preview 630. The indicator area 602 includes a flash indicator 602a and an animated image state indicator 602d. The flash indicator 602a indicates whether the flash is in automatic mode, on, off, or another mode (eg, red-eye reduction mode). The animated image status indicator 602d indicates whether the camera is configured to capture a single image or multiple images (eg, in response to detecting activation of the shutter affordance 610). show.

図8Aに示すように、カメラディスプレイ領域604は、ライブプレビュー630及びズームアフォーダンス622を含む。図8Aに示すように、コントロール領域606は、ライブプレビュー630上に重ねられ、任意選択的に着色された(例えば、灰色;半透明)オーバーレイを含む。 As shown in FIG. 8A, the camera display area 604 includes a live preview 630 and a zoom affordance 622. As shown in FIG. 8A, the control area 606 includes an optionally colored (eg, gray; translucent) overlay overlaid on the live preview 630.

図8Aに示すように、コントロール領域606は、カメラモードアフォーダンス620、メディアコレクションの一部分624、追加のコントロールアフォーダンス614、シャッターアフォーダンス610、及びカメラスイッチャアフォーダンス612を含む。カメラモードアフォーダンス620は、どのカメラモードが現在選択されているかを示し、ユーザがカメラモードを変更することを可能にする。図8Aにおいて、カメラモードアフォーダンス620a〜620eが表示され、「Photo」カメラモード620cは、カメラが動作している現在のモードとして太字のテキストで示される。メディアコレクション624は、最近キャプチャされた写真などのメディア(例えば、写真)の表現を含む。追加のコントロールアフォーダンス614は、ユーザが追加のカメラコントロールにアクセスすることを可能にする。シャッターアフォーダンス610は、アクティブ化されると、デバイス600に、ライブプレビュー630の現在の状態及び現在選択されているモードに基づいて、メディア(例えば、写真)をキャプチャさせる。キャプチャされたメディアは、電子デバイスにローカルに記憶されるか、及び/又は記憶のためにリモートサーバに伝送される。カメラスイッチャアフォーダンス612は、アクティブ化されると、デバイス600に、背面カメラセンサと前面カメラセンサとの間を切り替えることなどによって、ライブプレビュー630内の異なるカメラの視野を示すように切り替えさせる。 As shown in FIG. 8A, the control area 606 includes a camera mode affordance 620, a portion of the media collection 624, an additional control affordance 614, a shutter affordance 610, and a camera switcher affordance 612. The camera mode affordance 620 indicates which camera mode is currently selected and allows the user to change the camera mode. In FIG. 8A, camera modes affordances 620a-620e are displayed, and the "photo" camera mode 620c is indicated in bold text as the current mode in which the camera is operating. The media collection 624 includes representations of media (eg, photographs) such as recently captured photographs. Additional control affordances 614 allow the user to access additional camera controls. When activated, the shutter affordance 610 causes the device 600 to capture media (eg, a photo) based on the current state of the live preview 630 and the currently selected mode. The captured media is stored locally on the electronic device and / or transmitted to a remote server for storage. When activated, the camera switcher affordance 612 causes the device 600 to switch between the rear camera sensor and the front camera sensor to indicate the field of view of different cameras in the live preview 630.

図8Aでは、デバイス600は、タッチ感知面を使用して、カメラディスプレイ領域604に対応する場所での上スワイプジェスチャ850a(コントロール領域606からインジケータ領域602に向かうスワイプ入力)を検出する。上スワイプジェスチャ850aを検出したことに応答して、デバイス600は、図8Bのユーザインタフェースを表示する。あるいは、図8Aでは、デバイス600は、タッチ感知面を使用して、追加のコントロールアフォーダンス614に対応する場所でのタップジェスチャ850bを検出する。タップジェスチャ850bを検出したことに応答して、デバイス600は、図8Bのユーザインタフェースを同様に表示する。 In FIG. 8A, the device 600 uses the touch sensitive surface to detect an upper swipe gesture 850a (swipe input from the control area 606 towards the indicator area 602) at a location corresponding to the camera display area 604. In response to detecting the upper swipe gesture 850a, the device 600 displays the user interface of FIG. 8B. Alternatively, in FIG. 8A, the device 600 uses the touch sensitive surface to detect the tap gesture 850b at a location corresponding to the additional control affordance 614. In response to detecting the tap gesture 850b, the device 600 similarly displays the user interface of FIG. 8B.

図8Bに示すように、上スワイプジェスチャ850a又はタップジェスチャ850bを検出したことに応答して、デバイス600は、カメラディスプレイ領域604(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトアップし、それにより、インジケータ領域602の高さを低減し、コントロール領域606の高さを増加させる。インジケータ領域602の高さの低減に加えて、デバイス600は、フラッシュインジケータ602a及びアニメーション化された画像状態インジケータ602dの表示を停止する。いくつかの例では、デバイス600は、高さ低減モードにある間にインジケータ領域602内の任意のインジケータの表示を停止する。コントロール領域606の高さを増加させることに加えて、デバイス600は、カメラモードアフォーダンス620の表示を、第1の1組のカメラ設定アフォーダンス626a〜626eを含むカメラ設定アフォーダンス626に置き換える。カメラ設定アフォーダンス626a〜626eは、アクティブ化されると、カメラ設定を変更する(又は変更するためのプロセスを開始させた)。例えば、アフォーダンス626aは、アクティブ化されると、フラッシュをオン/オフし、アフォーダンス626dは、アクティブ化されると、シャッタータイマーを設定するプロセスを開始する。 As shown in FIG. 8B, in response to detecting the upper swipe gesture 850a or tap gesture 850b, the device 600 moves the camera display area 604 (while maintaining the same size and aspect ratio) and the visual boundary 608. Shift up, thereby reducing the height of the indicator area 602 and increasing the height of the control area 606. In addition to reducing the height of the indicator area 602, the device 600 stops displaying the flash indicator 602a and the animated image status indicator 602d. In some examples, the device 600 stops displaying any indicator in the indicator area 602 while in height reduction mode. In addition to increasing the height of the control area 606, the device 600 replaces the display of the camera mode affordance 620 with a camera setting affordance 626 that includes a first set of camera setting affordances 626a-626e. Camera settings affordances 626a-626e change (or initiate a process for changing) camera settings when activated. For example, affordance 626a turns the flash on and off when activated, and affordance 626d initiates the process of setting the shutter timer when activated.

図8Bでは、デバイス600は、タッチ感知面を使用して、カメラディスプレイ領域604に対応する場所での下スワイプジェスチャ850c(インジケータ領域602からコントロール領域606に向かうスワイプ入力)を検出する。下スワイプジェスチャ850cを検出したことに応答して、デバイス600は、図8Cのユーザインタフェースを表示する。あるいは、図8Bでは、デバイス600は、タッチ感知面を使用して、追加のコントロールアフォーダンス614に対応する場所でのタップジェスチャ850dを検出する。タップジェスチャ850dを検出したことに応答して、デバイス600は、図8Cのユーザインタフェースを同様に表示する。 In FIG. 8B, the device 600 uses the touch sensitive surface to detect a lower swipe gesture 850c (a swipe input from the indicator area 602 to the control area 606) at a location corresponding to the camera display area 604. In response to detecting the lower swipe gesture 850c, the device 600 displays the user interface of FIG. 8C. Alternatively, in FIG. 8B, the device 600 uses the touch sensitive surface to detect a tap gesture 850d at a location corresponding to an additional control affordance 614. In response to detecting the tap gesture 850d, the device 600 similarly displays the user interface of FIG. 8C.

図8Cに示すように、下スワイプジェスチャ850c又はタップジェスチャ850dを検出したことに応答して、デバイス600は、カメラディスプレイ領域604(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトダウンし、それにより、インジケータ領域602の高さを増加させ、コントロール領域606の高さを減少させる。いくつかの例では、デバイス600は、フラッシュインジケータ602a及びアニメーション化された画像状態インジケータ602dを再表示する。コントロール領域606の高さの低減に加えて、デバイス600は、カメラ設定アフォーダンス626の表示を、カメラモードアフォーダンス620に置き換える。図8Cでは、デバイス600は、タッチ感知面を使用して、メディアコレクション624に対応する場所での右スワイプジェスチャ850eを検出する。 As shown in FIG. 8C, in response to detecting the lower swipe gesture 850c or tap gesture 850d, the device 600 moves the camera display area 604 (while maintaining the same size and aspect ratio) and the visual boundary 608. Shift down, thereby increasing the height of the indicator area 602 and decreasing the height of the control area 606. In some examples, the device 600 redisplays the flash indicator 602a and the animated image state indicator 602d. In addition to reducing the height of the control area 606, the device 600 replaces the display of the camera setting affordance 626 with the camera mode affordance 620. In FIG. 8C, device 600 uses the touch sensitive surface to detect a right swipe gesture 850e at a location corresponding to media collection 624.

図8Dに示すように、右スワイプジェスチャ850eを検出したことに応答して、デバイス600は、メディアコレクション624の残りの部分をディスプレイ上にスライドし、追加のコントロールアフォーダンス614をカバーする。その結果、デバイス600は、追加のコントロールアフォーダンス614の表示を停止する。図8Dでは、デバイス600は、タッチ感知面を使用して、メディアコレクション624に対応する場所での左スワイプジェスチャ850fを検出する。 As shown in FIG. 8D, in response to detecting the right swipe gesture 850e, the device 600 slides the rest of the media collection 624 onto the display to cover the additional control affordance 614. As a result, the device 600 stops displaying the additional control affordance 614. In FIG. 8D, device 600 uses the touch-sensitive surface to detect a left swipe gesture 850f at a location corresponding to media collection 624.

図8Eに示すように、左スワイプジェスチャ850fを検出したことに応答して、デバイス600は、メディアコレクション624を左方向にディスプレイから部分的にオフするようにスライドし、追加のコントロールアフォーダンス614を見せる。その結果、デバイス600は、追加のコントロールアフォーダンス614を表示する。図8Eでは、デバイス600は、タッチ感知面を使用して、カメラディスプレイ領域604(ライブプレビュー630上)に対応する場所での左スワイプジェスチャ850gを検出する。 In response to detecting the left swipe gesture 850f, as shown in FIG. 8E, the device 600 slides the media collection 624 to the left to partially off the display, showing an additional control affordance 614. .. As a result, the device 600 displays an additional control affordance 614. In FIG. 8E, device 600 uses the touch sensitive surface to detect 850 g of left swipe gesture at a location corresponding to camera display area 604 (on live preview 630).

左スワイプジェスチャ850g(図8E)を検出したことに応答して、デバイス600は、図8F〜図8Hのグラフィカルビュー間で遷移する。あるいは(又は加えて)、左スワイプジェスチャ850g(図8E)の開始を検出したことに応答して、デバイス600は、図8F〜図8Hのグラフィカルビュー間での遷移を開始し、図8F〜図8Gに示すように、遷移は、(ジェスチャのリフトオフを検出することなく)左スワイプジェスチャ850gが進行するにつれて継続する。 In response to detecting 850 g of left swipe gesture (FIG. 8E), device 600 transitions between the graphical views of FIGS. 8F-8H. Alternatively (or in addition), in response to detecting the start of the left swipe gesture 850 g (FIG. 8E), the device 600 initiates a transition between the graphical views of FIGS. 8F-8H, 8F-FIG. As shown in 8G, the transition continues as the left swipe gesture 850g progresses (without detecting gesture lift-off).

図8Fに示すように、デバイス600は、ライブプレビュー630をシフトすることなく、カメラディスプレイ領域604の境界を左(左スワイプジェスチャ850gの方向)にシフトする。カメラディスプレイ領域604をシフトすることにより、視覚境界部608の垂直部分を表示させ、カメラディスプレイ領域604が空いたエリア内(例えば、ディスプレイの右側)に着色された(例えば、灰色)オーバーレイを表示させ、それにより、ユーザに、デバイス600が左スワイプジェスチャ850gを検出していることを示す。図8Fにおいて、視覚境界部608の一部分は、リーダーによりわかりやすくするためにデバイス600の外側に(左側)表示され、デバイス600のユーザインタフェースのビジュアル要素ではない。図8Fでは、デバイス600は、インジケータ領域602のインジケータ602a及び602dの表示を停止する。同様に、デバイス600は、カメラモードアフォーダンス620を更新して、620bを左にスライドしてディスプレイからオフにし、かつ「Pano」カメラモード620fを右からディスプレイ上にスライドする。「Photo」カメラモードは、もはや現在のモードであると示されず、代わりに、ポートレートカメラモードが、現在のモードであると示される(「ポートレート」カメラモードアフォーダンス620dのテキストを太字にすることによって、及び/又はディスプレイの中心に置かれることによって)。図8Fでは、左スワイプ入力850gに応答して、デバイス600はまた、任意選択的に触知出力860を提供して、ユーザにカメラモードが変更されていることを示す。 As shown in FIG. 8F, the device 600 shifts the boundary of the camera display area 604 to the left (in the direction of the left swipe gesture 850 g) without shifting the live preview 630. By shifting the camera display area 604, the vertical portion of the visual boundary 608 is displayed, and a colored (for example, gray) overlay is displayed in the empty area (for example, the right side of the display) of the camera display area 604. , Thereby indicating to the user that the device 600 is detecting 850 g of left swipe gesture. In FIG. 8F, a portion of the visual boundary 608 is displayed on the outside (left side) of the device 600 for the sake of clarity by the reader and is not a visual element of the user interface of the device 600. In FIG. 8F, the device 600 stops displaying the indicators 602a and 602d in the indicator area 602. Similarly, the device 600 updates the camera mode affordance 620 to slide the 620b to the left to turn it off the display and the "Pano" camera mode 620f to slide from the right onto the display. The "Photo" camera mode is no longer shown to be the current mode, instead the portrait camera mode is shown to be the current mode (bold text in the "Portrait" camera mode affordance 620d). By and / or by being placed in the center of the display). In FIG. 8F, in response to the left swipe input 850g, the device 600 also optionally provides a tactile output 860 to indicate to the user that the camera mode has been changed.

図8Gでは、デバイス600は、カメラディスプレイ領域604に着色された(例えば、灰色;半透明)オーバーレイを重ね合わるか、及び/又はデバイス600は、ライブプレビュー630を暗くするか、及び/又はデバイス600は、ディスプレイを暗くするか、及び/又はデバイス600は、(ライブプレビュー630を含む)ディスプレイをぼかす。 In FIG. 8G, the device 600 overlays a colored (eg, gray; translucent) overlay on the camera display area 604, and / or the device 600 darkens the live preview 630 and / or the device 600. Dimmes the display and / or device 600 blurs the display (including live preview 630).

図8Hでは、左スワイプジェスチャ850gを検出したことに応答して、デバイス600は、インジケータ領域602内の訂正された1組のインジケータ、更新されたライブプレビュー630、及び更新されたコントロール領域606を表示する。訂正された1組のインジケータは、以前に表示されたアニメーション化された画像状態インジケータ602dを表示することなく(例えば、新たに選択されたモードは、アニメーション化された画像状態インジケータ602dに対応する機能と不適合であるため)、以前に表示されたフラッシュインジケータ602a及び新たに表示されたf値インジケータ602eを含む(例えば、新たに選択されたモードは、フラッシュインジケータ602a及びf値インジケータ602eに対応する機能と互換性があるため)。いくつかの実施形態では、f値インジケータ602eは、f値(例えば、数値)のインジケーションを提供する。図8Hにおいて、ズームアフォーダンス622は、左にシフトすると、照明効果コントロール628(アクティブ化されると、照明効果を変更することができる)がカメラディスプレイ領域604内に表示される。いくつかの実施形態では、カメラディスプレイ領域604のサイズ、アスペクト比、及び場所は、図8Eと図8Hで同一である。図8Hの更新されたライブプレビュー630は、図8Eのライブプレビュー630と比較して、異なる視覚効果を提供する。例えば、更新されたライブプレビュー630は、ボケ効果及び/又は照明効果を提供するのに対し、図8Eのライブプレビュー630は、ボケ効果及び/又は照明効果を提供しない。いくつかの実施形態では、カメラモード(写真モード対ポートレートモード)の変更により、ライブプレビュー630内のオブジェクトのズームは変化する。いくつかの実施形態では、カメラモード(写真モード対ポートレートモード)の変更にかかわらず、ライブプレビュー630内のオブジェクトのズームは変化しない。 In FIG. 8H, in response to detecting the left swipe gesture 850 g, the device 600 displays a corrected set of indicators in the indicator area 602, an updated live preview 630, and an updated control area 606. do. The corrected set of indicators does not display the previously displayed animated image status indicator 602d (eg, the newly selected mode is a feature corresponding to the animated image status indicator 602d). (Because it is incompatible with), including the previously displayed flash indicator 602a and the newly displayed f-number indicator 602e (for example, the newly selected mode is a function corresponding to the flash indicator 602a and the f-number indicator 602e). Because it is compatible with). In some embodiments, the f-number indicator 602e provides f-number (eg, numerical) indications. In FIG. 8H, when the zoom affordance 622 is shifted to the left, the lighting effect control 628 (when activated, the lighting effect can be changed) is displayed within the camera display area 604. In some embodiments, the size, aspect ratio, and location of the camera display area 604 are the same in FIGS. 8E and 8H. The updated live preview 630 of FIG. 8H provides different visual effects as compared to the live preview 630 of FIG. 8E. For example, the updated live preview 630 provides a bokeh and / or lighting effect, whereas the live preview 630 of FIG. 8E does not provide a bokeh and / or lighting effect. In some embodiments, changing the camera mode (photo mode vs. portrait mode) changes the zoom of the objects in the live preview 630. In some embodiments, the zoom of the object in the live preview 630 does not change regardless of the change in camera mode (photo mode vs. portrait mode).

図8Eに戻ると、デバイス600は、タッチ感知面を使用して、カメラディスプレイ領域604内のライブプレビュー630上ではなく、カメラモードアフォーダンス620に対応する場所(コントロール領域606内)での左スワイプジェスチャ850hを検出する。ポートレートカメラモードに遷移している間にカメラディスプレイ領域604をシフトさせるスワイプジェスチャ850gとは対照的に、デバイスは、カメラディスプレイ領域604をシフトすることなく、図8Hのポートレートカメラモードに遷移する。したがって、デバイスは、カメラモードを遷移するための入力のいずれかを受信することができるが、更新されたカメラモードへの遷移中に異なるアニメーションを表示する。 Returning to FIG. 8E, the device 600 uses the touch-sensitive surface to make a left swipe gesture at a location (within the control area 606) corresponding to the camera mode affordance 620 rather than on the live preview 630 within the camera display area 604. 850h is detected. In contrast to the swipe gesture 850g, which shifts the camera display area 604 while transitioning to the portrait camera mode, the device transitions to the portrait camera mode of FIG. 8H without shifting the camera display area 604. .. Thus, the device can receive any of the inputs to transition the camera mode, but will display a different animation during the transition to the updated camera mode.

図8Hでは、デバイス600は、タッチ感知面を使用して、追加のコントロールアフォーダンス614に対応する場所でのタップジェスチャ850iを検出する。図8Iに示すように、タップジェスチャ850iを検出したことに応答して、デバイス600は、カメラディスプレイ領域604(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトアップし、それにより、インジケータ領域602の高さを低減し、コントロール領域606の高さを増加させる。インジケータ領域602の高さの低減に加えて、デバイス600は、フラッシュインジケータ602a及びf値インジケータ602eの表示を停止する。いくつかの例では、デバイス600は、インジケータ領域の高さ低減モードにある間にインジケータ領域602内の任意のインジケータの表示を停止する。コントロール領域606の高さを増加させることに加えて、デバイス600は、カメラモードアフォーダンス620の表示を、第2の1組のカメラ設定アフォーダンス626a、626c、626d〜626fを含むカメラ設定アフォーダンス626に置き換える。カメラ設定アフォーダンス626a、626c、626d〜626fは、アクティブ化されると、カメラ設定を変更する(又は変更するためのプロセスを開始させた)。第1の1組のカメラ設定アフォーダンスは、第2の1組のカメラ設定アフォーダンスとは異なる。例えば、アフォーダンス626aは、写真カメラモード及びポートレートカメラモードの両方に対して表示されるが、ライブフォトを有効化/無効化するアフォーダンス626bは、ポートレートカメラモードに対して表示されず、代わりに、アクティブ化されると、f値を設定するプロセスを開始する、アフォーダンス626fが表示される。いくつかの実施形態では、カメラディスプレイ領域604上の図8Hでの上スワイプジェスチャを検出することにより、デバイス600に、図8Iのユーザインタフェースを同様に表示させる。 In FIG. 8H, the device 600 uses the touch sensitive surface to detect the tap gesture 850i at a location corresponding to the additional control affordance 614. As shown in FIG. 8I, in response to detecting the tap gesture 850i, the device 600 shifts up the camera display area 604 (while maintaining the same size and aspect ratio) and the visual boundary 608, which As a result, the height of the indicator area 602 is reduced and the height of the control area 606 is increased. In addition to reducing the height of the indicator area 602, the device 600 stops displaying the flash indicator 602a and the f-number indicator 602e. In some examples, the device 600 stops displaying any indicator in the indicator area 602 while in the height reduction mode of the indicator area. In addition to increasing the height of the control area 606, the device 600 replaces the display of the camera mode affordance 620 with a camera setting affordance 626 that includes a second set of camera setting affordances 626a, 626c, 626d-626f. .. Camera settings affordances 626a, 626c, 626d-626f, when activated, change (or initiate a process for) camera settings. The first set of camera setting affordances is different from the second set of camera setting affordances. For example, affordance 626a is displayed for both photo camera mode and portrait camera mode, while affordance 626b, which enables / disables live photo, is not displayed for portrait camera mode and instead When activated, affordance 626f is displayed, which initiates the process of setting the f-number. In some embodiments, the device 600 is similarly displayed with the user interface of FIG. 8I by detecting the upper swipe gesture in FIG. 8H on the camera display area 604.

図8Iでは、デバイス600は、タッチ感知面を使用して、ポートレートカメラモードにある間に、アスペクト比コントロールアフォーダンス626cに対応する場所(コントロール領域606内)でのタップジェスチャ850jを検出する。 In FIG. 8I, the device 600 uses the touch-sensitive surface to detect the tap gesture 850j at a location (within the control area 606) corresponding to the aspect ratio control affordance 626c while in portrait camera mode.

図8Jでは、タップジェスチャ850jを検出したことに応答して、デバイス600は、アスペクト比コントロールアフォーダンス626cの表示を拡張して、調整可能なアスペクト比コントロール818を表示し、これは、アクティブ化されると(例えば、タップにより)、カメラディスプレイ領域604のアスペクト比を変更する、複数のアフォーダンス818a〜1818dを含む。図8Jでは、4:3のアスペクト比アフォーダンス818bは、太字化されて、カメラディスプレイ領域604のアスペクト比が4:3(非正方形のアスペクト比)であることを示す。図8Jでは、調整可能なアスペクト比コントロール818を表示している間に、デバイス600は、タッチ感知面を使用して、正方形のアスペクト比アフォーダンス818aに対応する場所でのタップジェスチャ850kを検出する。 In FIG. 8J, in response to detecting the tap gesture 850j, the device 600 extends the display of the aspect ratio control affordance 626c to display the adjustable aspect ratio control 818, which is activated. And (eg, by tapping) include a plurality of affordances 818a-1818d that change the aspect ratio of the camera display area 604. In FIG. 8J, the 4: 3 aspect ratio affordance 818b is bolded to show that the camera display area 604 has an aspect ratio of 4: 3 (non-square aspect ratio). In FIG. 8J, while displaying the adjustable aspect ratio control 818, the device 600 uses the touch sensitive surface to detect a tap gesture 850k at a location corresponding to the square aspect ratio affordance 818a.

図8Kでは、タップジェスチャ850kを検出したことに応答して、デバイス600は、カメラディスプレイ領域604のアスペクト比を正方形に変更する。その結果、デバイス600はまた、インジケータ領域602及びコントロール領域606の一方又は両方の高さを増加させる。図8Kに示すように、照明効果コントロール628は、コントロール領域606の高さが増加したため、現在、コントロール領域606内に表示される。 In FIG. 8K, in response to detecting the tap gesture 850k, the device 600 changes the aspect ratio of the camera display area 604 to a square. As a result, the device 600 also increases the height of one or both of the indicator area 602 and the control area 606. As shown in FIG. 8K, the illumination effect control 628 is now displayed within the control area 606 due to the increased height of the control area 606.

図8Kでは、デバイス600は、タッチ感知面を使用して、「Photo」カメラモード620cに対応する場所でのタップジェスチャ850lを検出して、カメラが動作しているモードを変更する。 In FIG. 8K, the device 600 uses the touch-sensitive surface to detect 850 l of tap gestures at a location corresponding to the “Photo” camera mode 620c to change the mode in which the camera is operating.

図8Lでは、タップジェスチャ850lを検出したことに応答して、デバイス600は、ポートレートカメラモードから写真カメラモードにカメラモードを変更する。カメラモードが変更され、f値インジケータ602eがもはや表示されていないが、カメラディスプレイ領域604のサイズ、アスペクト比、及び場所は、図8K及び図8Lの両方において同じである。「Photo」カメラモードアフォーダンスは、現在、太字化されて、写真カメラモードが現在アクティブであることを示す。 In FIG. 8L, in response to detecting the tap gesture 850l, the device 600 changes the camera mode from the portrait camera mode to the photographic camera mode. Although the camera mode has been changed and the f-number indicator 602e is no longer displayed, the size, aspect ratio, and location of the camera display area 604 are the same in both FIGS. 8K and 8L. The "Photo" camera mode affordance is now bolded to indicate that the photo camera mode is currently active.

図8Lでは、デバイス600は、タッチ感知面を使用して、アスペクト比インジケータ602gに対応する場所でのタップジェスチャ850mを検出する。図8Kでは、タップジェスチャ850mを検出したことに応答して、デバイス600は、コントロール領域606内のカメラモードアフォーダンス620の表示を、調整可能なアスペクト比コントロール818の表示に置き換え、これは、アクティブ化されると(例えば、タップにより)、上述のように、カメラディスプレイ領域604のアスペクト比を変更する、アフォーダンス818a〜1818dを含む。 In FIG. 8L, the device 600 uses the touch sensitive surface to detect a tap gesture 850 m at a location corresponding to the aspect ratio indicator 602 g. In FIG. 8K, in response to detecting the tap gesture 850 m, the device 600 replaces the display of the camera mode affordance 620 in the control area 606 with the display of the adjustable aspect ratio control 818, which is activated. When done (eg, by tapping), it includes affordances 818a-1818d that change the aspect ratio of the camera display area 604, as described above.

図8Mでは、デバイス600は、タッチ感知面を使用して、アスペクト比コントロールアフォーダンス626cに対応する場所でのタップジェスチャ850nを検出する。図8Nでは、タップジェスチャ850nを検出したことに応答して、デバイス600は、アスペクト比コントロールアフォーダンス626cの表示を収縮して、調整可能なアスペクト比コントロール818の表示を停止する。 In FIG. 8M, the device 600 uses the touch-sensitive surface to detect a tap gesture 850n at a location corresponding to the aspect ratio control affordance 626c. In FIG. 8N, in response to detecting the tap gesture 850n, the device 600 contracts the display of the aspect ratio control affordance 626c to stop the display of the adjustable aspect ratio control 818.

図8N〜図8Pのそれぞれでは、デバイス600は、タッチ感知面を使用して、ズームアフォーダンス622に対応する場所でのタップジェスチャ850o、850p、及び850qを検出する。タップジェスチャ850oに応答して、図8Oに示すように、デバイス600は、ライブプレビュー630のズームを(例えば、第1のカメラセンサから異なる視野を有する第2のカメラセンサにカメラセンサを切り替えることによって)更新し、かつズームアフォーダンス622を更新して現在のズームを示す。タップジェスチャ850pに応答して、図8Pに示すように、デバイス600は、ライブプレビュー630のズームを(例えば、第2のカメラセンサから異なる視野を有する第3のカメラセンサに切り替えることによって)更新し、かつズームアフォーダンス622を更新して現在のズームを示す。タップジェスチャ850qに応答して、図8Qに示すように、デバイス600は、ライブプレビュー630のズームを(例えば、第3のカメラセンサから異なる視野を有する第1のカメラセンサに切り替えることによって)更新し、かつズームアフォーダンス622を更新して現在のズームを示す。図8M〜図8Qに通じて、コントロール領域606内のコントロールは変更されず、インジケータ領域602内のインジケータは変更されなかった。 In each of FIGS. 8N-8P, the device 600 uses the touch sensitive surface to detect tap gestures 850o, 850p, and 850q at locations corresponding to zoom affordance 622. In response to the tap gesture 850o, as shown in FIG. 8O, the device 600 zooms in on the live preview 630 (eg, by switching the camera sensor from the first camera sensor to a second camera sensor with a different field of view. ) Update and update Zoom Affordance 622 to show the current zoom. In response to the tap gesture 850p, the device 600 updates the zoom of the live preview 630 (eg, by switching from a second camera sensor to a third camera sensor with a different field of view), as shown in FIG. 8P. , And the zoom affordance 622 is updated to show the current zoom. In response to the tap gesture 850q, the device 600 updates the zoom of the live preview 630 (eg, by switching from a third camera sensor to a first camera sensor with a different field of view), as shown in FIG. 8Q. , And the zoom affordance 622 is updated to show the current zoom. Throughout FIGS. 8M-8Q, the controls in the control area 606 were not changed and the indicators in the indicator area 602 were not changed.

図8Qでは、カメラ設定アフォーダンス626を表示している間に、デバイス600は、タッチ感知面を使用して、カメラディスプレイ領域604内のライブプレビュー630に対応する場所での下スワイプジェスチャ850rを検出する。下スワイプジェスチャ850rを検出したことに応答して、デバイス600は、カメラ設定アフォーダンス626の表示を、図8Rに示すように、カメラモードアフォーダンス620に置き換える。いくつかの実施形態では、デバイス600はまた、カメラディスプレイ領域604(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトダウンし、それにより、インジケータ領域602の高さを増加させ、コントロール領域606の高さを減少させる。いくつかの実施形態では、正方形のアスペクト比により、カメラ設定アフォーダンス626が表示されている間にインジケータをより容易に収容する高さをインジケータ領域602が有することを可能にするため、デバイス600は、図8K〜図8Sのアスペクト比インジケータ602gの表示を維持する。 In FIG. 8Q, while displaying the camera setting affordance 626, the device 600 uses the touch sensitive surface to detect the lower swipe gesture 850r at a location corresponding to the live preview 630 in the camera display area 604. .. In response to detecting the lower swipe gesture 850r, the device 600 replaces the display of the camera setting affordance 626 with the camera mode affordance 620, as shown in FIG. 8R. In some embodiments, the device 600 also shifts down the camera display area 604 (while maintaining the same size and aspect ratio) and the visual boundary 608, thereby increasing the height of the indicator area 602. , Reduce the height of the control area 606. In some embodiments, the device 600 allows the indicator area 602 to have a height that more easily accommodates the indicator while the camera setting affordance 626 is displayed due to the square aspect ratio. The display of the aspect ratio indicator 602g of FIGS. 8K to 8S is maintained.

図8Rでは、カメラディスプレイ領域604が正方形のアスペクト比を有する間に、デバイス600は、タッチ感知面を使用して、シャッターアフォーダンス610に対応する場所でのタップジェスチャ850sを検出する。タップジェスチャ850sを検出したことに応答して、デバイス600は、ライブプレビュー630の現在の状態に基づいて、メディア(例えば、写真、ビデオ)をキャプチャする。キャプチャされたメディアは、電子デバイスにローカルに記憶されるか、及び/又は記憶のためにリモートサーバに送信される。更に、図8Sに示すようにタップジェスチャ850sを検出したことに応答して、デバイス600は、追加のコントロールアフォーダンス614の表示を、メディアコレクション624に置き換え、コレクションの上に新たにキャプチャされたメディアの表現を含む。 In FIG. 8R, the device 600 uses the touch-sensitive surface to detect tap gestures 850s at locations corresponding to the shutter affordance 610, while the camera display area 604 has a square aspect ratio. In response to detecting the tap gesture 850s, the device 600 captures media (eg, photo, video) based on the current state of live preview 630. The captured media is stored locally on the electronic device and / or sent to a remote server for storage. Further, in response to detecting the tap gesture 850s as shown in FIG. 8S, the device 600 replaces the display of the additional control affordance 614 with the media collection 624 of the newly captured media on top of the collection. Including expressions.

図8Sでは、デバイス600は、タッチ感知面を使用して、メディアコレクション624に対応する場所でのタップジェスチャ850tを検出する。図8Tに示すようにタップジェスチャ850tを検出したことに応答して、デバイス600は、ライブプレビュー630の表示を停止し、代わりに、新たにキャプチャされたメディア(例えば、写真、ビデオのフレーム)の表現842を含む写真ビューワユーザインタフェースを表示する。デバイス600は、新たにキャプチャされたメディアの表現842と、新たにキャプチャされたメディアを編集するための編集アフォーダンス644aと、新たにキャプチャされたメディアを伝送するための送信アフォーダンス644bと、新たにキャプチャされたメディアをお気に入りのメディアとしてマーキングするためのお気に入りアフォーダンス644cと、新たにキャプチャされたメディアを削除するためのごみ箱アフォーダンス644dと、を同時に表示する。 In FIG. 8S, the device 600 uses the touch sensitive surface to detect a tap gesture 850t at a location corresponding to the media collection 624. In response to detecting the tap gesture 850t as shown in FIG. 8T, the device 600 stops displaying the live preview 630 and instead of the newly captured media (eg, photo, video frame). Display a photo viewer user interface that includes representation 842. The device 600 newly captures a representation of the newly captured media 842, an edit affordance 644a for editing the newly captured media, and a transmit affordance 644b for transmitting the newly captured media. A favorite affordance 644c for marking the created media as a favorite media and a recycle bin affordance 644d for deleting the newly captured media are displayed at the same time.

図8Tでは、デバイス600は、タッチ感知面を使用して、編集アフォーダンス644aに対応する場所でのタップジェスチャ850uを検出する。タップジェスチャ850uを検出したことに応答して、図8Uに示すように、デバイス600は、新たにキャプチャされたメディアを編集する編集ユーザインタフェースを表示する。編集ユーザインタフェースは、正方形のアスペクト比でメディアがキャプチャされたことを示すために、ハイライトされた正方形アスペクト編集アフォーダンス846aを備える、アスペクト編集アフォーダンス846a〜846dを含む。 In FIG. 8T, the device 600 uses the touch-sensitive surface to detect the tap gesture 850u at a location corresponding to the edit affordance 644a. In response to detecting the tap gesture 850u, the device 600 displays an edit user interface for editing the newly captured media, as shown in FIG. 8U. The editing user interface includes aspect editing affordances 846a-846d, including highlighted square aspect editing affordances 846a to indicate that the media was captured with a square aspect ratio.

図8Uでは、デバイス600は、タッチ感知面を使用して、4:3アスペクト比編集アフォーダンス846bに対応する場所で4:3のタップジェスチャ850vを検出する。タップジェスチャ850vを検出したことに応答して、図8Vに示すように、正方形のアスペクト比で表示されるメディアの視覚コンテンツを維持し、4:3のアスペクト比を超えて視覚コンテンツを拡張する(シャッターアフォーダンス610上のタップジェスチャ850sに応答して、)キャプチャされた視覚コンテンツを追加しながら、デバイス600は、正方形のアスペクト比から4:3のアスペクト比へのメディアの表現の表示を更新する。加えて、4:3のアスペクト編集アフォーダンス846bは、メディアが拡張された4:3のアスペクト比で示されていることを示すためにハイライトされる。 In FIG. 8U, the device 600 uses the touch-sensitive surface to detect a 4: 3 tap gesture 850v at a location corresponding to the 4: 3 aspect ratio editing affordance 846b. In response to the detection of tap gesture 850v, as shown in FIG. 8V, the visual content of the media displayed in a square aspect ratio is maintained and the visual content is extended beyond the 4: 3 aspect ratio ( The device 600 updates the display of the media representation from a square aspect ratio to a 4: 3 aspect ratio while adding the captured visual content) in response to the tap gesture 850s on the shutter affordance 610. In addition, the 4: 3 aspect editing affordance 846b is highlighted to show that the media is presented with an extended 4: 3 aspect ratio.

図9A〜図9Cは、いくつかの実施形態による電子デバイスを使用してメディアコントロールを表示するための方法を示すフロー図である。方法900は、表示デバイス及び1つ以上のカメラ(例えば、電子デバイスの異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を備えるデバイス(例えば、100、300、500、600)で行われる。方法900のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 9A-9C are flow diagrams illustrating methods for displaying media controls using electronic devices according to some embodiments. Method 900 provides a display device and one or more cameras (eg, one or more cameras (eg, dual cameras, triple cameras, quad cameras, etc.) on different sides of an electronic device (eg, front camera, rear camera)). This is done on a device that includes (eg, 100, 300, 500, 600). Some actions of Method 900 are optionally combined, some actions are arbitrarily modified in order, and some actions are optionally omitted.

後述するように、方法900は、メディアコントロールを表示するための直感的な仕方を提供する。この方法は、メディアコントロールを表示する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアコントロールを閲覧することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, Method 900 provides an intuitive way to display media controls. This method reduces the user's cognitive burden when displaying media controls, thereby creating a more efficient human-machine interface. For battery-powered computing devices, it saves power and prolongs the time between battery charges by enabling users to browse media controls faster and more efficiently.

電子デバイス(例えば、600)は、表示デバイスを介して、カメラユーザインタフェースを表示する(902)。カメラユーザインタフェースは、(例えば、電子デバイスがカメラユーザインタフェース内に同時に表示する)カメラディスプレイ領域を含み、カメラディスプレイ領域は、1つ以上のカメラの視野の表現(例えば、630)を含む(904)。 The electronic device (eg, 600) displays the camera user interface via the display device (902). The camera user interface includes a camera display area (eg, an electronic device simultaneously displays within the camera user interface), and the camera display area includes a representation of the field of view of one or more cameras (eg, 630) (904). ..

カメラユーザインタフェースは、(例えば、電子デバイスがカメラユーザインタフェース内に同時に表示する)カメラコントロール領域(例えば、606)を含み、カメラコントロール領域は、第1の場所(例えば、画像キャプチャアフォーダンス(例えば、アクティブ化されると、カメラディスプレイ領域内に表示されたコンテンツの画像をキャプチャするシャッターアフォーダンス)の上の場所)で複数のカメラモードアフォーダンス(例えば、620)(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、異なるカメラモード(例えば、スローモーション、ビデオ、写真、ポートレート、正方形、パノラマなど)を選択するアフォーダンス)を含む(906)。いくつかの実施形態では、各カメラモード(例えば、ビデオ、写真(phot)/静止(still)、ポートレート、スローモーション、パノラマモード)は、カメラ(例えば、カメラセンサ)がメディアをキャプチャするように動作している(キャプチャ後に自動的に行われる後処理を含む)モード(例えば、ポートレートモード)の複数の値(例えば、各設定の光のレベル)を有する複数の設定(例えば、ポートレートカメラモードについて:スタジオ照明設定、輪郭照明設定、舞台照明設定)を有する。このようにして、例えば、カメラモードは、メディアをキャプチャするときにカメラがどのように動作するかに影響を及ぼさないモードとは異なるか、又は複数の設定(例えば、複数の値(例えば、非アクティブ、アクティブ、自動)を有する1つの設定を有するフラッシュモード)を含まない。いくつかの実施形態では、カメラモードにより、ユーザは、異なるタイプのメディア(例えば、写真又はビデオ)をキャプチャすることを可能にし、各モードの設定を最適化して、特定の特性(例えば、形状(例えば、正方形、矩形)、速さ(例えば、スローモーション、時間経過)、オーディオ、ビデオ)を有する特定のモードに対応する特定のタイプのメディアを(例えば、後処理を介して)キャプチャすることができる。例えば、静止写真モードで動作するように電子デバイス(例えば、600)が構成されている場合、電子デバイスの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定、1つ以上のフィルタ設定)を有する第1のタイプ(例えば、矩形の写真)のメディアをキャプチャし、正方形モードで動作するように電子デバイスが構成されている場合、電子デバイスの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定及び1つ以上のフィルタ)を有する第2のタイプ(例えば、正方形の写真)のメディアをキャプチャし、スローモーションモードで動作するように電子デバイスが構成されている場合、電子デバイスの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定、秒コマ数キャプチャ速さ)を有する第3のタイプ(例えば、スローモーションビデオ)のメディアのメディアをキャプチャし、ポートレートモードで動作するように電子デバイスが構成されている場合、電子デバイスの1つ以上のカメラは、特定の設定(例えば、特定のタイプの光(例えば、舞台光、スタジオ光、輪郭光)の量、f値、ぼかし)を有する第5のタイプ(例えば、ポートレート写真(例えば、ぼかしをかけた背景を有する写真))のメディアをキャプチャし、パノラマモードで動作するように電子デバイスが構成されている場合、電子デバイスの1つ以上のカメラは、特定の設定(例えば、ズーム、移動しながらキャプチャするための視野の量)を有する第4のタイプ(例えば、パノラマ写真(例えば、広い写真)のメディアをキャプチャする。いくつかの実施形態では、モード間の切り替え時、視野の表現(例えば、630)の表示は、モードによってキャプチャされるメディアのタイプに対応するように変化する(例えば、電子デバイス(例えば、600)が静止写真モードで動作している間、この表現は、矩形モードであり、電子デバイスが正方形モードで動作している間、この表現は、正方形である)。 The camera user interface includes a camera control area (eg, 606) (eg, an electronic device simultaneously displays within the camera user interface), and the camera control area is a first location (eg, image capture affordance (eg, active)). Multiple camera mode affordances (eg, 620) (eg, selectable user interface objects) (eg, selectable user interface objects) (eg, a location above the shutter afford) that captures an image of the content displayed within the camera display area. Includes affordance to select different camera modes (eg slow motion, video, photo, portrait, square, panorama, etc.) (906). In some embodiments, each camera mode (eg, video, photo (phot) / still, portrait, slow motion, panorama mode) is such that the camera (eg, camera sensor) captures the media. Multiple settings (eg, portrait camera) with multiple values (eg, the light level of each setting) of a working mode (including post-processing that is done automatically after capture) (eg, portrait mode). Mode: Has studio lighting settings, contour lighting settings, stage lighting settings). In this way, for example, the camera mode is different from the mode that does not affect how the camera behaves when capturing media, or multiple settings (eg, multiple values (eg, non-). Does not include flash mode) with one setting that has active, active, automatic). In some embodiments, camera modes allow the user to capture different types of media (eg, photos or videos), optimizing the settings for each mode, and specifying specific characteristics (eg, shapes (eg, shapes)). For example, it is possible to capture a particular type of media (eg, via post-processing) that corresponds to a particular mode with speed (eg, slow motion, over time), audio, video) (square, rectangle). can. For example, if an electronic device (eg, 600) is configured to operate in still photo mode, then one or more cameras in the electronic device will have certain settings (eg, flash settings, 1) when activated. If the electronic device is configured to capture media of a first type (eg, a rectangular photo) with one or more filter settings) and operate in square mode, then one or more cameras in the electronic device When activated, it captures a second type of media (eg, a square photo) with certain settings (eg, flash settings and one or more filters) and electronically to operate in slow motion mode. When the device is configured, one or more cameras in the electronic device, when activated, have a third type (eg, slow) with certain settings (eg, flash settings, number of frames per second capture speed). When an electronic device is configured to capture media of media (motion video) and operate in portrait mode, one or more cameras of the electronic device will have a specific setting (eg, a specific type of light (eg, a specific type of light). For example, capturing media of a fifth type (eg, a portrait photo (eg, a photo with a blurred background)) having an amount of stage light, studio light, contour light, f-value, blur), When the electronic device is configured to operate in panoramic mode, one or more cameras of the electronic device have a fourth setting (eg, zoom, amount of field of view for moving and capturing). Capturing media of a type (eg, a panoramic photo (eg, a wide photo). In some embodiments, when switching between modes, the representation of the field of view (eg, 630) is a display of the media captured by the mode. This representation is in rectangular mode, while the electronic device (eg, 600) is operating in still photo mode, and while the electronic device is operating in square mode. This expression is square).

いくつかの実施形態では、複数のカメラ設定アフォーダンス(例えば、618a〜618d)は、メディアをキャプチャする第1の要求に応答して、表示されると、第1のアスペクト比(例えば、4×3、16×9)で表示されるメディアをキャプチャするように電子デバイス(例えば、600)を構成するアフォーダンス(例えば、618a〜618d)(例えば、選択可能ユーザインタフェースオブジェクト)を含む。表示されると、メディアをキャプチャする第1の要求に応答して、第1のアスペクト比で表示されるメディアをキャプチャするように電子デバイスを構成するアフォーダンスを含むことにより、ユーザが、第1のアスペクト比を迅速かつ容易に設定及び/又は変更することを可能にする。表示される追加コントローラによってUIを雑然とさせることなく、必要な制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、電子デバイス(例えば、600)は、アフォーダンス(例えば、618a〜618d)の選択を受信し、それに応じて、電子デバイスは、第1のアスペクト比を第2のアスペクト比に変更するために動かすことができるコントロール(例えば、境界部ボックス608)を表示する。 In some embodiments, the plurality of camera setting affordances (eg, 618a-618d), when displayed in response to the first request to capture the media, have a first aspect ratio (eg, 4x3). , 16x9) include affordances (eg, 618a-618d) (eg, selectable user interface objects) that make up an electronic device (eg, 600) to capture media displayed. When displayed, the user can first configure the electronic device to capture the media displayed in the first aspect ratio in response to the first request to capture the media. Allows the aspect ratio to be set and / or changed quickly and easily. By providing the necessary control options without cluttering the UI with the additional controllers displayed, the user-device interface is enhanced (eg, when manipulating / interacting with the device). By assisting the user in providing the proper input to the device and reducing user errors), and in addition, by allowing the user to use the device faster and more efficiently, the power of the device. Reduced use and improved battery life. In some embodiments, the electronic device (eg, 600) receives a selection of affordances (eg, 618a-618d), and accordingly, the electronic device changes the first aspect ratio to the second aspect ratio. Display controls that can be moved to change (eg, border box 608).

いくつかの実施形態では、1つ以上のカメラの視野の表現(例えば、630)は、第1のズームレベル(例えば、1×ズーム)で表示される(908)。いくつかの実施形態では、第1のズームレベルで表示される1つ以上のカメラの視野の表現(例えば、630)を表示している間に、電子デバイス(例えば、600)は、表現のズームレベルを変更する第1の要求(例えば、表示デバイス上でのタップ)を受信する(910)。いくつかの実施形態では、表現(例えば、630)のズームレベルを変更する第1の要求を受信したことに応答して(912)、表現のズームレベルを変更する要求が、表現のズームレベルを上げる要求に対応するという判定に従って、電子デバイス(例えば、600)は、1つ以上のカメラの第2の表現視野を第1のズームレベルよりも大きい第2のズームレベル(例えば、2×ズーム)で表示する(914)。いくつかの実施形態では、表現のズームレベルを変更する第1の要求を受信したことに応答して(912)、表現のズームレベルを変更する要求が、表現(例えば、630)のズームレベルを下げる要求に対応するという判定に従って、電子デバイス(例えば、600)は、1つ以上のカメラの第3の表現視野を第1のズームレベルよりも小さい第3のズーム(例えば、0.5×ズーム)レベルで表示する(916)。いくつかの実施形態では、ズームレベルの倍率間の差は、不均一である(例えば、0.5×と1×との間(例えば、0.5×差)及び1×と2×との間(例えば、1×差))。 In some embodiments, the representation of the field of view of one or more cameras (eg, 630) is displayed at the first zoom level (eg, 1x zoom) (908). In some embodiments, the electronic device (eg, 600) zooms the representation while displaying a representation (eg, 630) of the field of view of one or more cameras displayed at the first zoom level. Receive a first request to change the level (eg, a tap on the display device) (910). In some embodiments, in response to receiving a first request to change the zoom level of the representation (eg, 630) (912), the request to change the zoom level of the representation determines the zoom level of the representation. According to the determination that the demand for raising is met, the electronic device (eg, 600) has a second zoom level (eg, 2x zoom) that makes the second representation field of view of one or more cameras larger than the first zoom level. Is displayed (914). In some embodiments, in response to receiving a first request to change the zoom level of the representation (912), the request to change the zoom level of the representation determines the zoom level of the representation (eg, 630). According to the determination that the lowering request is met, the electronic device (eg, 600) has a third zoom (eg, 0.5 × zoom) that makes the third representation field of view of one or more cameras smaller than the first zoom level. ) Display at the level (916). In some embodiments, the difference between the magnifications of the zoom level is non-uniform (eg, between 0.5x and 1x (eg, 0.5x difference) and between 1x and 2x). Between (for example, 1 x difference)).

いくつかの実施形態では、第4のズームレベル(例えば、現在のズームレベル(例えば、0.5×、1×、又は2×ズーム))で1つ以上のカメラの視野の表現(例えば、630)を表示している間に、電子デバイス(例えば、600)は、表現のズームレベルを変更する第2の要求(例えば、表示デバイス上でのタップ)を受信する(918)。いくつかの実施形態では、表現のズームレベルを変更する第2の要求を受信したことに応答して(920)、第4のズームレベルが第2のズームレベル(例えば、2×ズーム)である(及び、いくつかの実施形態では、表現のズームレベルを変更する第2の要求が、表現のズームレベルを上げる第2の要求に対応する)という判定に従って、電子デバイス(例えば、600)は、1つ以上のカメラの視野の第4の表現を第3のズームレベル(例えば、0.5×ズーム)で表示する(922)。いくつかの実施形態では、表現のズームレベルを変更する第2の要求を受信したことに応答して(920)、第4のズームレベルが第3のズームレベル(例えば、0.5×ズーム)である(及び、いくつかの実施形態では、表現のズームレベルを変更する第2の要求が、表現のズームレベルを上げる第2の要求に対応する)という判定に従って、電子デバイス(例えば、600)は、1つ以上のカメラの視野の第5の表現を第1のズームレベル(例えば、1×ズーム)で表示する(924)。いくつかの実施形態では、表現のズームレベルを変更する第2の要求を受信したことに応答して(920)、第4のズームレベルが第1のズームレベル(例えば、1×)である(及び、いくつかの実施形態では、表現のズームレベルを変更する第2の要求が、表現のズームレベルを上げる第2の要求に対応する)という判定に従って、電子デバイス(例えば、600)は、1つ以上のカメラの視野の第6の表現を第2のズームレベル(例えば、2×)で表示する(926)。いくつかの実施形態では、カメラユーザインタフェースは、選択されると、1組の所定のズーム値を循環するアフォーダンス(例えば、622)を含む(例えば、0.5×から1×に、2×に循環し、0.5×に戻る、又は2×から1×に、0.5×に循環し、2×に戻る)。選択されると、1組の所定のズーム値を循環するアフォーダンスを提供することにより、選択可能な所定のズーム値の視覚的フィードバックをユーザに提供する。改善されたフィードバックを提供すれば、ユーザの活動競争への参加が増加し、デバイスの操作性が向上し、(例えば、ユーザが適切な入力を提供することを助け、デバイスとの動作/対話時にユーザの間違いを低減することによって)ユーザとデバイスのインタフェースがより効率的になり、これによって、ユーザがデバイスをより迅速かつ効率的に使用できるようになることにより、更に、電力使用が低減し、デバイスのバッテリ寿命が改善される。いくつかの実施形態では、ズームレベルが上限ズームレベル(例えば、2×)である場合、及びズームを上げる要求に応答して、電子デバイス(例えば、600)は、ズームレベルを0.5×に変更する。いくつかの実施形態では、ズームレベルが下限ズームレベル(例えば、0.5×)である場合、及びズームを下げる要求に応答して、電子デバイス(例えば、600)は、ズームレベルを2×に変更する。 In some embodiments, a fourth zoom level (eg, the current zoom level (eg, 0.5x, 1x, or 2x zoom)) represents the field of view of one or more cameras (eg, 630). ) Is displayed, the electronic device (eg, 600) receives a second request (eg, a tap on the display device) to change the zoom level of the representation (918). In some embodiments, in response to receiving a second request to change the zoom level of the representation (920), the fourth zoom level is the second zoom level (eg, 2x zoom). (And, in some embodiments, the electronic device (eg, 600) is subject to the determination that the second requirement to change the zoom level of the representation corresponds to the second requirement to increase the zoom level of the representation). A fourth representation of the field of view of one or more cameras is displayed at a third zoom level (eg, 0.5 x zoom) (922). In some embodiments, in response to receiving a second request to change the zoom level of the representation (920), the fourth zoom level is the third zoom level (eg, 0.5 x zoom). (And in some embodiments, the second requirement to change the zoom level of the representation corresponds to the second requirement to increase the zoom level of the representation) according to the determination (eg, 600). Displays a fifth representation of the field of view of one or more cameras at a first zoom level (eg, 1x zoom) (924). In some embodiments, the fourth zoom level is the first zoom level (eg, 1x) in response to receiving a second request to change the zoom level of the representation (920). And, in some embodiments, the electronic device (eg, 600) is 1 in accordance with the determination that the second requirement to change the zoom level of the representation corresponds to the second requirement to increase the zoom level of the representation). A sixth representation of the field of view of one or more cameras is displayed at a second zoom level (eg, 2x) (926). In some embodiments, the camera user interface, when selected, comprises an affordance (eg, 622) that circulates a set of predetermined zoom values (eg, from 0.5x to 1x to 2x). Cycle and return to 0.5x, or from 2x to 1x, circulate to 0.5x and back to 2x). When selected, it provides the user with visual feedback of selectable predetermined zoom values by providing an affordance that circulates a set of predetermined zoom values. Providing improved feedback will increase user participation in competition and improve device usability (eg, help users provide proper input and interact with / interact with the device). By reducing user error, the interface between the user and the device becomes more efficient, which allows the user to use the device faster and more efficiently, further reducing power usage. Improves device battery life. In some embodiments, the electronic device (eg, 600) sets the zoom level to 0.5x when the zoom level is the upper limit zoom level (eg, 2x) and in response to a request to increase the zoom. change. In some embodiments, the electronic device (eg, 600) sets the zoom level to 2x when the zoom level is the lower limit zoom level (eg, 0.5x) and in response to a request to lower the zoom. change.

カメラユーザインタフェースを表示している間に、電子デバイス(例えば、600)は、カメラユーザインタフェース上で第1のジェスチャ(例えば、850g、850h、タッチジェスチャ(例えば、スワイプ))を検出する(928)。 While displaying the camera user interface, the electronic device (eg, 600) detects a first gesture (eg, 850g, 850h, touch gesture (eg, swipe)) on the camera user interface (928). ..

第1のジェスチャ(例えば、850g、850h)を検出したことに応答して、電子デバイス(例えば、600)は、カメラコントロール領域(例えば、606)の外観を修正し(930)、この修正することには、ジェスチャが第1のタイプ(例えば、カメラモードアフォーダンス上でのスワイプジェスチャ)(例えば、第1の場所でのジェスチャ)のジェスチャであるという判定に従って、第1の場所で1つ以上の追加のカメラモードアフォーダンス(例えば、620f、選択可能ユーザインタフェースオブジェクト)を表示する(932)(例えば、1つ以上の表示されたカメラモードアフォーダンスがもはや表示されず、1つ以上の追加のカメラモードアフォーダンスが第1の場所で表示されるように、複数のカメラモードアフォーダンスをスクロールする)ことを含む。ジェスチャが第1のタイプのジェスチャであるという判定に従って、1つ以上の追加のカメラモードアフォーダンスを表示することにより、ユーザが、他のカメラモードアフォーダンスに迅速かつ容易にアクセスすることを可能にする。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In response to detecting the first gesture (eg, 850 g, 850 h), the electronic device (eg, 600) modifies the appearance of the camera control area (eg, 606) (930) and modifies this. Is added one or more at the first location according to the determination that the gesture is a gesture of the first type (eg, a swipe gesture on the camera mode affordance) (eg, a gesture at the first location). Display camera mode affordances (eg, 620f, selectable user interface objects) (932) (eg, one or more displayed camera mode affordances are no longer displayed and one or more additional camera mode affordances are displayed. Includes scrolling multiple camera mode affordances to be displayed in the first place). By displaying one or more additional camera mode affordances according to the determination that the gesture is the first type of gesture, the user can quickly and easily access the other camera mode affordances. By providing additional control options without cluttering the UI with the additional controllers displayed, the user-device interface is enhanced (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.

いくつかの実施形態では、第1のタイプのジェスチャは、複数のカメラモードアフォーダンス(例えば、620)(例えば、2つ以上のカメラモードアフォーダンス又は複数のカメラアフォーダンスに関連付けられた領域の一部分に対するスワイプ)のうちの少なくとも1つ上の接触の移動(例えば、850h、表示デバイス上のスワイプ)である。 In some embodiments, the first type of gesture is a plurality of camera mode affordances (eg, 620) (eg, a swipe over two or more camera mode affordances or a portion of the area associated with the plurality of camera affordances). The movement of the contact above at least one of them (eg, 850 h, swipe on the display device).

いくつかの実施形態では、ジェスチャは、第1のタイプのものであり、第1のジェスチャを検出することは、第1のジェスチャの第1の部分(例えば、初期部分、接触、それに続く第1の量の移動)及び第1のジェスチャの第2の部分(後続の部分、接触の移動の継続)を検出することを含む。いくつかの実施形態では、第1のジェスチャの第1の部分を検出したことに応答して、電子デバイス(例えば、600)は、表示デバイスを介して、1つ以上のカメラの視野の表現の少なくとも一部分を取り囲む(例えば、包囲する、範囲内にある)(例えば、1つ以上のカメラの視野の表現(例えば、カメラプレビュー)の周囲に表示された境界部(例えば、フレーム))1つ以上の別個の境界部要素を含む境界部(例えば、608)(例えば、単一の連続する境界部又は各角部で別個の要素からなる境界部)を表示する。第1のジェスチャの第1の部分を検出したことに応答して、1つ以上のカメラの視野の表現の少なくとも一部分を取り囲む1つ以上の別個の境界部要素を含む境界部を表示することにより、第1のジェスチャの第1の部分が検出されたという視覚的フィードバックをユーザに提供する。改善されたフィードバックを提供すれば、ユーザの活動競争への参加が増加し、デバイスの操作性が向上し、(例えば、ユーザが適切な入力を提供することを助け、デバイスとの動作/対話時にユーザの間違いを低減することによって)ユーザとデバイスのインタフェースがより効率的になり、これによって、ユーザがデバイスをより迅速かつ効率的に使用できるようになることにより、更に、電力使用が低減し、デバイスのバッテリ寿命が改善される。いくつかの実施形態では、第1のジェスチャの第2の部分を検出したことに応答して、電子デバイス(例えば、600)は、境界部の少なくとも一部分がディスプレイから平行移動され(表示デバイスの第1の縁部から平行移動され)、表示が停止されるまで、境界部(例えば、図8Fの608)を第1の方向に表示デバイスのディスプレイを横切って平行移動させる(例えば、動く、摺動する、遷移する)。第1のジェスチャの第2の部分を検出したことに応答して、境界部の少なくとも一部分がディスプレイから平行移動され、表示が停止されるまで、境界部を第1の方向に表示デバイスのディスプレイを横切って平行移動させることにより、第1のジェスチャが(例えば、完全に)検出されたという視覚的フィードバックをユーザに提供する。改善されたフィードバックを提供すれば、ユーザの活動競争への参加が増加し、デバイスの操作性が向上し、(例えば、ユーザが適切な入力を提供することを助け、デバイスとの動作/対話時にユーザの間違いを低減することによって)ユーザとデバイスのインタフェースがより効率的になり、これによって、ユーザがデバイスをより迅速かつ効率的に使用できるようになることにより、更に、電力使用が低減し、デバイスのバッテリ寿命が改善される。 In some embodiments, the gesture is of the first type, and detecting the first gesture is a first part of the first gesture (eg, an initial part, a contact, followed by a first part). Includes detecting the second part of the first gesture (the subsequent part, the continuation of the movement of the contact). In some embodiments, in response to detecting the first portion of the first gesture, the electronic device (eg, 600) represents the field of view of one or more cameras via the display device. At least one or more boundaries (eg, frames) that surround (eg, surround, are within range) of at least a portion (eg, boundaries (eg, frames) that appear around a representation of the field of view of one or more cameras (eg, camera preview)). Displays a boundary (eg, 608) containing separate boundary elements of (eg, a single contiguous boundary or a boundary consisting of separate elements at each corner). By displaying a boundary containing one or more distinct boundary elements that surround at least a portion of the field of view representation of one or more cameras in response to detecting the first part of the first gesture. , Provides the user with visual feedback that the first part of the first gesture has been detected. Providing improved feedback will increase user participation in competition and improve device usability (eg, help users provide proper input and interact with / interact with the device). By reducing user error, the interface between the user and the device becomes more efficient, which allows the user to use the device faster and more efficiently, further reducing power usage. Improves device battery life. In some embodiments, in response to detecting the second portion of the first gesture, the electronic device (eg, 600) has at least a portion of its boundary translated from the display (the first of the display devices). Translated from the edge of 1), the boundary (eg, 608 in FIG. 8F) is translated across the display of the display device in a first direction (eg, moving, sliding) until the display is stopped. To make a transition). In response to detecting the second part of the first gesture, the display of the display device is displayed with the boundary in the first direction until at least a part of the boundary is translated from the display and the display is stopped. By translating across, it provides the user with visual feedback that the first gesture has been detected (eg, completely). Providing improved feedback will increase user participation in competition and improve device usability (eg, help users provide proper input and interact with / interact with the device). By reducing user error, the interface between the user and the device becomes more efficient, which allows the user to use the device faster and more efficiently, further reducing power usage. Improves device battery life.

いくつかの実施形態では、第1のジェスチャの第2の部分を検出することは、第1の方向に動く第2の接触を検出することを含む。 In some embodiments, detecting the second portion of the first gesture comprises detecting a second contact moving in the first direction.

いくつかの実施形態では、第2の接触は、1つ以上のカメラの視野の表現上(例えば、表現の一部分上)で検出される。いくつかの実施形態では、境界部を平行移動させる速度は、第1の方向への第2の接触の移動速度に比例する(例えば、接触が動くと境界部も動く)。境界部を平行移動させる速度が第1の方向への第2の接触の移動速度に比例することにより、境界部の平行移動の速度が第2の接触の平行移動速度に対応するという視覚的フィードバックをユーザに提供する。改善されたフィードバックを提供すれば、ユーザの活動競争への参加が増加し、デバイスの操作性が向上し、(例えば、ユーザが適切な入力を提供することを助け、デバイスとの動作/対話時にユーザの間違いを低減することによって)ユーザとデバイスのインタフェースがより効率的になり、これによって、ユーザがデバイスをより迅速かつ効率的に使用できるようになることにより、更に、電力使用が低減し、デバイスのバッテリ寿命が改善される。 In some embodiments, the second contact is detected on the representation of the field of view of one or more cameras (eg, on a portion of the representation). In some embodiments, the speed at which the boundary is translated is proportional to the speed at which the second contact moves in the first direction (eg, when the contact moves, so does the boundary). Visual feedback that the speed of translation of the boundary corresponds to the speed of translation of the second contact by making the speed of translation of the boundary proportional to the speed of translation of the second contact in the first direction. To the user. Providing improved feedback will increase user participation in competition and improve device usability (eg, help users provide proper input and interact with / interact with the device). By reducing user error, the interface between the user and the device becomes more efficient, which allows the user to use the device faster and more efficiently, further reducing power usage. Improves device battery life.

いくつかの実施形態では、境界部を平行移動させることは、境界部によって囲まれた1つ以上のカメラの視野の表現(例えば、630)の少なくとも一部分の視覚外観(例えば、図8Gのように薄暗い)を変更することを含む。いくつかの実施形態では、電子デバイス(例えば、600)は、表示デバイス全体の輝度レベルを低下させる。 In some embodiments, translating the boundaries is the visual appearance of at least a portion of the field of view representation (eg, 630) of one or more cameras surrounded by the boundaries (eg, as in FIG. 8G). Dim) involves changing. In some embodiments, the electronic device (eg, 600) reduces the brightness level of the entire display device.

第1のジェスチャを検出したことに応答して、電子デバイス(例えば、600)は、カメラコントロール領域(例えば、606)の外観を修正し(930)、この修正することには、ジェスチャが第1のタイプ(例えば、カメラモードアフォーダンスのうちの1つ以外のカメラコントロール領域内のアフォーダンスの選択)(例えば、第1の場所以外の場所でのジェスチャ(例えば、カメラの視野の表現上での上スワイプ))とは異なる第2のタイプのジェスチャであるという判定に従って、複数のカメラモードアフォーダンス(例えば、620)(例えば、選択可能ユーザインタフェースオブジェクト)の表示を停止し、及び第1の場所で複数のカメラ設定(例えば、626、カメラ動作を制御する)アフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、選択されたカメラモードのカメラ設定(例えば、フラッシュ、タイマー、フィルタ効果、f値、アスペクト比、ライブフォトなど)を選択又は変更するアフォーダンス)を表示する(934)ことを含む。いくつかの実施形態では、カメラ設定アフォーダンスは、現在選択されているカメラモードの画像キャプチャを調整する(例えば、カメラモードアフォーダンスをカメラ設定アフォーダンスに置き換える)設定(例えば、画像キャプチャの動作を調整するコントロール)である。 In response to detecting the first gesture, the electronic device (eg, 600) modifies the appearance of the camera control area (eg, 606) (930), to which the gesture first modifies. Type (eg, selection of affordance in a camera control area other than one of the camera mode affordances) (eg, gestures outside of the first location (eg, swipe up on the representation of the camera's field of view) )) Stop displaying multiple camera mode affordances (eg, 620) (eg, selectable user interface objects), and multiple in the first location, according to the determination that it is a second type of gesture different from)). Camera settings (eg, 626, controlling camera behavior) Affordability (eg, selectable user interface objects) (eg, camera settings for the selected camera mode (eg, flash, timer, filter effect, f value, aspect ratio, etc.) Includes displaying (934) an affordance to select or change (live photo, etc.). In some embodiments, the camera setting affordance is a setting (eg, a control that adjusts the behavior of the image capture) that adjusts the image capture for the currently selected camera mode (eg, replaces the camera mode affordance with the camera setting affordance). ).

いくつかの実施形態では、第2のタイプのジェスチャは、カメラディスプレイ領域内の接触の移動(例えば、表示デバイス上でのスワイプ)である。 In some embodiments, the second type of gesture is the movement of contact within the camera display area (eg, a swipe on the display device).

いくつかの実施形態では、カメラコントロール領域(例えば、606)は、複数のカメラ設定アフォーダンスを表示するアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)を更に含み、第2のタイプのジェスチャは、1つ以上のカメラ設定を表示するアフォーダンスの選択(例えば、タップ)である。いくつかの実施形態では、1つ以上のカメラ設定を表示するアフォーダンスを表示している間に、及び1つ以上のカメラモードアフォーダンス、1つ以上のカメラ設定アフォーダンス、1つ以上のカメラ設定アフォーダンスに対応する1つ以上のオプションを表示している間に、電子デバイス(例えば、600)は、1つ以上のカメラ設定を表示するアフォーダンスの選択を受信する。いくつかの実施形態では、要求を受信したことに応答して、電子デバイス(例えば、600)は、1つ以上のカメラモードアフォーダンス(例えば、620)又は1つ以上のカメラ設定アフォーダンスの表示を停止する。 In some embodiments, the camera control area (eg, 606) further includes affordances (eg, selectable user interface objects) that display multiple camera setting affordances, and the second type of gesture is one or more. Affordance selection (eg, tap) to display the camera settings of. In some embodiments, while displaying an affordance displaying one or more camera settings, and to one or more camera mode affordances, one or more camera setting affordances, or one or more camera setting affordances. While displaying one or more corresponding options, the electronic device (eg, 600) receives an affordance selection to display one or more camera settings. In some embodiments, in response to receiving a request, the electronic device (eg, 600) stops displaying one or more camera mode affordances (eg, 620) or one or more camera setting affordances. do.

いくつかの実施形態では、カメラユーザインタフェースを表示することは、キャプチャ設定の状態のグラフィカルインジケーション(例えば、フラッシュ状態インジケータ)を含むアフォーダンス(例えば、602a)(例えば、選択可能ユーザインタフェースオブジェクト)を表示することを更に含む。キャプチャ設定の状態のグラフィカルインジケーションを含むアフォーダンスを表示することにより、ユーザが、キャプチャ設定の状態を迅速かつ容易に認識することを可能にする。改善されたフィードバックを提供すれば、ユーザの活動競争への参加が増加し、デバイスの操作性が向上し、(例えば、ユーザが適切な入力を提供することを助け、デバイスとの動作/対話時にユーザの間違いを低減することによって)ユーザとデバイスのインタフェースがより効率的になり、これによって、ユーザがデバイスをより迅速かつ効率的に使用できるようになることにより、更に、電力使用が低減し、デバイスのバッテリ寿命が改善される。いくつかの実施形態では、第2のタイプのジェスチャは、インジケーションの選択に対応する。 In some embodiments, displaying the camera user interface displays an affordance (eg, 602a) (eg, selectable user interface object) that includes a graphical indication of the state of the capture settings (eg, a flash status indicator). Further includes doing. By displaying an affordance that includes a graphical indication of the state of the capture settings, it allows the user to quickly and easily recognize the state of the capture settings. Providing improved feedback will increase user participation in competition and improve device usability (eg, help users provide proper input and interact with / interact with the device). By reducing user error, the interface between the user and the device becomes more efficient, which allows the user to use the device faster and more efficiently, further reducing power usage. Improves device battery life. In some embodiments, the second type of gesture corresponds to the choice of indication.

いくつかの実施形態では、電子デバイス(例えば、600)は、以前にキャプチャされたメディアの第1の表現を表示する要求に対応する、カメラユーザインタフェース上での第2のジェスチャ(例えば、624、以前にキャプチャされた)(例えば、スワイプ(例えば、ディスプレイスクリーンの縁部からのスワイプ))を検出する。いくつかの実施形態では、第2のジェスチャを検出したことに応答して、電子デバイス(例えば、600)は、以前にキャプチャされたメディアの第1の表現(例えば、624)(例えば、互いの上に積み重ねられて表示されるメディアの1つ以上の表現)を表示する。第2のジェスチャを検出したことに応答して、以前にキャプチャされたメディアの第1の表現を表示することにより、ユーザが、以前にキャプチャされたメディアの第1の表現を迅速かつ容易に閲覧することを可能にする。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、第1の表現は、カメラコントロール領域(例えば、606)内に表示される。 In some embodiments, the electronic device (eg, 600) has a second gesture on the camera user interface (eg, 624, etc.) that responds to a request to display a first representation of previously captured media. Detects previously captured) (eg, a swipe (eg, a swipe from the edge of the display screen)). In some embodiments, in response to detecting a second gesture, the electronic device (eg, 600) has a first representation of previously captured media (eg, 624) (eg, of each other). Display one or more representations of media that are stacked and displayed on top of each other. By displaying the first representation of previously captured media in response to detecting a second gesture, the user can quickly and easily browse the first representation of previously captured media. Allows you to. By providing additional control options without cluttering the UI with the additional controllers displayed, the user-device interface is enhanced (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved. In some embodiments, the first representation is displayed within the camera control area (eg, 606).

いくつかの実施形態では、第1の場所で複数のカメラ設定アフォーダンスを表示することは、第2のタイプのジェスチャが検出された間に、メディアを第1のカメラモード(例えば、ポートレートモード)でキャプチャするように電子デバイス(例えば、600)が構成されているという判定に従って、第1の場所で第1の1組のカメラ設定アフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、照明効果アフォーダンス)を表示することを含む。第2のタイプのジェスチャが検出された間に、メディアを第1のカメラモードでキャプチャするように電子デバイスが構成されているという判定に従って、第1の場所で第1の1組のカメラ設定アフォーダンスを表示することにより、ユーザに、第1の1組のカメラ設定アフォーダンスへの迅速かつ便利なアクセスを提供する。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、第1の場所で複数のカメラ設定アフォーダンス(例えば、626)を表示することは、第2のタイプのジェスチャが検出された間に、メディアを第1のカメラモードとは異なる第2のカメラモード(例えば、ビデオモード)でキャプチャするように電子デバイス(例えば、600)が構成されているという判定に従って、第1の場所で第1の複数のカメラ設定とは異なる第2の第1のカメラ設定アフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、ビデオ効果アフォーダンス)を表示することを含む。 In some embodiments, displaying multiple camera setting affordances in the first location allows the media to be placed in the first camera mode (eg, portrait mode) while the second type of gesture is detected. According to the determination that the electronic device (eg, 600) is configured to capture in, a first set of camera setting affordances (eg, selectable user interface objects) (eg, lighting effect affordances) in a first place. ) Is included. A first set of camera setting affordances at the first location, according to the determination that the electronic device is configured to capture the media in the first camera mode while the second type of gesture is detected. By displaying, the user is provided with quick and convenient access to a first set of camera setting affordances. By providing additional control options without cluttering the UI with the additional controllers displayed, the user-device interface is enhanced (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved. In some embodiments, displaying multiple camera setting affordances (eg, 626) in the first location allows the media to be in the first camera mode while a second type of gesture is detected. A second location that differs from the first plurality of camera settings in the first location, according to the determination that the electronic device (eg, 600) is configured to capture in a different second camera mode (eg, video mode). Includes displaying a first camera setting affordance (eg, selectable user interface object) (eg, video effect affordance).

いくつかの実施形態では、第1の1組のカメラ設定アフォーダンスは、第1のカメラ設定アフォーダンス(例えば、626a)を含み、第2の1組のカメラ設定アフォーダンスは、第1のカメラ設定アフォーダンス(例えば、626a、ポートレートモード及びビデオモードの両方に含まれるフラッシュアフォーダンス)を含む。 In some embodiments, the first set of camera setting affordances includes a first camera setting affordance (eg, 626a) and the second set of camera setting affordances is a first camera setting affordance (eg, 626a). For example, 626a, flash affordances included in both portrait and video modes).

いくつかの実施形態では、第1のカメラモードは、静止写真キャプチャモードであり、第1の1組のカメラ設定アフォーダンスは、フラッシュ設定に対応するインジケーション(例えば、視覚インジケーション)を含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)と、ライブ設定(例えば、オンのとき、動画(例えば、ファイル拡張子がGIFの画像)を作成する設定)に対応するインジケーションを含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(いくつかの実施形態では、電子デバイスは、ライブ設定に対応するインジケーションを含むアフォーダンスの選択を受信する;いくつかの実施形態では、インジケーションの選択を受信したことに応答して、電子デバイスは、ライブ設定をオン/オフする)と、アスペクト比設定に対応するインジケーションを含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(いくつかの実施形態では、電子デバイスは、アスペクト比設定に対応するインジケーションを含むアフォーダンスの選択を受信する;いくつかの実施形態では、インジケーションの選択を受信したことに応答して、電子デバイスは、アスペクト比設定をオン/オフする、及び/又は調整可能なコントロールを表示して、表示デバイス上に表示された表現(例えば、画像、ビデオ)のアスペクト比を調整する)と、タイマー設定に対応するインジケーションを含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(いくつかの実施形態では、電子デバイスは、タイマー設定に対応するインジケーションを含むアフォーダンスの選択を受信する;いくつかの実施形態では、インジケーションの選択を受信したことに応答して、電子デバイスは、タイマー設定をオン/オフする、及び/又は調整可能なコントロールを表示して、キャプチャが開始された後、画像がキャプチャされる前の時間を調整する)と、フィルタ設定に対応するインジケーションを含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(いくつかの実施形態では、電子デバイスは、フィルタ設定に対応するインジケーションを含むアフォーダンスの選択を受信する;いくつかの実施形態では、インジケーションの選択を受信したことに応答して、電子デバイスは、フィルタ設定をオン/オフする、及び/又は調整可能なコントロールを表示して、画像をキャプチャするときに電子デバイスが使用するフィルタを調整する)と、からなる群から選択される1つ以上のアフォーダンスを含む。いくつかの実施形態では、アフォーダンスの選択により、電子デバイス(例えば、600)に、アフォーダンスに対応する設定を設定させるか、又は設定を設定するためのユーザインタフェース(例えば、オプション(例えば、スライダ、アフォーダンス))を表示させる。 In some embodiments, the first camera mode is a still photo capture mode, and the first set of camera setting affordances includes affordances that include indications (eg, visual indications) that correspond to the flash settings. For example, affordances (eg, selectable users) that include an indication that corresponds to a selectable user interface object) and a live setting (eg, a setting that creates a video (eg, an image with a file extension of GIF) when on). Interface object) (In some embodiments, the electronic device receives an affordance selection that includes an indication corresponding to the live setting; in some embodiments, in response to receiving an indication selection. , Electronic devices turn live settings on / off) and affordances (eg, selectable user interface objects) that include indications corresponding to aspect ratio settings (in some embodiments, electronic devices have aspect ratio settings. Receives an affordance selection that includes the corresponding indication; in some embodiments, in response to receiving the indication selection, the electronic device turns the aspect ratio setting on / off and / or View adjustable controls to adjust the aspect ratio of the representation (eg, image, video) displayed on the display device) and affordances (eg, selectable user interface) that include indications corresponding to timer settings. Object) (In some embodiments, the electronic device receives an affordance selection that includes an indication corresponding to the timer setting; in some embodiments, in response to receiving an indication selection, The electronic device responds to the filter settings when the timer setting is turned on / off and / or an adjustable control is displayed to adjust the time after the capture is started and before the image is captured). Affordances Containing Indications (eg, Selectable User Interface Objects) (In some embodiments, the electronic device receives a selection of affordances comprising the indications corresponding to the filter settings; in some embodiments, the affordances. In response to receiving a selection of options, the electronic device turns the filter settings on / off and / or adjusts them. It includes one or more affordances selected from the group consisting of (displaying possible controls and adjusting the filters used by electronic devices when capturing images). In some embodiments, the choice of affordance causes an electronic device (eg, 600) to set a setting corresponding to the affordance, or a user interface for setting the setting (eg, an option (eg, slider, affordance, eg)). )) Is displayed.

いくつかの実施形態では、第1のカメラモードは、ポートレートモードであり、第1の1組のカメラ設定アフォーダンス(例えば、626)は、深度コントロール設定に対応するインジケーションを含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(いくつかの実施形態では、電子デバイスは、深度コントロール設定に対応するインジケーションを含むアフォーダンスの選択を受信する;いくつかの実施形態では、インジケーションの選択を受信したことに応答して、電子デバイスは、深度コントロール設定をオン/オフする、及び/又は調整可能なコントロールを表示して、被写界深度を調整して、デバイスの背景をぼかす)と、フラッシュ設定に対応する視覚インジケーションを含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(いくつかの実施形態では、電子デバイスは、フラッシュ設定に対応するインジケーションを含むアフォーダンスの選択を受信する;いくつかの実施形態では、インジケーションの選択を受信したことに応答して、電子デバイスは、選択可能ユーザインタフェース要素を表示して、電子デバイスのフラッシュ設定を構成する(例えば、フラッシュ設定を自動、オン、オフに設定する))と、タイマー設定に対応する視覚インジケーションを含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(いくつかの実施形態では、電子デバイスは、タイマー設定に対応するインジケーションを含むアフォーダンスの選択を受信する;いくつかの実施形態では、インジケーションの選択を受信したことに応答して、電子デバイスは、タイマー設定をオン/オフする、及び/又は調整可能なコントロールを表示して、キャプチャが開始された後、画像がキャプチャされる前の時間を調整する)と、フィルタ設定に対応する視覚インジケーションを含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(いくつかの実施形態では、電子デバイスは、フィルタ設定に対応するインジケーションを含むアフォーダンスの選択を受信する;いくつかの実施形態では、インジケーションの選択を受信したことに応答して、電子デバイスは、フィルタ設定をオン/オフする、及び/又は調整可能なコントロールを表示して、画像をキャプチャするときに電子デバイスが使用するフィルタを調整する)と、照明設定に対応するインジケーションを含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(いくつかの実施形態では、電子デバイスは、照明設定に対応するインジケーションを含むアフォーダンスの選択を受信する;いくつかの実施形態では、インジケーションの選択を受信したことに応答して、電子デバイスは、照明設定をオン/オフする、及び/又は調整可能なコントロールを表示して、画像をキャプチャするときに電子デバイスが使用する特定の光設定(例えば、スタジオ光設定、舞台照明設定)を調整する(例えば、光量を増加/減少させる))と、からなる群から選択される1つ以上のアフォーダンスを含む。いくつかの実施形態では、アフォーダンスの選択により、電子デバイス(例えば、600)に、アフォーダンスに対応する設定を設定させるか、又は設定を設定するためのユーザインタフェース(例えば、オプション(例えば、スライダ、アフォーダンス))を表示させる。 In some embodiments, the first camera mode is a portrait mode and the first set of camera setting affordances (eg, 626) includes affordances that include indications corresponding to depth control settings (eg, 626). Selectable user interface object) (In some embodiments, the electronic device receives an affordance selection that includes an indication corresponding to the depth control setting; in some embodiments, it has received an indication selection. In response, the electronic device turns the depth control settings on and off, and / or displays adjustable controls to adjust the depth of field and blur the background of the device) and to the flash settings. Affordances with corresponding visual indications (eg, selectable user interface objects) (in some embodiments, the electronic device receives a selection of affordances with indications corresponding to the flash settings; some embodiments. In response to receiving an indication selection, the electronic device displays selectable user interface elements and configures the electronic device's flash settings (eg, set the flash settings to automatic, on, off). )) And affordances that include visual indications that correspond to timer settings (eg, selectable user interface objects) (in some embodiments, the electronic device selects affordances that include indications that correspond to timer settings. Receiving; In some embodiments, in response to receiving an indication selection, the electronic device turns the timer setting on / off and / or displays an adjustable control and the capture begins. After being done, adjust the time before the image is captured) and affordances (eg, selectable user interface objects) that include visual indications corresponding to the filter settings (in some embodiments, the electronic device is Receives an affordance selection that includes an indication that corresponds to the filter setting; in some embodiments, in response to receiving the indication selection, the electronic device turns the filter setting on and off, and / Or display adjustable controls to adjust the filters used by electronic devices when capturing images) and lighting settings Affordances that include indications corresponding to (eg, selectable user interface objects) (in some embodiments, the electronic device receives a selection of affordances that include indications that correspond to the lighting settings; some embodiments. In response to receiving an indication selection, the electronic device turns lighting settings on / off and / or displays adjustable controls that the electronic device uses when capturing images. Adjusting a particular light setting (eg, studio light setting, stage lighting setting) (eg, increasing / decreasing the amount of light) includes one or more affordances selected from the group consisting of. In some embodiments, the choice of affordance causes an electronic device (eg, 600) to set a setting corresponding to the affordance, or a user interface for setting the setting (eg, an option (eg, slider, affordance, eg)). )) Is displayed.

いくつかの実施形態では、以前にキャプチャされたメディアの表現(例えば、任意の表現)を表示していない間に、電子デバイス(例えば、600)は、1つ以上のカメラを使用して第1のメディアのキャプチャ(例えば、写真又はビデオのキャプチャ)を検出する(936)。いくつかの実施形態では、キャプチャは、カメラアクティブ化アフォーダンス又はメディアキャプチャリングアフォーダンス(例えば、シャッターボタン)上でのタップに応答して生じる。いくつかの実施形態では、第1のメディアのキャプチャを検出したことに応答して、電子デバイス(例えば、600)は、第1のメディアの表現を含む、キャプチャされたメディアの1つ以上の表現(例えば、6)を表示する(938)。いくつかの実施形態では、1つ以上のカメラの視野の表現に対応するメディアの表現は、以前にキャプチャされたメディアの複数の表現の上に表示される。以前にキャプチャされたメディアの複数の表現の上に1つ以上のカメラの視野の表現に対応するメディアの表現を表示することにより、ユーザが、1つ以上のカメラの視野の表現に対応するメディアの表現を閲覧している間に、以前にキャプチャされたメディアを少なくとも部分的に閲覧及び/又は認識することを可能にする。改善されたフィードバックを提供すれば、ユーザの活動競争への参加が増加し、デバイスの操作性が向上し、(例えば、ユーザが適切な入力を提供することを助け、デバイスとの動作/対話時にユーザの間違いを低減することによって)ユーザとデバイスのインタフェースがより効率的になり、これによって、ユーザがデバイスをより迅速かつ効率的に使用できるようになることにより、更に、電力使用が低減し、デバイスのバッテリ寿命が改善される。いくつかの実施形態では、以前にキャプチャされたメディアの複数の表現は、互いの上に積み重ねられた複数の表現として表示される。 In some embodiments, the electronic device (eg, 600) uses one or more cameras while not displaying a previously captured representation of the media (eg, any representation). Detect media captures (eg, photo or video captures) (936). In some embodiments, the capture occurs in response to a tap on the camera activation affordance or media capturing affordance (eg, shutter button). In some embodiments, in response to detecting a capture of the first media, the electronic device (eg, 600) has one or more representations of the captured media, including a representation of the first media. (For example, 6) is displayed (938). In some embodiments, the media representation corresponding to the representation of the field of view of one or more cameras is displayed on top of multiple representations of previously captured media. Media that accommodates the representation of the field of view of one or more cameras by displaying the representation of the media that corresponds to the representation of the field of view of one or more cameras on top of multiple representations of previously captured media. Allows you to at least partially view and / or recognize previously captured media while viewing the representation of. Providing improved feedback will increase user participation in competition and improve device usability (eg, help users provide proper input and interact with / interact with the device). By reducing user error, the interface between the user and the device becomes more efficient, which allows the user to use the device faster and more efficiently, further reducing power usage. Improves device battery life. In some embodiments, the previously captured representations of the media are displayed as multiple representations stacked on top of each other.

いくつかの実施形態では、表示されると、第1のアスペクト比で表示されるメディアをキャプチャするように電子デバイス(例えば、600)が構成されている間に、電子デバイスは、メディアをキャプチャする第3の要求を受信する(940)。いくつかの実施形態では、メディアをキャプチャする第3の要求を受信したことに応答して、電子デバイス(例えば、600)は、第1のアスペクト比でキャプチャされたメディアの表現を表示する(942)。いくつかの実施形態では、電子デバイス(例えば、600)は、第1のアスペクト比を有するキャプチャされたメディアの表現を、第2のアスペクト比を有するキャプチャされたメディアの表現に変更する要求を受信する(944)。いくつかの実施形態では、要求を受信したことに応答して、電子デバイス(例えば、600)は、第2のアスペクト比でキャプチャされたメディアの表現を表示する(946)。いくつかの実施形態では、スペクト比を調整することは、非破壊的である(例えば、写真を変更した後に、キャプチャされたメディアのアスペクト比を変更することができる(増加させる又は減少させる))。 In some embodiments, the electronic device captures the media while the electronic device (eg, 600) is configured to capture the media displayed in the first aspect ratio when displayed. Receive a third request (940). In some embodiments, in response to receiving a third request to capture the media, the electronic device (eg, 600) displays a representation of the captured media in the first aspect ratio (942). ). In some embodiments, the electronic device (eg, 600) receives a request to change the representation of the captured media having the first aspect ratio to the representation of the captured media having the second aspect ratio. (944). In some embodiments, in response to receiving the request, the electronic device (eg, 600) displays a representation of the media captured in the second aspect ratio (946). In some embodiments, adjusting the spect ratio is non-destructive (eg, after changing the photo, the aspect ratio of the captured media can be changed (increased or decreased)). ..

いくつかの実施形態では、第2のアスペクト比を有するキャプチャされたメディアの表現は、第1のアスペクト比を有するキャプチャされたメディアの表現内に存在しない視覚コンテンツ(例えば、画像コンテンツ;キャプチャの時点で1つ以上のカメラの視野内にあり、第1のアスペクト比での表現に含まれなかった追加の画像コンテンツ)を含む。 In some embodiments, the representation of the captured media with the second aspect ratio is visual content that is not present within the representation of the captured media with the first aspect ratio (eg, image content; at the time of capture). (Additional image content that is within the field of view of one or more cameras and was not included in the representation at the first aspect ratio).

いくつかの実施形態では、第3のカメラモード(例えば、ポートレートモード)でメディアをキャプチャするように電子デバイス(例えば、600)が構成されている間に、電子デバイス(例えば、600)は、メディアをキャプチャする第2の要求を検出する。いくつかの実施形態では、要求を受信したことに応答して、電子デバイス(例えば、600)は、第3のカメラモードに対応する設定及び複数のカメラ設定アフォーダンス(例えば、626)のアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、照明効果アフォーダンス)に対応する少なくとも1つの設定に基づいて、1つ以上のカメラを使用してメディアをキャプチャする。第3のカメラモードでメディアをキャプチャするように電子デバイスが構成されている間に、要求を受信したことに応答して、第3のカメラモードに対応する設定及びアフォーダンスに対応する少なくとも1つの設定に基づいて、1つ以上のカメラを使用してメディアをキャプチャすることにより、ユーザに、キャプチャされたメディアに適用されたカメラモードのより容易な制御を提供する。更なるユーザ入力を必要とせずに条件のセットが満たされたときに動作を行うことにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the electronic device (eg, 600) is configured while the electronic device (eg, 600) is configured to capture media in a third camera mode (eg, portrait mode). Detect a second request to capture the media. In some embodiments, in response to receiving a request, the electronic device (eg, 600) has an affordance (eg, 626) of settings corresponding to a third camera mode and a plurality of camera settings affordances (eg, 626). , Selectable user interface objects) (eg, lighting effect affordances) to capture media using one or more cameras based on at least one setting. A setting corresponding to the third camera mode and at least one setting corresponding to the affordance in response to receiving a request while the electronic device is configured to capture media in the third camera mode. By capturing media using one or more cameras based on, the user is provided with easier control of the camera mode applied to the captured media. By acting when a set of conditions is met without requiring further user input, the usability of the device is enhanced and the user-device interface (eg, when manipulating / interacting with the device) By assisting the user in providing proper input and reducing user errors), and by allowing the user to use the device faster and more efficiently, the power of the device. Reduced use and improved battery life.

方法900に関して上述された処理(例えば、図9A〜図9C)の詳細はまた、上記及び以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、1100、1300、1500、1700、1900、2000、2100、2300、2500、2700、2800、3000、3200、3400、3600、及び3800は、方法900を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。 It should be noted that the details of the processes described above for Method 900 (eg, FIGS. 9A-9C) are also applicable in a similar manner to the methods described above and below. For example, methods 700, 1100, 1300, 1500, 1700, 1900, 2000, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3400, 3600, and 3800 are various described above with reference to Method 900. Optionally include one or more of the properties of the method. For the sake of brevity, these details will not be repeated below.

図10A〜図10Kは、いくつかの実施形態による電子デバイスを使用してカメラ視野を表示するための例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図11A〜図11Cにおける処理を含む、以下で説明される処理を例示するために使用される。 10A-10K show exemplary user interfaces for displaying a camera field of view using electronic devices according to some embodiments. The user interfaces in those figures are used to illustrate the processes described below, including the processes in FIGS. 11A-11C.

図10Aは、ディスプレイの上部からディスプレイの底部まで任意選択的に延在するライブプレビュー630を表示する電子デバイス600を示す。ライブプレビュー630は、1つ以上のカメラセンサによって検出された画像に基づく。いくつかの実施形態では、デバイス600は、複数のカメラセンサを使用して画像をキャプチャし、それらを組み合わせてライブプレビュー630を表示する。いくつかの実施形態では、デバイス600は、単一のカメラセンサを使用して画像をキャプチャして、ライブプレビュー630を表示する。図10Aのカメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含み、これらは、インジケータ及びコントロールがライブプレビューと同時に表示され得るように、ライブプレビュー630上に重ねられる。カメラディスプレイ領域604は、インジケータ又はコントロールと実質的に重ならない。この例では、ライブプレビュー630は、周囲環境とともに水ビュー1040を含む。水ビュー1040は、ユーザがデバイス600をどのように配向しているかの理由から、デバイス600からの角度だけオフセットして表示される水平線1040aを含む。理解を向上させるために、図10A〜図10Kのいくつかは、対応する図の水平線に対するデバイス600の向きに関する詳細を提供するグラフ的な説明図1060を含む。図10Aのカメラユーザインタフェースは、インジケータ領域602とカメラディスプレイ領域604との境界部及びカメラディスプレイ領域604とコントロール領域606との境界部を示す視覚境界部608を含む。 FIG. 10A shows an electronic device 600 displaying a live preview 630 that optionally extends from the top of the display to the bottom of the display. Live preview 630 is based on images detected by one or more camera sensors. In some embodiments, the device 600 uses a plurality of camera sensors to capture images and combine them to display a live preview 630. In some embodiments, the device 600 captures an image using a single camera sensor and displays a live preview 630. The camera user interface of FIG. 10A includes an indicator area 602 and a control area 606, which are overlaid on the live preview 630 so that the indicators and controls can be displayed at the same time as the live preview. The camera display area 604 does not substantially overlap the indicator or control. In this example, the live preview 630 includes a water view 1040 along with the surrounding environment. The water view 1040 includes a horizontal line 1040a that is displayed offset by an angle from the device 600 because of how the user orients the device 600. To improve understanding, some of FIGS. 10A-10K include a graphical explanatory view 1060 that provides details about the orientation of the device 600 with respect to the corresponding horizontal line of the figure. The camera user interface of FIG. 10A includes a visual boundary 608 indicating a boundary between the indicator area 602 and the camera display area 604 and a boundary between the camera display area 604 and the control area 606.

図10Aに示すように、インジケータ領域602は、ライブプレビュー630上に重ねられ、任意選択的に着色された(例えば、灰色;半透明)オーバーレイを含む。インジケータ領域602は、アニメーション化された画像状態インジケータ602dを含み、これは、(例えば、シャッターアフォーダンス610のアクティブ化を検出したことに応答して、)単一の画像又は複数の画像をキャプチャするようにカメラが構成されているかどうかを示す。 As shown in FIG. 10A, the indicator area 602 includes an optionally colored (eg, gray; translucent) overlay overlaid on the live preview 630. The indicator area 602 includes an animated image state indicator 602d, which is to capture a single image or multiple images (eg, in response to detecting activation of the shutter affordance 610). Indicates whether the camera is configured in.

図10Aに示すように、カメラディスプレイ領域604は、ライブプレビュー630及びズームアフォーダンス622を含む。図10Aに示すように、コントロール領域606は、ライブプレビュー630上に重ねられ、任意選択的に着色された(例えば、灰色;半透明)オーバーレイを含む。 As shown in FIG. 10A, the camera display area 604 includes a live preview 630 and a zoom affordance 622. As shown in FIG. 10A, the control area 606 includes an optionally colored (eg, gray; translucent) overlay overlaid on the live preview 630.

図10Aに示すように、コントロール領域606は、カメラモードアフォーダンス620、追加のコントロールアフォーダンス614、シャッターアフォーダンス610、及びカメラスイッチャアフォーダンス612を含む。カメラモードアフォーダンス620は、どのカメラモードが現在選択されているかを示し、ユーザがカメラモードを変更することを可能にする。図10Aにおいて、カメラモード620a〜620eが表示され、「Photo」カメラモード620cは、カメラが動作している現在のモードとして太字のテキストで示される。追加のコントロールアフォーダンス614は、ユーザが追加のカメラコントロールにアクセスすることを可能にする。シャッターアフォーダンス610は、アクティブ化されると、デバイス600に、ライブプレビュー630の現在の状態に基づいて、メディア(例えば、写真)をキャプチャさせる。キャプチャされたメディアは、電子デバイスにローカルに記憶されるか、及び/又は記憶のためにリモートサーバに送信される。カメラスイッチャアフォーダンス612は、アクティブ化されると、デバイスに、背面カメラセンサと前面カメラセンサとの間を切り替えることなどによって、ライブプレビュー630内の異なるカメラの視野を示すように切り替えさせる。 As shown in FIG. 10A, the control area 606 includes a camera mode affordance 620, an additional control affordance 614, a shutter affordance 610, and a camera switcher affordance 612. The camera mode affordance 620 indicates which camera mode is currently selected and allows the user to change the camera mode. In FIG. 10A, camera modes 620a-620e are displayed, and the "photo" camera mode 620c is indicated in bold text as the current mode in which the camera is operating. Additional control affordances 614 allow the user to access additional camera controls. When activated, the shutter affordance 610 causes the device 600 to capture media (eg, a photo) based on the current state of the live preview 630. The captured media is stored locally on the electronic device and / or sent to a remote server for storage. When activated, the camera switcher affordance 612 causes the device to switch to show different camera fields of view within the live preview 630, such as by switching between the rear camera sensor and the front camera sensor.

図10Aでは、デバイス600は、タッチ感知面を使用して、ビデオカメラモードアフォーダンス620bに対応する場所でのタップジェスチャ1050aを検出する。タップジェスチャ1050aを検出したことに応答して、デバイス600は、図10Bのユーザインタフェースを表示する。あるいは、図10Aでは、デバイス600は、タッチ感知面を使用して、カメラディスプレイ領域604内のライブプレビュー630に対応する場所での右スワイプジェスチャ1050bを検出する。右スワイプジェスチャ1050bを検出したことに応答して、デバイス600は、図10Bのユーザインタフェースを同様に表示する。図10Aと図10Bとの間の遷移は、図8E〜図8Hに関して上で更に詳細に説明される。 In FIG. 10A, the device 600 uses the touch-sensitive surface to detect the tap gesture 1050a at a location corresponding to the video camera mode affordance 620b. In response to detecting the tap gesture 1050a, the device 600 displays the user interface of FIG. 10B. Alternatively, in FIG. 10A, the device 600 uses the touch-sensitive surface to detect a right swipe gesture 1050b in the camera display area 604 at a location corresponding to the live preview 630. In response to detecting the right swipe gesture 1050b, the device 600 similarly displays the user interface of FIG. 10B. The transition between FIGS. 10A and 10B is described in more detail above with respect to FIGS. 8E-8H.

図10Bに示すように、タップジェスチャ1050a又は右スワイプジェスチャ1050bを検出したことに応答して、デバイス600は、写真カメラモードからビデオカメラモードに遷移した。デバイス600は、インジケータ領域602内の訂正された1組のインジケータ、(任意選択的に)更新されたライブプレビュー630、及び更新されたカメラモードアフォーダンス620を表示する。 As shown in FIG. 10B, the device 600 transitioned from the photo camera mode to the video camera mode in response to detecting the tap gesture 1050a or the right swipe gesture 1050b. The device 600 displays a modified set of indicators in the indicator area 602, an (optionally) updated live preview 630, and an updated camera mode affordance 620.

インジケータ領域602内の訂正された1組のインジケータは、以前に表示されたアニメーション化された画像状態インジケータ602dを表示することなく(例えば、新たに選択されたモードは、ライブアニメーション化された画像状態インジケータ602dに対応する機能と不適合であるため)、新たに表示されたビデオ品質インジケータ602h(例えば、新たに選択されたモード(ビデオ(記録)モード)は、ビデオ品質インジケータ602hに対応する機能と互換性があるため)及び新たに表示された記録時間インジケータ602iを含む。ビデオ品質インジケータ602hは、ビデオが記録されるビデオ品質(例えば、解像度)のインジケーションを提供する(例えば、シャッターアフォーダンス610がアクティブ化されたとき)。図10Bにおいて、ビデオ品質インジケータ602hは、デバイスが4Kビデオ品質記録モードにあり、その結果、記録がアクティブ化されている場合、ビデオが4Kビデオ品質で記録されることを示す。いくつかの実施形態では、記録時間インジケータ602iは、現在の進行中のバイド(vide)の時間量(例えば、秒、分、及び/又は時間)を示す(indicators)。図10Bにおいて、記録時間インジケータ602iは、現在ビデオが記録されていないため、00:00:00を示す。いくつかの実施形態では、カメラモード(写真モード対ビデオモード)の変更により、ライブプレビュー630内のオブジェクトのズームは変化する。いくつかの実施形態では、カメラモード(写真モード対ビデオモード)の変更にかかわらず、ライブプレビュー630内のオブジェクトのズームは変化しない。デバイス600の向き1060は、水平線からオフセットされ続け、その結果、水平線1040aは、デバイス600からの角度だけオフセットして表示され続けることに留意されたい。 A set of corrected indicators in the indicator area 602 does not display the previously displayed animated image state indicator 602d (eg, the newly selected mode is a live animated image state). Due to incompatibility with the function corresponding to the indicator 602d), the newly displayed video quality indicator 602h (eg, the newly selected mode (video (recording) mode)) is compatible with the function corresponding to the video quality indicator 602h. Includes (because of the nature) and the newly displayed recording time indicator 602i. The video quality indicator 602h provides an indication of the video quality (eg, resolution) at which the video is recorded (eg, when the shutter affordance 610 is activated). In FIG. 10B, the video quality indicator 602h indicates that the video is recorded in 4K video quality when the device is in 4K video quality recording mode and as a result recording is activated. In some embodiments, the recording time indicator 602i indicates the amount of time (eg, seconds, minutes, and / or hours) of the vide currently in progress (indicators). In FIG. 10B, the recording time indicator 602i indicates 00:00:00 because no video is currently recorded. In some embodiments, changing the camera mode (photo mode vs. video mode) changes the zoom of the objects in the live preview 630. In some embodiments, the zoom of the object in the live preview 630 does not change regardless of the change in camera mode (photo mode vs. video mode). Note that the orientation 1060 of the device 600 continues to be offset from the horizon, so that the horizon 1040a continues to be displayed offset by an angle from the device 600.

図10Bでは、デバイスが4Kビデオ品質記録モードにある間に(ビデオ品質インジケータ602hによって示すように)、ライブプレビュー630は、カメラディスプレイ領域604内に表示され続けながら、インジケータ領域602及びコントロール領域606内にもはや表示されないように更新される。いくつかの実施形態では、インジケータ領域602及びコントロール領域606の背景もまた、黒になるように更新される。その結果、ユーザは、インジケータ領域602及びコントロール領域606内のライブプレビュー630をもはや見ることができない。 In FIG. 10B, while the device is in 4K video quality recording mode (as indicated by the video quality indicator 602h), the live preview 630 remains visible within the camera display area 604 while within the indicator area 602 and control area 606. Is updated so that it is no longer displayed in. In some embodiments, the background of the indicator area 602 and the control area 606 is also updated to be black. As a result, the user can no longer see the live preview 630 in the indicator area 602 and the control area 606.

図10Bでは、デバイス600は、タッチ感知面を使用して、ビデオ品質インジケータ602hに対応する場所(インジケータ領域602内)でのタップジェスチャ1050cを検出する。 In FIG. 10B, the device 600 uses the touch sensitive surface to detect the tap gesture 1050c at a location (within the indicator area 602) corresponding to the video quality indicator 602h.

図10Cに示すように、タップジェスチャ1050cを検出したことに応答して、デバイス600は、調整可能なビデオ品質コントロール1018を表示し、これは、720pビデオ品質アフォーダンス1018a、HDビデオ品質アフォーダンス1018b、及び4Kビデオ品質アフォーダンス1018cを含む(4Kビデオ品質記録モードが現在アクティブであることを示すために太字化された)。図10Cでは、デバイス600は、タッチ感知面を使用して、HDビデオ品質アフォーダンス1018bに対応する場所でのタップジェスチャ1050dを検出する。 As shown in FIG. 10C, in response to detecting the tap gesture 1050c, the device 600 displays an adjustable video quality control 1018, which is a 720p video quality affordance 1018a, an HD video quality affordance 1018b, and Includes 4K video quality affordance 1018c (bold to indicate that 4K video quality recording mode is currently active). In FIG. 10C, the device 600 uses the touch sensitive surface to detect the tap gesture 1050d at a location corresponding to the HD video quality affordance 1018b.

図10Dに示すように、タップジェスチャ1050dを検出したことに応答して、デバイス600は、(アクティブにビデオを記録していない間に)デバイスを4Kビデオ品質記録モードからHDビデオ品質記録モードに遷移させる。デバイス600は、デバイスがHDビデオ品質記録モードにあることを示すためにビデオ品質インジケータ602hを更新する(例えば、「HD」と表示するため)。その結果、HDビデオ品質記録モードに遷移すると、デバイス600は、インジケータ領域602、カメラディスプレイ領域604、及びコントロール領域606内にライブプレビュー630を表示する(図10Aと同様)。これは、視覚コンテンツ(カメラディスプレイ領域604内に表示される視覚コンテンツを超えた、任意選択的にまた、インジケータ領域602及びコントロール領域606内に表示される視覚コンテンツを超えた)が、ビデオ記録の一部として記憶されることをユーザに示す。 As shown in FIG. 10D, in response to detecting the tap gesture 1050d, the device 600 transitions the device from 4K video quality recording mode to HD video quality recording mode (while not actively recording video). Let me. The device 600 updates the video quality indicator 602h to indicate that the device is in HD video quality recording mode (eg, to display "HD"). As a result, upon transition to the HD video quality recording mode, the device 600 displays a live preview 630 in the indicator area 602, the camera display area 604, and the control area 606 (similar to FIG. 10A). This is because the visual content (beyond the visual content displayed within the camera display area 604, optionally also beyond the visual content displayed within the indicator area 602 and the control area 606) of the video recording. Show the user that it will be remembered as part.

図10Dでは、デバイス600がHDビデオ品質記録モードにあり、デバイス600の向き1060が、水平線からオフセットされ続け、その結果、水平線1040aが、デバイス600からの角度だけオフセットして表示され続けている間、デバイス600は、タッチ感知面を使用して、シャッターアフォーダンス610に対応する場所でのタップジェスチャ1050eを検出する。 In FIG. 10D, while the device 600 is in HD video quality recording mode, the orientation 1060 of the device 600 continues to be offset from the horizon, so that the horizon 1040a continues to be displayed offset by an angle from the device 600. The device 600 uses the touch-sensitive surface to detect the tap gesture 1050e at a location corresponding to the shutter offset 610.

図10Eに示すように、タップジェスチャ1050eを検出したことに応答して、デバイス600は、HDビデオ品質記録モードでビデオの記録を開始する。図10Eにおいて(図10A〜図10Dのように)、ライブプレビュー630のコンテンツは、カメラの視野内のシーンが変化するにつれて更新し続ける。シャッターアフォーダンス610のビジュアル要素は、デバイスがビデオを記録しており、シャッターアフォーダンス610を再アクティブ化することにより、記録が終了することを示すために更新された。記録時間インジケータ602iは、図10Eにおいて進行しており、5秒のビデオがそれまで記録されていることを示した。ビデオ品質インジケータ602hは、もはや表示されず、それにより、ユーザにライブプレビュー630のより完全なビューを提供することができ、任意選択的に、ビデオ品質記録モードは、ビデオを録画している間に変更することができないためである。記録中、デバイス600の向き1060は、水平線からオフセットされ続け、その結果、水平線1040aは、デバイス600からの角度だけオフセットして表示され続けることに留意されたい。いくつかの実施形態では、デバイス600の向き1060は、水平線1040aがデバイス600からのオフセット度を変化させて記録されるように、ビデオ記録中に変化する。 As shown in FIG. 10E, in response to detecting the tap gesture 1050e, the device 600 begins recording video in HD video quality recording mode. In FIG. 10E (as in FIGS. 10A-10D), the content of the live preview 630 continues to be updated as the scene in the field of view of the camera changes. The visual elements of the shutter affordance 610 have been updated to indicate that the device is recording video and that reactivating the shutter affordance 610 will end the recording. The recording time indicator 602i is in progress in FIG. 10E, indicating that a 5 second video has been recorded so far. The video quality indicator 602h is no longer displayed, which can provide the user with a more complete view of the live preview 630, and optionally the video quality recording mode is while recording the video. This is because it cannot be changed. Note that during recording, the orientation 1060 of the device 600 continues to be offset from the horizon, so that the horizon 1040a continues to be displayed offset by an angle from the device 600. In some embodiments, the orientation 1060 of the device 600 changes during video recording such that the horizon 1040a is recorded with varying degrees of offset from the device 600.

図10Eでは、デバイス600は、タッチ感知面を使用して、シャッターアフォーダンス610に対応する場所でのタップジェスチャ1050gを検出する。タップジェスチャ1050gに応答して、デバイス600は記録を停止する。記録は、後で検索、編集、及び再生するためにデバイス600のメモリに記憶される。記憶された記録は、インジケータ領域602、カメラディスプレイ領域604、及びコントロール領域606内に表示されたライブプレビュー630の視覚コンテンツを含む。更に、記憶された記録はまた、ライブプレビュー630の一部として表示されなかったデバイス600のカメラによってビデオ記録中にキャプチャされた視覚コンテンツも含む。 In FIG. 10E, the device 600 uses the touch-sensitive surface to detect 1050 g of tap gesture at a location corresponding to the shutter affordance 610. In response to the tap gesture 1050g, the device 600 stops recording. The recording is stored in the memory of the device 600 for later retrieval, editing, and playback. The stored recording includes the visual content of the live preview 630 displayed in the indicator area 602, the camera display area 604, and the control area 606. In addition, the stored recording also includes visual content captured during video recording by the camera of device 600 that was not displayed as part of the live preview 630.

ビデオ記録を記録及び記憶することに続いて、デバイス600は、1つ以上のユーザ入力を受信して、ビデオ記録にアクセスする。図10Fに示すように、デバイス600は、再生、編集、削除、及び他のユーザへの伝送に利用可能なビデオ記録1032のフレームを表示する。ビデオ記録1032の表示されたフレームは、記録中にカメラディスプレイ領域604内に表示されたライブプレビュー630の視覚コンテンツを含むが、インジケータ領域602及びコントロール領域606内に表示されたライブプレビュー630の視覚コンテンツを含まない。デバイス600は、ビデオ記録1032の表示されたフレーム上に再生アフォーダンス1038を重ねる。再生アフォーダンス1038のアクティブ化(例えば、タップオン)により、再生アフォーダンス1038に、表示を停止させ、ビデオ記録1032を再生させ、これは、記録中にカメラディスプレイ領域604内に表示されたライブプレビュー630の視覚コンテンツの視覚再生を含むが、インジケータ領域602及びコントロール領域606内に表示されたライブプレビュー630の視覚コンテンツを含まない(また、記録中にライブプレビュー630内に表示されなかった記録された視覚コンテンツも含まない)。図10Fのユーザインタフェースはまた、(ビデオ記録を編集するためのプロセスを開始するための)編集アフォーダンス644a及び(ビデオ記録を自動的に編集するための)自動調整アフォーダンス1036bを含む。 Following recording and storage of the video recording, the device 600 receives one or more user inputs to access the video recording. As shown in FIG. 10F, device 600 displays frames of video recording 1032 that can be used for playback, editing, deletion, and transmission to other users. The displayed frame of the video recording 1032 includes the visual content of the live preview 630 displayed in the camera display area 604 during recording, but the visual content of the live preview 630 displayed in the indicator area 602 and the control area 606. Does not include. The device 600 superimposes the playback affordance 1038 on the displayed frame of the video recording 1032. Activation (eg, tap-on) of playback affordance 1038 causes playback affordance 1038 to stop displaying and play video recording 1032, which is the visual perception of live preview 630 displayed within the camera display area 604 during recording. Includes visual reproduction of content, but does not include visual content in live preview 630 displayed in indicator area 602 and control area 606 (and recorded visual content that was not displayed in live preview 630 during recording). Not included). The user interface of FIG. 10F also includes an edit affordance 644a (to initiate the process for editing the video recording) and an auto-adjustment affordance 1036b (for automatically editing the video recording).

図10Fでは、デバイス600は、タッチ感知面を使用して、編集アフォーダンス644aに対応する場所のタップジェスチャ1050gを検出する。図10Gに示すように、タップジェスチャ1050gを検出したことに応答して、デバイス600は、ビデオ編集オプション1060を表示し、ビデオ編集オプション1060には、(ビデオ記録をクロッピング及び同時に回転させるための)アフォーダンス1060a、(記録の水平線を調整するための)水平線調整アフォーダンス1060b、(ビデオ記録をクロッピングするための)アフォーダンス1060c、及び(ビデオ記録を回転させるための)アフォーダンス1060dが含まれる。いくつかの実施形態では、記録をクロッピングすることは、例えば、図10Fの再生アフォーダンス1038をアクティブ化することによって表示されるライブプレビュー630の部分を更に除外することにより、再生のための視覚コンテンツを(図10Fと比較して)低減するだけである。 In FIG. 10F, the device 600 uses the touch-sensitive surface to detect 1050 g of tap gesture at a location corresponding to the edit affordance 644a. As shown in FIG. 10G, in response to detecting tap gesture 1050g, device 600 displays video editing option 1060 and video editing option 1060 (for cropping and simultaneously rotating the video recording). Includes affordances 1060a, horizontal line adjustment affordances 1060b (for adjusting the horizontal lines of the recording), affordances 1060c (for cropping the video recordings), and affordances 1060d (for rotating the video recordings). In some embodiments, cropping the recording provides visual content for playback, for example by further excluding the portion of live preview 630 that is displayed by activating the playback affordance 1038 of FIG. 10F. It only reduces (compared to FIG. 10F).

理解を向上させるために、図10Gはまた、ビデオ記録の一部として記録及び記憶されるが、記録中にカメラディスプレイ領域604の一部として表示されなかった視覚コンテンツの表現を含む。デバイス600の外側に示されるこれらの表現は、デバイス600のユーザインタフェースの一部ではないが、理解の向上のために提供される。例えば、図10Gは、インジケータ領域602及びコントロール領域606内に表示されたライブプレビュー630の視覚コンテンツは、ビデオ記録の一部として記録され、記録中にライブプレビュー630内に表示されなかったいくつかの視覚コンテンツはまた、ビデオ記録1032の一部として記憶され、これらの全ては、デバイス600で、ビデオ記録1032を回転させて水平線のオフセットを補正するためのに利用可能であることを示す。 To improve understanding, FIG. 10G also includes representations of visual content that is recorded and stored as part of the video recording but was not displayed as part of the camera display area 604 during recording. These representations, shown outside the device 600, are not part of the device 600 user interface, but are provided for improved understanding. For example, FIG. 10G shows that the visual content of the live preview 630 displayed in the indicator area 602 and the control area 606 was recorded as part of the video recording and was not displayed in the live preview 630 during recording. The visual content is also stored as part of the video recording 1032, indicating that all of these are available on the device 600 to rotate the video recording 1032 to correct the horizontal line offset.

図10Gでは、ビデオ編集オプション1060を表示している間に、デバイス600は、タッチ感知面を使用して、水平線調整アフォーダンス1060bに対応する場所でのタップジェスチャ1050iを検出する。図10Hに示すように、タップジェスチャ1050iを検出したことに応答して、デバイス600は、ビデオ記録中にカメラディスプレイ領域604内に表示されなかった及び/又はビデオ記録中にライブプレビュー630内に表示されなかった視覚コンテンツを使用する(例えば、導入する)ことによって、水平線1040aがオフセットで(例えば、デバイス600のディスプレイの上部(又は底部)に平行である)表示されないように、ビデオ記録1032を修正する。完了アフォーダンス1036cのアクティブ化は、ビデオ記録1032に行われた修正を保存する一方で、取消アフォーダンス1036dのアクティブ化は、ビデオ記録1032に行われた修正を復元する。 In FIG. 10G, while displaying the video editing option 1060, the device 600 uses the touch sensitive surface to detect the tap gesture 1050i at the location corresponding to the horizon adjustment affordance 1060b. As shown in FIG. 10H, in response to detecting the tap gesture 1050i, the device 600 was not displayed in the camera display area 604 during video recording and / or displayed in live preview 630 during video recording. Modified video recording 1032 so that the horizon 1040a is not displayed in offset (eg, parallel to the top (or bottom) of the display on device 600) by using (eg, introducing) unapplied visual content. do. Activation of the completed affordance 1036c saves the modifications made to video recording 1032, while activation of cancel affordance 1036d restores the modifications made to video recording 1032.

図10Gに戻ると、デバイス600がタップジェスチャ1050gを検出して、編集モードに入る代わりに、デバイス600は、タッチ感知面を使用して、自動調整アフォーダンス1036bに対応する場所でのタップジェスチャ1050hを検出する。図10Hに示すように、タップジェスチャ1050gを検出したことに応答して、デバイス600は、ビデオ記録中にカメラディスプレイ領域604内に表示されなかった及び/又はビデオ記録中にライブプレビュー630内に表示されなかった視覚コンテンツを使用する(例えば、導入する)ことによって、水平線1040aがオフセットで(例えば、デバイス600のディスプレイの上部(又は底部)に平行である)表示されないように、ビデオ記録1032を自動的に(及び更なるユーザ入力を必要とせずに)修正する。いくつかの実施形態では、自動調整は、ビデオ記録中にカメラディスプレイ領域604内に表示されなかった及び/又はビデオ記録中にライブプレビュー630内に表示されなかった視覚コンテンツを使用することができる、水平線補正(例えば、鮮明化、露光補正)を超える追加の調整を含む。 Returning to FIG. 10G, instead of the device 600 detecting the tap gesture 1050g and entering edit mode, the device 600 uses the touch sensitive surface to perform the tap gesture 1050h at a location corresponding to the auto-adjustment affordance 1036b. To detect. As shown in FIG. 10H, in response to detecting tap gesture 1050g, the device 600 was not displayed in the camera display area 604 during video recording and / or displayed in live preview 630 during video recording. Automatically auto record video 1032 so that the horizon 1040a is not displayed in offset (eg, parallel to the top (or bottom) of the display on device 600) by using (eg, introducing) unapplied visual content. Modify (and without requiring further user input). In some embodiments, auto-tuning can use visual content that was not displayed within the camera display area 604 during video recording and / or within live preview 630 during video recording. Includes additional adjustments that go beyond horizon correction (eg, sharpening, exposure compensation).

いくつかの実施形態では、図10I〜図10Kに示すように、様々なユーザ入力は、ライブプレビュー630の倍率を変更する。図10Iにおいて、デバイス600は、タッチ感知面を使用して、ズームアフォーダンス622に対応する場所でのタップジェスチャ1050jを検出し、それに応じて、ズームアフォーダンス622のビジュアル要素を更新し、図10Jに示すように、ライブプレビュー630を、タップジェスチャ1050jの大きさに基づかない所定のズームレベル(例えば、2×)までズームする。図10Jにおいて、デバイス600は、タッチ感知面を使用して、ズームアフォーダンス622に対応する場所でのタップジェスチャ1050kを検出し、それに応じて、ズームアフォーダンス622のビジュアル要素を更新し、図10Kに示すように、ライブプレビュー630を、タップジェスチャ1050kの大きさに基づかない第2の所定のズームレベル(例えば、1×)までズームする。タップジェスチャ1050kを検出する代わりに、デバイス600は、タッチ感知面を使用して、カメラディスプレイ領域604内のライブプレビュー630に対応する場所でのピンチ(又はデピンチ)ジェスチャ1050lを検出し、それに応じて、ライブプレビュー630を、ピンチ(又はデピンチ)ジェスチャ1050lの大きさに基づかないズームレベル(例えば、1.7×)までズームする(及び、任意選択的に、ズームアフォーダンス622のビジュアル要素を更新する)。 In some embodiments, various user inputs change the magnification of the live preview 630, as shown in FIGS. 10I-10K. In FIG. 10I, the device 600 uses the touch sensitive surface to detect a tap gesture 1050j at a location corresponding to the zoom affordance 622, and updates the visual elements of the zoom affordance 622 accordingly, as shown in FIG. 10J. As described above, the live preview 630 is zoomed to a predetermined zoom level (for example, 2 ×) that is not based on the size of the tap gesture 1050j. In FIG. 10J, the device 600 uses the touch sensitive surface to detect a tap gesture 1050k at a location corresponding to the zoom affordance 622, and updates the visual elements of the zoom affordance 622 accordingly, as shown in FIG. 10K. As such, the live preview 630 is zoomed to a second predetermined zoom level (eg, 1x) that is not based on the size of the tap gesture 1050k. Instead of detecting the tap gesture 1050k, the device 600 uses the touch-sensitive surface to detect a pinch (or de-pinch) gesture 1050l in the camera display area 604 at a location corresponding to the live preview 630, and accordingly. Zoom the live preview 630 to a zoom level (eg, 1.7x) that is not based on the size of the pinch (or depinch) gesture 1050l (and optionally update the visual elements of the zoom affordance 622). ..

図11A〜図11Cは、いくつかの実施形態による電子デバイスを使用してカメラ視野を表示するための方法を示すフロー図である。方法1100は、表示デバイス及び1つ以上のカメラ(例えば、電子デバイスの異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を備えるデバイス(例えば、100、300、500、600)で行われる。方法1100のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 11A-11C are flow diagrams illustrating a method for displaying a camera field of view using electronic devices according to some embodiments. Method 1100 provides a display device and one or more cameras (eg, one or more cameras (eg, dual cameras, triple cameras, quad cameras, etc.) on different sides of an electronic device (eg, front camera, rear camera)). This is done on a device that includes (eg, 100, 300, 500, 600). Some actions of method 1100 are optionally combined, some actions are arbitrarily modified in order, and some actions are optionally omitted.

後述するように、方法1100は、カメラ視野を表示するための直感的な仕方を提供する。この方法は、カメラ視野を表示する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にカメラ視野にアクセスすることを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As will be described later, method 1100 provides an intuitive way to display the camera field of view. This method reduces the user's cognitive burden in displaying the camera field of view, thereby creating a more efficient human-machine interface. For battery-powered computing devices, it saves power and prolongs the time between battery charges by enabling users to access the camera field of view faster and more efficiently.

電子デバイス(例えば、600)は、カメラユーザインタフェースを表示する要求を受信する(1102)。 The electronic device (eg, 600) receives a request to display the camera user interface (1102).

カメラユーザインタフェースを表示する要求を受信したことに応答して、及びそれぞれの基準が満たされないという判定に従って(1104)(例えば、基準は、デバイスが特定のメディア(例えば、4Kビデオ)をキャプチャするように構成されているとき又は特定のモード(例えば、ポートレートモード)で動作するように構成されていると満たされる基準を含むことができる)、電子デバイス(例えば、600)は、表示デバイスを介して、カメラユーザインタフェースを表示する(1106)。カメラユーザインタフェースは、1つ以上のカメラの視野(例えば、630)の第1の部分の表現を含む第1の領域(例えば、604)(例えば、カメラディスプレイ領域)を含む(1108)。カメラユーザインタフェースは、1つ以上のカメラの視野(例えば、630)の第2の部分の表現を含む第2の領域(例えば、606)(例えば、カメラコントロール領域)を含む(1110)。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分は、第1の部分から視覚的に区別される(例えば、暗色外観を有する)(例えば、1つ以上のカメラの視野の第2の部分上に半透明のオーバーレイを有する)。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分の表現は、1つ以上のカメラの視野の第1の部分の表現と比較して、暗色外観を有する。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分の表現は、カメラユーザインタフェース内のカメラディスプレイ領域(例えば、604)の上方及び/又は下方に位置する。カメラユーザインタフェースを表示する要求を受信したことに応答して、及びそれぞれの基準が満たされていないという判定に従って、カメラユーザインタフェース(カメラユーザインタフェースは、第1の領域及び第2の領域を含む)を表示することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされたときに動作を行い、これにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In response to receiving a request to display the camera user interface, and according to the determination that each criterion is not met (1104) (eg, the criterion is that the device captures certain media (eg, 4K video). Electronic devices (eg, 600), when configured in or can include criteria that are met when configured to operate in a particular mode (eg, portrait mode), via a display device. The camera user interface is displayed (1106). The camera user interface includes a first area (eg, 604) (eg, a camera display area) that includes a representation of a first portion of the field of view (eg, 630) of one or more cameras (1108). The camera user interface includes a second area (eg, 606) (eg, a camera control area) that includes a representation of a second portion of the field of view (eg, 630) of one or more cameras (1110). In some embodiments, the second portion of the field of view of one or more cameras is visually distinguished from the first portion (eg, has a dark appearance) (eg, the field of view of one or more cameras). Has a translucent overlay on the second part of the camera). In some embodiments, the representation of the second portion of the field of view of one or more cameras has a darker appearance as compared to the representation of the first portion of the field of view of one or more cameras. In some embodiments, the representation of the second portion of the field of view of one or more cameras is located above and / or below the camera display area (eg, 604) within the camera user interface. In response to receiving a request to display the camera user interface, and according to the determination that the respective criteria are not met, the camera user interface (the camera user interface includes a first region and a second region). By displaying, the electronic device operates when a set of conditions is met without requiring further user input, which enhances the usability of the device and provides a user-device interface. More efficient (by assisting the user in providing proper input when manipulating / interacting with the device, for example, and reducing user error), and in addition, the user makes the device faster and more efficient. By making it available for use, the power usage of the device is reduced and the battery life is improved.

カメラユーザインタフェースが表示されている間に、電子デバイス(例えば、600)は、1つ以上のカメラでメディア(例えば、画像データ(例えば、静止画像、ビデオ))をキャプチャする要求に対応する入力(例えば、画像キャプチャアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)の選択(例えば、アクティブ化されると、第1の領域内に表示されたコンテンツの画像をキャプチャするシャッターアフォーダンス))を検出する(1112)。 While the camera user interface is displayed, the electronic device (eg, 600) responds to a request to capture media (eg, image data (eg, still image, video)) with one or more cameras (eg, still image, video). For example, it detects the selection of an image capture affordance (eg, a selectable user interface object) (eg, a shutter affordance that captures an image of the content displayed in the first area when activated) (1112). ..

1つ以上のカメラでメディア(例えば、ビデオ、写真)をキャプチャする要求に対応する入力を検出したことに応答して、電子デバイス(例えば、600)は、1つ以上のカメラの視野(例えば、630)の第1の部分に対応する(例えば、由来する)視覚コンテンツと、1つ以上のカメラの視野の第2の部分に対応する(例えば、由来する)視覚コンテンツと、を含むメディアアイテム(例えば、ビデオ、写真)を、1つ以上のカメラでキャプチャする(1114)。 In response to detecting an input corresponding to a request to capture media (eg, video, photo) with one or more cameras, the electronic device (eg, 600) has a field of view (eg, eg, 600) of one or more cameras. A media item (eg, derived) that includes visual content that corresponds to a first portion of 630) (eg, derived) and visual content that corresponds to a second portion of the field of view of one or more cameras (eg, derived). For example, video, photo) is captured by one or more cameras (1114).

メディアアイテムをキャプチャした後に、電子デバイス(例えば、600)は、メディアアイテムを表示する要求(例えば、表示する要求)を受信する(1116)。 After capturing the media item, the electronic device (eg, 600) receives a request to display the media item (eg, a request to display) (1116).

いくつかの実施形態では、メディアアイテムをキャプチャした後に、電子デバイス(例えば、600)は、1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも第3の部分を使用して、オブジェクト追跡(例えば、被写体識別)動作を行う(1118)。メディアアイテムをキャプチャした後に、1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも第3の部分を使用して、オブジェクト追跡動作を(例えば、自動的に、ユーザ入力なしで)行うことは、操作を行うために必要な入力の数を減らし、これにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, after capturing a media item, an electronic device (eg, 600) uses at least a third portion of visual content from a second portion of the field of view of one or more cameras. The object tracking (for example, subject identification) operation is performed (1118). After capturing a media item, use at least a third portion of the visual content from a second portion of the field of view of one or more cameras to perform object tracking behavior (eg, automatically, without user input). What you do reduces the number of inputs required to perform the operation, which enhances the usability of the device and makes the user-device interface (eg, the appropriate input when operating / interacting with the device). By assisting the user in bringing about, and reducing user error), and in addition, by allowing the user to use the device faster and more efficiently, the power usage of the device is reduced. , Battery life is improved.

メディアアイテムを表示する要求を受信したことに応答して、電子デバイス(例えば、600)は、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの少なくとも一部分(又は全て)の表現を表示することなく、1つ以上のカメラの視野(例えば、630)の第1の部分に対応する視覚コンテンツの第1の表現を表示する(1120)。いくつかの実施形態では、キャプチャされた画像データは、1つ以上のカメラの視野(例えば、630)の第1及び第2の部分の両方の表現を含む。いくつかの実施形態では、第2の部分の表現は、キャプチャされた画像データの表示表現から省略されるが、キャプチャされた画像データの表示表現を修正するために使用することができる。例えば、第2の部分は、カメラ安定化、オブジェクト追跡、カメラ視点の変更(例えば、ズーミングなし)、カメラの向きの変更(例えば、ズーミングなし)、及び/又はキャプチャされた画像データの表示表現に組み込むことができる追加の画像データを提供するために使用することができる。 In response to receiving a request to display a media item, an electronic device (eg, 600) represents at least a portion (or all) of visual content that corresponds to a second portion of the field of view of one or more cameras. Is displayed without displaying the first representation of the visual content corresponding to the first portion of the field of view (eg, 630) of one or more cameras (1120). In some embodiments, the captured image data includes representations of both the first and second parts of the field of view (eg, 630) of one or more cameras. In some embodiments, the representation of the second part is omitted from the representation of the captured image data, but can be used to modify the representation of the captured image data. For example, the second part is for camera stabilization, object tracking, camera viewpoint changes (eg, no zooming), camera orientation changes (eg, no zooming), and / or display representations of captured image data. It can be used to provide additional image data that can be incorporated.

いくつかの実施形態では、視覚コンテンツの第1の表現を表示している間に、電子デバイス(例えば、600)は、視覚コンテンツの表現を修正(例えば、編集)する要求に対応する1組の1つ以上の入力を検出する(1122)。いくつかの実施形態では、1組の1つ以上の入力を検出したことに応答して、電子デバイス(例えば、600)は、視覚コンテンツの第2の(例えば、修正された又は編集された)表現を表示する(1124)。いくつかの実施形態では、視覚コンテンツの第2の表現は、1つ以上のカメラの視野の第1の部分の少なくとも一部分からの視覚コンテンツと、視覚コンテンツの第1の表現に含まれなかった1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも一部分に基づく(例えば、由来する)視覚コンテンツと、を含む。1組の1つ以上の入力を検出したことに応答して、視覚コンテンツの第2の表現を表示することにより、ユーザが、1つ以上のカメラの視野の第1の部分の少なくとも一部分からの視覚コンテンツ及び視覚コンテンツの第1の表現に含まれなかった1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも一部分に基づく視覚コンテンツにアクセスすることを可能にし、したがって、ユーザが、視覚コンテンツのより多く及び/又は視覚コンテンツの異なる部分にアクセスすることを可能にする。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、視覚コンテンツの第2の表現は、編集動作に応答して、生成及び表示される。いくつかの実施形態では、第2の表現は、第1の表現に含まれなかった、キャプチャされた視覚コンテンツの少なくとも一部分を含む。 In some embodiments, while displaying the first representation of the visual content, the electronic device (eg, 600) responds to a request to modify (eg, edit) the representation of the visual content. Detect one or more inputs (1122). In some embodiments, in response to detecting one or more inputs in a set, the electronic device (eg, 600) has a second (eg, modified or edited) visual content. Display the representation (1124). In some embodiments, the second representation of the visual content is not included in the first representation of the visual content and the visual content from at least a portion of the first portion of the field of view of one or more cameras1. Includes visual content based on (eg, derived from) at least a portion of the visual content from a second portion of the field of view of one or more cameras. By displaying a second representation of visual content in response to detecting a set of one or more inputs, the user can view from at least a portion of the first portion of the field of view of one or more cameras. Allows the user to access visual content and visual content based on at least a portion of the visual content from a second portion of the field of view of one or more cameras that was not included in the first representation of the visual content. Allows access to more and / or different parts of the visual content. By providing additional control options without cluttering the UI with the additional controllers displayed, the user-device interface is enhanced (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved. In some embodiments, the second representation of the visual content is generated and displayed in response to the editing action. In some embodiments, the second representation includes at least a portion of the captured visual content that was not included in the first representation.

いくつかの実施形態では、視覚コンテンツの第1の表現は、第1の視覚的視点からの表現である(例えば、メディアアイテムがキャプチャされた時点での1つ以上のカメラの視覚的視点、元の視点、未修正の視点)。いくつかの実施形態では、視覚コンテンツの第2の表現は、視覚コンテンツの第1の表現に含まれなかった、1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも一部分に基づいて生成された、第1の視覚的視点とは異なる第2の視覚的視点からの表現である(例えば、第1の視覚的視点から第2の視覚的視点へ表現を変更することは、第2の部分に対応する視覚コンテンツのいくらかを追加又は、代替的に、除去する)。視覚コンテンツの第1の表現に含まれなかった、1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも一部分に基づいて生成された、第1の視覚的視点とは異なる第2の視覚的視点からの表現である視覚コンテンツの第2の表現を提供することにより、ユーザに、追加の視覚コンテンツへのアクセスを提供し、及びユーザが追加の視覚コンテンツを閲覧することを可能にする。改善されたフィードバックを提供すれば、ユーザの活動競争への参加が増加し、デバイスの操作性が向上し、(例えば、ユーザが適切な入力を提供することを助け、デバイスとの動作/対話時にユーザの間違いを低減することによって)ユーザとデバイスのインタフェースがより効率的になり、これによって、ユーザがデバイスをより迅速かつ効率的に使用できるようになることにより、更に、電力使用が低減し、デバイスのバッテリ寿命が改善される。 In some embodiments, the first representation of the visual content is a representation from a first visual perspective (eg, the visual perspective of one or more cameras at the time the media item was captured, the original. Perspective, uncorrected perspective). In some embodiments, the second representation of the visual content is based on at least a portion of the visual content from the second portion of the field of view of one or more cameras that was not included in the first representation of the visual content. Is an expression generated from a second visual viewpoint different from the first visual viewpoint (for example, changing the expression from the first visual viewpoint to the second visual viewpoint is the first. Add or replace some of the visual content corresponding to part 2). A second different from the first visual viewpoint, generated based on at least a portion of the visual content from the second part of the field of view of one or more cameras that was not included in the first representation of the visual content. By providing a second representation of the visual content, which is a representation of the visual content of, it provides the user with access to the additional visual content and allows the user to view the additional visual content. do. Providing improved feedback will increase user participation in competition and improve device usability (eg, help users provide proper input and interact with / interact with the device). By reducing user error, the interface between the user and the device becomes more efficient, which allows the user to use the device faster and more efficiently, further reducing power usage. Improves device battery life.

いくつかの実施形態では、視覚コンテンツの第1の表現は、第1の向きでの表現である(例えば、メディアアイテムがキャプチャされた時点での1つ以上のカメラの視覚的視点、元の視点、未修正の視点)。いくつかの実施形態では、視覚コンテンツの第2の表現は、視覚コンテンツの第1の表現に含まれなかった、1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも一部分に基づいて生成された、第1の向きとは異なる第2の向きでの表現である(例えば、第1の向きから第2の向き(例えば、水平線、縦、横)へ表現を変更することは、第2の部分に対応する視覚コンテンツのいくらかを追加又は、代替的に、除去する)。視覚コンテンツの第1の表現に含まれなかった、1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも一部分に基づいて生成された、第1の向きとは異なる第2の向きでの表現である視覚コンテンツの第2の表現を提供することにより、ユーザに、追加の視覚コンテンツへのアクセスを提供し、及びユーザが追加の視覚コンテンツを閲覧することを可能にする。改善されたフィードバックを提供すれば、ユーザの活動競争への参加が増加し、デバイスの操作性が向上し、(例えば、ユーザが適切な入力を提供することを助け、デバイスとの動作/対話時にユーザの間違いを低減することによって)ユーザとデバイスのインタフェースがより効率的になり、これによって、ユーザがデバイスをより迅速かつ効率的に使用できるようになることにより、更に、電力使用が低減し、デバイスのバッテリ寿命が改善される。 In some embodiments, the first representation of the visual content is a representation in the first orientation (eg, the visual perspective of one or more cameras at the time the media item was captured, the original perspective. , Uncorrected perspective). In some embodiments, the second representation of the visual content is based on at least a portion of the visual content from the second portion of the field of view of one or more cameras that was not included in the first representation of the visual content. Is the representation in a second orientation different from the first orientation (eg, changing the representation from the first orientation to the second orientation (eg, horizontal line, vertical, horizontal). Add or replace some of the visual content that corresponds to the second part). A second orientation different from the first orientation generated based on at least a portion of the visual content from the second portion of the field of view of one or more cameras that was not included in the first representation of the visual content. By providing a second representation of the visual content, which is the representation in, the user is provided with access to the additional visual content and the user is allowed to view the additional visual content. Providing improved feedback will increase user participation in competition and improve device usability (eg, help users provide proper input and interact with / interact with the device). By reducing user error, the interface between the user and the device becomes more efficient, which allows the user to use the device faster and more efficiently, further reducing power usage. Improves device battery life.

いくつかの実施形態では、第1の表現は、第1のズームレベルで表示される。いくつかの実施形態では、視覚コンテンツの第1の表現は、第1のズームレベルでの表現である(例えば、メディアアイテムがキャプチャされた時点での1つ以上のカメラの視覚的視点、元の視点、未修正の視点)。いくつかの実施形態では、視覚コンテンツの第2の表現は、視覚コンテンツの第1の表現に含まれなかった、1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも一部分に基づいて生成された、第1のズームレベルとは異なる第2のズームレベルでの表現である(例えば、第1のズームレベルから第2のズームレベルへ表現を変更することは、第2の部分に対応する視覚コンテンツのいくらかを追加又は、代替的に、除去する)。いくつかの実施形態では、デバイスがポートレートキャプチャモードで動作している間に、第1のズームレベルを第2のズームレベルに変更する要求は、デバイスがポートレートモードで動作するように構成されている間に表示されるズームオプションアフォーダンスの選択に対応する。 In some embodiments, the first representation is displayed at the first zoom level. In some embodiments, the first representation of the visual content is the representation at the first zoom level (eg, the visual perspective of one or more cameras at the time the media item was captured, the original. Perspective, uncorrected perspective). In some embodiments, the second representation of the visual content is based on at least a portion of the visual content from the second portion of the field of view of one or more cameras that was not included in the first representation of the visual content. Is an expression at a second zoom level different from the first zoom level (for example, changing the expression from the first zoom level to the second zoom level is a second part. Add or replace some of the corresponding visual content). In some embodiments, the request to change the first zoom level to the second zoom level while the device is operating in portrait mode is configured to operate the device in portrait mode. Corresponds to the selection of zoom options affordances that are displayed while you are.

いくつかの実施形態では、視覚コンテンツの第1の表現は、1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも第2の部分を使用して(例えば、カメラのキャプチャを安定化させるために第2の部分に対応する視覚コンテンツからのピクセルを使用して)、デジタル画像安定化動作に少なくとも部分的に基づいて生成される。 In some embodiments, the first representation of the visual content uses at least a second portion of the visual content from a second portion of the field of view of one or more cameras (eg, stabilizes the camera's capture). (Using pixels from the visual content corresponding to the second part) to be generated, at least partially based on the digital image stabilization operation.

いくつかの実施形態では、メディアアイテムを表示する要求は、メディアアイテムを表示する第1の要求である(1126)。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの少なくとも一部分(又は全て)の表現を表示することなく、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツの第1の表現を表示した後に、電子デバイス(例えば、600)は、メディアアイテムを表示する第2の要求(例えば、メディアアイテムを編集する要求(例えば、第2の要求を第2の受信することは、メディアアイテムを表示する要求に対応する1つ以上の入力を検出することを含む))を受信する(1128)。いくつかの実施形態では、メディアアイテムを表示する第2の要求(例えば、メディアアイテムを編集する要求)を受信したことに応答して、電子デバイス(例えば、600)は、1つ以上のカメラの視野(例えば、630)の第1の部分に対応する視覚コンテンツの第1の表現及び1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの表現を表示する(1130)。いくつかの実施形態では、1つ以上のカメラの視野(例えば、630)の第2の部分の表現は、表示されたメディア内の1つ以上のカメラの視野の第1の部分の表現と比較して、暗色外観を有する。いくつかの実施形態では、表示されたメディアは、表現を含む第1の領域と、1つ以上のカメラの視野(例えば、630)の第2の部分に対応する視覚コンテンツの表現を含む第2のメディアとを有する。 In some embodiments, the request to display the media item is the first request to display the media item (1126). In some embodiments, the first portion of the field of view of one or more cameras does not display a representation of at least a portion (or all) of the visual content that corresponds to the second portion of the field of view of the one or more cameras. After displaying the first representation of the visual content corresponding to the portion, the electronic device (eg, 600) has a second request to display the media item (eg, a request to edit the media item (eg, a second request). (2) Receiving (including detecting one or more inputs corresponding to a request to display a media item)) (1128). In some embodiments, the electronic device (eg, 600) is of one or more cameras in response to receiving a second request to display the media item (eg, a request to edit the media item). A first representation of the visual content corresponding to the first portion of the field of view (eg, 630) and a representation of the visual content corresponding to the second portion of the field of view of one or more cameras are displayed (1130). In some embodiments, the representation of the second portion of the field of view of one or more cameras (eg, 630) is compared to the representation of the first portion of the field of view of one or more cameras in the displayed media. And has a dark appearance. In some embodiments, the displayed media comprises a first region containing the representation and a second representation of the visual content corresponding to a second portion of the field of view (eg, 630) of one or more cameras. With media.

いくつかの実施形態では、カメラユーザインタフェースを表示する要求を受信したことに応答して、及びそれぞれの基準が満たされているという判定に従って、電子デバイス(例えば、600)は、表示デバイスを介して、第2のカメラユーザインタフェースを表示し、第2のカメラユーザインタフェースが、1つ以上のカメラの視野の第2の部分の表現を含むことなく、1つ以上のカメラの視野の第1の部分の表現を含む(1132)。カメラユーザインタフェースを表示する要求を受信したことに応答して、及びそれぞれの基準が満たされているという判定に従って、1つ以上のカメラの視野の第2の部分の表現を含むことなく、1つ以上のカメラの視野の第1の部分の表現を含む第2のカメラユーザインタフェースを表示することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされたときに動作を行い、これにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、メディアをキャプチャする要求に対応する入力を検出したことに応答して、電子デバイス(例えば、600)は、1つ以上のカメラの視野の第2の部分に対応するメディアをキャプチャすることなく、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツを含むメディアアイテムをキャプチャする。 In some embodiments, the electronic device (eg, 600) is via the display device in response to receiving a request to display the camera user interface and according to the determination that the respective criteria are met. , Displaying a second camera user interface, the second camera user interface does not include a representation of a second portion of the field of view of one or more cameras, but a first portion of the field of view of one or more cameras. (1132). One without including a representation of a second part of the field of view of one or more cameras in response to receiving a request to display the camera user interface and according to the determination that each criterion is met. By displaying a second camera user interface that includes a representation of the first portion of the camera's field of view, the electronic device operates when a set of conditions is met without the need for further user input. This enhances the usability of the device and assists the user in providing the user-device interface (eg, providing proper input when manipulating / interacting with the device) and reducing user error. By making it more efficient (by doing so) and, in addition, allowing the user to use the device faster and more efficiently, the power usage of the device is reduced and battery life is improved. In some embodiments, the electronic device (eg, 600) corresponds to a second portion of the field of view of one or more cameras in response to detecting an input corresponding to the request to capture the media. Captures media items that contain visual content that corresponds to the first portion of the field of view of one or more cameras without capturing.

いくつかの実施形態では、電子デバイス(例えば、600)は、以前にキャプチャされたメディアアイテムを表示する要求(例えば、メディアアイテムを編集する要求)を受信する(1134)。いくつかの実施形態では、以前にキャプチャされたメディアアイテムを表示する要求(例えば、メディアアイテムを編集する要求)を受信したことに応答して(1136)、それぞれの基準が満たされたときに以前にキャプチャされたメディアアイテムがキャプチャされたという判定に従って、電子デバイス(例えば、600)は、追加のコンテンツのインジケーションを表示する(例えば、インジケーションは、アラートを含み、メディアアイテムは、使用可能な追加のコンテンツを含み、追加のコンテンツを含まないメディアアイテムがキャプチャされた場合に、インジケーションが表示される)。以前にキャプチャされたメディアアイテムを表示する要求を受信したことに応答して、それぞれの基準が満たされなかったときに以前にキャプチャされたメディアアイテムがキャプチャされたという判定に従って、追加のコンテンツのインジケーションを表示することによって、電子デバイスは、ユーザに(例えば、メディアアイテムを編集するための)追加の制御オプションを提供し、これにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、以前にキャプチャされたメディアアイテムを表示する要求(例えば、メディアアイテムを編集する要求)を受信したことに応答して(1136)、それぞれの基準が満たされたときに以前にキャプチャされたメディアアイテムがキャプチャされたという判定に従って、電子デバイス(例えば、600)は、追加のコンテンツのインジケーションを表示するのをやめる(例えば、追加のコンテンツを含まないメディアアイテムがキャプチャされた場合、メディアアイテムは、表示されない)(1140)。 In some embodiments, the electronic device (eg, 600) receives a request to display a previously captured media item (eg, a request to edit a media item) (1134). In some embodiments, in response to receiving a request to display a previously captured media item (eg, a request to edit a media item) (1136), previously when the respective criteria are met. According to the determination that the media item captured in is captured, the electronic device (eg, 600) displays an indication of additional content (eg, the indication contains an alert and the media item is available). The indication is displayed when a media item with and without additional content is captured). In response to receiving a request to view previously captured media items, an interface to additional content is determined according to the determination that previously captured media items were captured when their respective criteria were not met. By displaying the display, the electronic device provides the user with additional control options (eg, for editing media items), which enhances the usability of the device and provides a user-device interface (eg, for example). (By assisting the user in providing proper input when manipulating / interacting with the device and reducing user error), in addition, the user makes the device faster and more efficient. By making it available, the power usage of the device is reduced and the battery life is improved. In some embodiments, in response to receiving a request to display a previously captured media item (eg, a request to edit a media item) (1136), previously when the respective criteria are met. According to the determination that the media item captured in is captured, the electronic device (eg, 600) stops displaying the indication of additional content (eg, media item that does not contain additional content was captured). If the media item is not displayed) (1140).

いくつかの実施形態では、それぞれの基準は、4000水平ピクセル以上の解像度でメディアアイテムをキャプチャするように電子デバイス(例えば、600)が構成されていると満たされる基準を含む。 In some embodiments, each criterion includes a criterion that is met when the electronic device (eg, 600) is configured to capture media items at a resolution of 4000 horizontal pixels or higher.

いくつかの実施形態では、それぞれの基準は、所定のズームレベルにてポートレートモードで動作するように電子デバイス(例えば、600)が構成されていると満たされる基準を含む(例えば、ポートレートモードでは、ズームレベル(例えば、0.5×、1×、2×ズーム)の間にある間は、追加のコンテンツを含まない)。 In some embodiments, each criterion includes a criterion that is met when the electronic device (eg, 600) is configured to operate in portrait mode at a given zoom level (eg, portrait mode). Now, while between the zoom levels (eg, 0.5x, 1x, 2x zoom), no additional content is included).

いくつかの実施形態では、それぞれの基準は、1つ以上のカメラのうちの少なくとも1つのカメラ(例えば、周辺カメラ)が所定の期間(例えば、5秒)にわたって焦点(例えば、視野内の1つ以上のオブジェクト上)を維持できないと満たされる基準を含む。 In some embodiments, each criterion is that at least one camera (eg, a peripheral camera) of one or more cameras is in focus (eg, one in the field of view) over a predetermined period of time (eg, 5 seconds). Includes criteria that are met if (on the above objects) cannot be maintained.

いくつかの実施形態では、1つ以上のカメラでメディアをキャプチャする要求に対応する入力は、1つ以上のカメラでメディアをキャプチャする要求に対応する第1の入力である。いくつかの実施形態では、カメラユーザインタフェースが表示されている間に、電子デバイスは、1つ以上のでメディアをキャプチャする要求に対応する第2の入力を検出する。いくつかの実施形態では、1つ以上のカメラでメディアをキャプチャする要求に対応する第2の入力を検出したことに応答して、及び追加のコンテンツ設定(例えば、図37の3702a、3702a2、3702a3)に基づいて、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツをキャプチャするように電子デバイスが構成されているという判定に従って、電子デバイスは、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツの第1の表現(例えば、領域604内に表示された)をキャプチャし、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの少なくとも一部分の表現(例えば、領域602及び/又は606内に表示された)をキャプチャする。いくつかの実施形態では、電子デバイスは、追加のコンテンツキャプチャ設定アフォーダンスを含む設定ユーザインタフェースを表示し、これは、選択されると、電子デバイスに、メディアをキャプチャする要求に応答して、電子デバイスが自動的に(追加のユーザ入力なしで)第2のコンテンツをキャプチャする状態に又は状態から変更させる。いくつかの実施形態では、追加のコンテンツキャプチャ設定は、ユーザが構成可能である。いくつかの実施形態では、1つ以上のカメラでメディアをキャプチャする要求に対応する第2の入力を検出したことに応答して、及び追加のコンテンツ設定に基づいて、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツをキャプチャするように電子デバイスが構成されていないという判定に従って、電子デバイスは、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの少なくとも一部分の表現をキャプチャすることなく、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツの第1の表現をキャプチャする。いくつかの実施形態では、電子デバイスは、1つ以上のカメラの視野の第2の部分をキャプチャするのをやめる。 In some embodiments, the input corresponding to the request to capture media with one or more cameras is the first input corresponding to the request to capture media with one or more cameras. In some embodiments, while the camera user interface is displayed, the electronic device detects a second input corresponding to one or more requests to capture the media. In some embodiments, in response to detecting a second input corresponding to a request to capture media with one or more cameras, and additional content settings (eg, 3702a, 3702a2, 3702a3 in FIG. 37). ) Based on the determination that the electronic device is configured to capture the visual content corresponding to the second portion of the field of view of the one or more cameras. A first representation of the visual content corresponding to the first portion (eg, displayed within area 604) is captured and at least a portion of the visual content corresponding to the second portion of the field of view of one or more cameras. Capture the representation (eg, displayed within areas 602 and / or 606). In some embodiments, the electronic device displays a configuration user interface that includes additional content capture configuration affordances, which, when selected, the electronic device responds to a request to capture the media. Automatically (without additional user input) to or out of state to capture the second content. In some embodiments, additional content capture settings are user configurable. In some embodiments, the field of view of one or more cameras in response to detecting a second input corresponding to the request to capture the media with one or more cameras, and based on additional content settings. According to the determination that the electronic device is not configured to capture the visual content corresponding to the second part of the camera, the electronic device is at least a portion of the visual content corresponding to the second part of the field of view of one or more cameras. Captures the first representation of the visual content that corresponds to the first portion of the field of view of one or more cameras without capturing the representation of. In some embodiments, the electronic device ceases to capture a second portion of the field of view of one or more cameras.

方法1100に関して上述された処理(例えば、図11A〜図11C)の詳細はまた、上記及び以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1300、1500、1700、1900、2000、2100、2300、2500、2700、2800、3000、3200、3400、3600、及び3800は、方法1100を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。 It should be noted that the details of the processes described above for Method 1100 (eg, FIGS. 11A-11C) are also applicable in a similar manner to the methods described above and below. For example, methods 700, 900, 1300, 1500, 1700, 1900, 2000, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3400, 3600, and 3800 are various described above with reference to Method 1100. Optionally include one or more of the properties of the method. For the sake of brevity, these details will not be repeated below.

図12A〜図12Iは、いくつかの実施形態による電子デバイスを使用してメディアアイテムにアクセスするための例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図13A〜図13Bにおける処理を含む、以下で説明される処理を例示するために使用される。 12A-12I show exemplary user interfaces for accessing media items using electronic devices according to some embodiments. The user interfaces in those figures are used to illustrate the processes described below, including the processes in FIGS. 13A-13B.

図12Aに示すように、デバイス600は、カメラ起動アイコン1202を含むホームユーザインタフェーススクリーン1200を表示する。ホームユーザインタフェース1200を表示している間に、デバイス600は、カメラ起動アイコン1202上の入力1295aを検出する。 As shown in FIG. 12A, the device 600 displays a home user interface screen 1200 that includes a camera activation icon 1202. While displaying the home user interface 1200, the device 600 detects input 1295a on the camera activation icon 1202.

入力1295aを検出したことに応答して、デバイス600は、図12Bに見られるように、インジケータ領域602、カメラディスプレイ領域604、及びコントロール領域606を含むユーザインタフェースを表示する。インジケータ領域602は、フラッシュインジケータ602aと、アニメーション化された画像をキャプチャする(例えば、メディアをキャプチャする要求に応答して、既定の数の画像をキャプチャする)ようにデバイス600が現在構成されていることを示すアニメーション化された画像状態インジケータ602dと、を含む。カメラディスプレイ領域604は、ライブプレビュー630を含む。ライブプレビュー630は、デバイス600の1つ以上のカメラ(例えば、背面カメラ)の視野の表現である。 In response to detecting input 1295a, the device 600 displays a user interface that includes an indicator area 602, a camera display area 604, and a control area 606, as seen in FIG. 12B. The indicator area 602 is currently configured with a flash indicator 602a and a device 600 to capture an animated image (eg, capture a predetermined number of images in response to a request to capture media). Includes an animated image status indicator 602d, which indicates that. The camera display area 604 includes a live preview 630. The live preview 630 is a representation of the field of view of one or more cameras (eg, rear cameras) of the device 600.

コントロール領域606は、メディアコレクション624コレクション624を含む。デバイス600は、メディアコレクション624コレクション624を、デバイス縁部1214に積み重ねてかつ近接させて表示する。メディアコレクション624コレクション624は、メディアコレクション1212aの第1の部分(例えば、メディアコレクション624コレクション624の左半分)と、メディアコレクション1212bの第2の部分(例えば、メディアコレクション624コレクション624の積み重ねにおける上部表現)と、を含む。いくつかの実施形態では、カメラユーザインタフェースが起動されると、デバイス600は、自動的に、ユーザ入力なしで、デバイス縁部1214からデバイス600の中心に向かってスライドするメディアコレクション624コレクション624のアニメーションを表示する。いくつかの実施形態では、アニメーションが開始されると、メディアコレクション1212bの第1の部分は、最初に表示されない(例えば、上部表示のみが最初に視認可能である)。更には、カメラコントロール領域612は、シャッターアフォーダンス610を含む。図12Bにおいて、デバイス600は、ライブプレビュー630が横断歩道を歩いている女性を示している間に、シャッターアフォーダンス610上のタップ入力1295bを検出する。 The control area 606 includes a media collection 624 collection 624. The device 600 displays the media collection 624 collection 624 stacked and close to the device edge 1214. The media collection 624 collection 624 is an upper representation in a stack of the first part of the media collection 1212a (eg, the left half of the media collection 624 collection 624) and the second part of the media collection 1212b (eg, the media collection 624 collection 624). ) And, including. In some embodiments, when the camera user interface is activated, the device 600 automatically slides from the device edge 1214 towards the center of the device 600 without user input, an animation of the media collection 624 collection 624. Is displayed. In some embodiments, when the animation is initiated, the first portion of the media collection 1212b is not initially visible (eg, only the top view is first visible). Further, the camera control area 612 includes a shutter affordance 610. In FIG. 12B, device 600 detects tap input 1295b on shutter affordance 610 while live preview 630 shows a woman walking on a pedestrian crossing.

図12C〜図12Fは、入力1295bに応答して、アニメーション化されたメディアのキャプチャを示す。 12C-12F show a capture of animated media in response to input 1295b.

図12Cにおいて、アニメーション化されたメディアのキャプチャ(例えば、シーケンスでの既定の複数の画像のキャプチャ)中の第1の時点に対応して、ライブプレビュー630は、横断歩道を更に進んでいる女性と、横断歩道に進入している男性と、を示す。コントロール領域606は、メディアがキャプチャされている間に示されないメディアコレクション624コレクション624を含まない。いくつかの実施形態では、メディアコレクション624は、メディアをキャプチャする間に表示される。いくつかの実施形態では、メディアコレクション624は、メディアをキャプチャする間に単一の表現(例えば、積み重ねの上部表現)のみで表示される。 In FIG. 12C, the live preview 630 corresponds to a first point in time during the capture of animated media (eg, the capture of a plurality of default images in a sequence) with a woman further on the pedestrian crossing. , Indicates a man entering the pedestrian crossing. The control area 606 does not include the media collection 624 collection 624 which is not shown while the media is being captured. In some embodiments, the media collection 624 is displayed while capturing the media. In some embodiments, the media collection 624 is displayed with only a single representation (eg, the top representation of the stack) while capturing the media.

図12Dにおいて、アニメーション化されたメディアのキャプチャ中の第2の時点に対応して、ライブプレビュー630は、横断歩道から出始めている女性と、一方、横断歩道を更に進んでいる男性と、を示す。メディアコレクション624が示されており、アニメーション化されたメディアの進行中のキャプチャ中にキャプチャされた複数の画像の第1の画像(例えば、入力1295bが検出された0.5秒後にキャプチャされた画像)の表現を含む。 In FIG. 12D, the live preview 630 shows a woman starting out of the pedestrian crossing and a man going further along the pedestrian crossing, corresponding to a second point in time during the capture of the animated media. .. Media collection 624 is shown, the first image of a plurality of images captured during the ongoing capture of the animated media (eg, the image captured 0.5 seconds after input 1295b was detected. ) Is included.

図12Eにおいて、アニメーション化されたメディアのキャプチャ中の第3の時点に対応して、ライブプレビュー630は、横断歩道から部分的に出ている女性と、横断歩道の中央にいる男性と、を示す。メディアコレクション624が示されており、アニメーション化されたメディアの進行中のキャプチャ中にキャプチャされた複数の画像の第2の画像(例えば、入力1295bが検出された1秒後にキャプチャされた画像)の表現を含む。いくつかの実施形態では、第2の画像は、図12Dに示される表現の上に重ねられる(例えば、スタックとして)。 In FIG. 12E, the live preview 630 shows a woman partially out of the pedestrian crossing and a man in the middle of the pedestrian crossing, corresponding to a third point in time during the capture of the animated media. .. Media collection 624 is shown, of the second image of the plurality of images captured during the ongoing capture of the animated media (eg, the image captured 1 second after input 1295b was detected). Including expressions. In some embodiments, the second image is overlaid (eg, as a stack) on top of the representation shown in FIG. 12D.

図12Fにおいて、デバイス600は、アニメーション化されたメディアのキャプチャを完了した。メディアコレクション624は、スタックの上部に、他の以前にキャプチャされたメディア(例えば、アニメーション化されたメディアキャプチャ動作中にキャプチャされたもの以外のメディア)上に重ねられたキャプチャされたアニメーション化されたメディアの単一の表現(例えば、既定の複数のキャプチャされた画像を表す単一の表現)を現在含む。 In FIG. 12F, device 600 has completed the capture of the animated media. The media collection 624 was captured and animated on top of other previously captured media (eg, media other than those captured during the animated media capture operation) at the top of the stack. It currently contains a single representation of the media (eg, a single representation of the default multiple captured images).

図12Gに示すように、表現メディアコレクション624が所定の期間にわたって表示されたことを検出したことに応答して、デバイス600は、メディアコレクション624のメディアコレクション1212aの第1の部分の表示を停止する。図12Gに示すように、デバイス600は、メディアコレクション1212bの第2の部分の表示を維持する一方で、メディアコレクション1212aの第1の部分の表示を停止する。いくつかの実施形態では、メディアコレクション1212aの第1の部分の表示を停止することとは、メディアコレクション624をデバイス縁部1214に向かってスライドするアニメーションを表示することを含む。メディアコレクション1212aの第1の部分の表示及びメディアコレクション1212bの第2の部分の維持を停止した後で、追加のコントロールアフォーダンス614は、メディアコレクション624によって以前に占有された場所に表示される。更には、メディアコレクション1212aの第1の部分の表示を停止した後で、デバイス600は、デバイス縁部1214から離れて動くスワイプ入力1295cを検出する。 As shown in FIG. 12G, in response to detecting that the representational media collection 624 has been displayed for a predetermined period of time, the device 600 stops displaying the first portion of the media collection 1212a of the media collection 624. .. As shown in FIG. 12G, the device 600 maintains the display of the second portion of the media collection 1212b while stopping the display of the first portion of the media collection 1212a. In some embodiments, stopping the display of the first portion of the media collection 1212a comprises displaying an animation that slides the media collection 624 towards the device edge 1214. After stopping the display of the first part of the media collection 1212a and the maintenance of the second part of the media collection 1212b, the additional control affordance 614 is displayed in the location previously occupied by the media collection 624. Further, after stopping the display of the first portion of the media collection 1212a, the device 600 detects a swipe input 1295c moving away from the device edge 1214.

図12Hに示すように、スワイプ入力1295cを検出したことに応答して、デバイス600は、メディアコレクション624のメディアコレクション1212bの第1の部分を再表示する。メディアコレクション1212bの第1の部分を再表示した後、デバイス600は、メディアコレクション624が追加のコントロールアフォーダンス614が占有された場所を覆うため、追加のコントロールアフォーダンス614の表示を停止する。メディアコレクション624を表示している間に、デバイス600は、メディアコレクション624上のタップ入力1295dを検出する。 As shown in FIG. 12H, in response to detecting the swipe input 1295c, the device 600 redisplays the first portion of the media collection 1212b of the media collection 624. After redisplaying the first portion of the media collection 1212b, the device 600 stops displaying the additional control affordance 614 because the media collection 624 covers the occupied area of the additional control affordance 614. While displaying the media collection 624, the device 600 detects the tap input 1295d on the media collection 624.

図12Iに示すように、タップ入力1295dを検出したことに応答して、デバイス600は、拡大表現1226(例えば、図12B〜図12Fでキャプチャされたアニメーション化されたメディアの表現)を表示する。表現1226は、図12Hのメディアコレクション624のスタックの上部に表示された小表現に対応する。いくつかの実施形態では、閾値強度よりも高い特性強度又は閾値持続時間より長い持続時間を有する表現1226上の接触に応答して、デバイス600は、表現1226に対応するアニメーション化されたメディアを再生する。拡大表現1226を表示している間に、デバイス600は、戻るアフォーダンス1236上の入力1295eを検出する。 As shown in FIG. 12I, in response to detecting the tap input 1295d, the device 600 displays an enlarged representation 1226 (eg, a representation of the animated media captured in FIGS. 12B-12F). Representation 1226 corresponds to the small representation displayed at the top of the stack of media collection 624 of FIG. 12H. In some embodiments, the device 600 plays the animated media corresponding to the representation 1226 in response to a contact on the representation 1226 having a characteristic intensity greater than the threshold intensity or a duration longer than the threshold duration. do. While displaying the magnified representation 1226, the device 600 detects input 1295e on the returning affordance 1236.

図12Jに示すように、入力1295eを検出したことに応答して、デバイス600は、メディアの拡大表現1226から出て、デバイス縁部1214付近にメディアコレクション624を表示する。メディアコレクション624を表示している間に、デバイス600は、デバイス縁部1214に向かって動くスワイプジェスチャである入力1295fを検出する。 As shown in FIG. 12J, in response to detecting the input 1295e, the device 600 exits the enlarged representation 1226 of the media and displays the media collection 624 near the device edge 1214. While displaying the media collection 624, the device 600 detects input 1295f, which is a swipe gesture moving towards the device edge 1214.

図12Kに示すように、スワイプ入力1295fを検出したことに応答して、デバイス600は、メディアコレクション624のメディアコレクション1212aの第1の部分の表示を停止し、追加のコントロールアフォーダンス616を再表示する。 As shown in FIG. 12K, in response to detecting the swipe input 1295f, the device 600 stops displaying the first portion of the media collection 1212a of the media collection 624 and redisplays the additional control affordance 616. ..

図13A〜図13Bは、いくつかの実施形態による電子デバイスを使用してメディアアイテムにアクセスするための方法を示すフロー図である。方法1300は、表示デバイス及び1つ以上のカメラ(例えば、電子デバイスの異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を備えるデバイス(例えば、100、300、500、600)で行われる。方法1300のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 13A-13B are flow diagrams illustrating methods for accessing media items using electronic devices according to some embodiments. Method 1300 provides a display device and one or more cameras (eg, one or more cameras (eg, dual cameras, triple cameras, quad cameras, etc.) on different sides of an electronic device (eg, front camera, rear camera)). This is done on a device that includes (eg, 100, 300, 500, 600). Some actions of method 1300 are optionally combined, some actions are optionally changed in order, and some actions are optionally omitted.

後述するように、方法1300は、メディアアイテムにアクセスするための直感的な仕方を提供する。この方法は、メディアアイテムにアクセスする際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアアイテムにアクセスすることを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, Method 1300 provides an intuitive way to access media items. This method reduces the cognitive burden on the user when accessing media items, thereby creating a more efficient human-machine interface. For battery-powered computing devices, it saves power and prolongs the time between battery charges by enabling users to access media items faster and more efficiently.

電子デバイス(例えば、600)は、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現(例えば、630)を含むカメラディスプレイ領域(例えば、604)を含む(例えば、同時に表示する)、カメラユーザインタフェースを表示する(1302)。 The electronic device (eg, 600) is to display the camera user interface via a display device, the camera display area, wherein the camera user interface includes a representation of the field of view of one or more cameras (eg, 630). Display camera user interfaces (eg, display simultaneously), including (eg, 604) (1302).

カメラユーザインタフェースを表示している間に、電子デバイス(例えば、600)は、1つ以上のカメラの視野(例えば、630)に対応するメディアをキャプチャする要求(例えば、物理カメラシャッターボタン又は仮想カメラシャッターボタンなどのキャプチャアフォーダンスのアクティブ化)を検出する(1304)。 While displaying the camera user interface, an electronic device (eg, 600) requests to capture media corresponding to the field of view (eg, 630) of one or more cameras (eg, physical camera shutter button or virtual camera). Activation of capture affordance such as shutter button) is detected (1304).

1つ以上のカメラの視野(例えば、630)に対応するメディアをキャプチャする要求を検出したことに応答して、電子デバイス(例えば、600)は、1つ以上のカメラの視野に対応するメディアをキャプチャし、キャプチャされたメディアの表現(例えば、1224)を表示する(1306)。 In response to detecting a request to capture media corresponding to one or more camera fields of view (eg, 630), the electronic device (eg, 600) picks up media corresponding to one or more camera fields of view. Capture and display a representation of the captured media (eg, 1224) (1306).

キャプチャされたメディアの表現を表示している間に、電子デバイス(例えば、600)は、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出する(1308)。いくつかの実施形態では、イベントに応答して、所定の時間が開始される(例えば、画像をキャプチャする、カメラアプリケーションを起動するなど)。いくつかの実施形態では、所定の時間の長さは、検出されたイベントに基づいて判定される。例えば、イベントが第1のタイプ(例えば、静止画像)の画像データをキャプチャしている場合、所定の時間は、一定時間(例えば、0.5秒)であり、イベントが第2のタイプ(例えば、ビデオ)の画像データをキャプチャしている場合、所定の時間量は、キャプチャされた画像データの量(例えば、キャプチャされたビデオの長さ)に対応する。 While displaying the representation of the captured media, the electronic device (eg, 600) detects that the representation of the captured media has been displayed for a predetermined period of time (1308). In some embodiments, a predetermined time is initiated in response to an event (eg, capturing an image, launching a camera application, etc.). In some embodiments, the length of time is determined based on the detected event. For example, if the event is capturing image data of a first type (eg, a still image), the predetermined time is a fixed time (eg, 0.5 seconds) and the event is of a second type (eg, 0.5 seconds). , Video), the predetermined amount of time corresponds to the amount of captured image data (eg, the length of the captured video).

いくつかの実施形態では、キャプチャされたメディアの表現が表示されている間に、電子デバイス(例えば、600)は、キャプチャされたメディアの拡大表現を表示する要求に対応するユーザ入力(例えば、キャプチャされたメディアの表現上での選択(例えば、タップ)に対応するユーザ入力)を検出する(1310)。いくつかの実施形態では、キャプチャされたメディアの表現の選択に対応するユーザ入力を検出したことに応答して、電子デバイス(例えば、600)は、表示デバイスを介して、(例えば、メディアの表現を拡大する)キャプチャされたメディアの拡大表現を表示する(1312)。 In some embodiments, while the representation of the captured media is displayed, the electronic device (eg, 600) responds to a request to display a magnified representation of the captured media (eg, capture). The user input corresponding to the selection (for example, tap) on the representation of the media is detected (1310). In some embodiments, the electronic device (eg, 600) responds by detecting the user input corresponding to the selection of the captured media representation through the display device (eg, the media representation). (Enlarge) Display an enlarged representation of the captured media (1312).

いくつかの実施形態では、キャプチャされたメディアの表現は、ディスプレイ上の第5の場所に表示される。いくつかの実施形態では、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも一部分の表示を停止した後に、電子デバイス(例えば、600)は、第5の場所にて複数のカメラ設定を制御するアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)を表示する。カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも一部分の表示を停止した後、複数のカメラ設定を制御するアフォーダンスを表示することにより、ユーザに、容易にアクセス可能及び使用可能な制御オプションを提供する。追加表示されたコントロールによりユーザインタフェースを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性が改善され、ユーザ−デバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, the captured media representation is displayed in a fifth location on the display. In some embodiments, the electronic device (eg, 600) is placed in a fifth location after stopping the display of at least a portion of the captured media representation while maintaining the display of the camera user interface. Displays affordances (eg, selectable user interface objects) that control multiple camera settings. Easily accessible to the user by displaying affordances that control multiple camera settings after stopping the display of at least a portion of the captured media representation while maintaining the display of the camera user interface. And provide control options available. By providing additional control options without cluttering the user interface with the additionally displayed controls, the usability of the device is improved and the user-device interface is suitable (eg, when manipulating / interacting with the device). Powering the device by assisting the user in providing input and reducing user error) and by allowing the user to use the device more quickly and efficiently. Reduce usage and improve battery life.

いくつかの実施形態では、1つ以上のカメラの視野(例えば、630)に対応するメディア(例えば、ビデオ、動画(例えば、ライブフォト))をキャプチャすることは、画像のシーケンスをキャプチャすることを含む。1つ以上のカメラの視野に対応するメディアをキャプチャするときに画像のシーケンスを(例えば、自動的に、追加のユーザ入力なしで)キャプチャすることによって、電子デバイスは、改善されたフィードバックを提供し、これにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、キャプチャされたメディアの表現を表示することは、少なくとも2つの画像(例えば、ビデオ、写真)を含む画像のキャプチャされたシーケンスの少なくとも一部分を再生することを含む。いくつかの実施形態では、キャプチャされたビデオは、所定の期間にわたってループされる。 In some embodiments, capturing media (eg, video, video (eg, live photo)) that corresponds to the field of view (eg, 630) of one or more cameras means capturing a sequence of images. include. By capturing a sequence of images (eg, automatically, without additional user input) when capturing media that corresponds to the field of view of one or more cameras, the electronic device provides improved feedback. This enhances the usability of the device and assists the user in providing the user-device interface (eg, providing proper input when manipulating / interacting with the device) and reducing user error. ) By making the device more efficient and, in addition, allowing the user to use the device faster and more efficiently, the power usage of the device is reduced and the battery life is improved. In some embodiments, displaying a representation of the captured media comprises reproducing at least a portion of the captured sequence of images, including at least two images (eg, video, photo). In some embodiments, the captured video is looped over a predetermined period of time.

いくつかの実施形態では、所定の時間は、キャプチャされたビデオシーケンスの持続時間に基づく(例えば、等しい)。いくつかの実施形態では、キャプチャされたメディアの表現は、ビデオメディアの再生が完了した後に表示を停止される。 In some embodiments, the predetermined time is based on (eg, equal) the duration of the captured video sequence. In some embodiments, the representation of the captured media is stopped after the playback of the video media is complete.

キャプチャされたメディアの表現(例えば、1224)が所定の期間にわたって表示されたことを検出したことに応答して、電子デバイス(例えば、600)は、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも一部分の表示を停止する(1314)。キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出したことに応答して、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも一部分の表示を停止することは、操作を行うために必要な入力の数を減らし、これにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、キャプチャされたメディアの表現の表示を停止することは、カメラコントロール領域外で動くキャプチャされたメディアの表現のアニメーションを表示することを含む(例えば、所定の時間量が満了すると、画像プレビューはアニメーション内のスクリーン外へ(例えば、左へ)スライドする)。 In response to detecting that the captured media representation (eg, 1224) has been displayed for a predetermined period of time, the electronic device (eg, 600) maintains the display of the camera user interface. , Stop displaying at least a portion of the captured media representation (1314). Stop displaying at least a portion of the captured media representation while maintaining the display of the camera user interface in response to detecting that the captured media representation has been displayed for a given period of time. Doing so reduces the number of inputs required to perform the operation, which enhances the usability of the device and makes the user-device interface (eg, the appropriate input when operating / interacting with the device). By assisting the user in bringing about and reducing user error), and in addition, by allowing the user to use the device faster and more efficiently, the power usage of the device is reduced. , Battery life is improved. In some embodiments, stopping the display of the captured media representation comprises displaying an animation of the captured media representation moving outside the camera control area (eg, a predetermined amount of time has expired). The image preview then slides off the screen in the animation (for example, to the left).

いくつかの実施形態では、キャプチャされたメディアの表現の部分は、キャプチャメディアの表現の第1の部分である。いくつかの実施形態では、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも第1の部分の表示を停止することは、キャプチャされたメディアの表現の少なくとも第2の部分の表示を維持することを更に含む(例えば、表示の縁部は、ユーザインタフェースの縁部(例えば、表示デバイス(又は表示デバイス上のスクリーン)の縁部)の近くに張り出す)。 In some embodiments, the representation part of the captured media is the first part of the representation of the captured media. In some embodiments, stopping the display of at least the first portion of the captured media representation while maintaining the display of the camera user interface is at least the second of the captured media representation. Further includes maintaining the display of the portion of (eg, the edges of the display overhang near the edges of the user interface (eg, the edges of the display device (or screen on the display device)).

いくつかの実施形態では、表現の第1の部分の表示を停止する前に、キャプチャされたメディアの表現が、ディスプレイ上の第1の場所に表示される。いくつかの実施形態では、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも第1の部分の表示を停止することは、ディスプレイ上の第1の場所から表示デバイスの縁部に対応するディスプレイ上の第2の場所に向かって、キャプチャされたメディアの表現を動かす(例えば、スライドする)アニメーションを表示することを更に含む(例えば、アニメーションは、カメラユーザインタフェースの縁部に向かってスライドする表現を示す)。カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも第1の部分の表示を停止すると、ディスプレイ上の第1の場所から表示デバイスの縁部に対応するディスプレイ上の第2の場所に向かって、キャプチャされたメディアの表現を動かすアニメーションを表示することによって、ユーザに、表現の少なくとも第1の部分が表示から除去されているという視覚的フィードバックを提供する。改善されたフィードバックを提供すれば、ユーザの活動競争への参加が増加し、デバイスの操作性が向上し、(例えば、ユーザが適切な入力を提供することを助け、デバイスとの動作/対話時にユーザの間違いを低減することによって)ユーザとデバイスのインタフェースがより効率的になり、これによって、ユーザがデバイスをより迅速かつ効率的に使用できるようになることにより、更に、電力使用が低減し、デバイスのバッテリ寿命が改善される。 In some embodiments, the captured media representation is displayed in a first location on the display before stopping the display of the first portion of the representation. In some embodiments, stopping the display of at least the first portion of the captured media representation while maintaining the display of the camera user interface is a display device from a first location on the display. It further comprises displaying an animation that moves (eg, slides) the representation of the captured media towards a second location on the display that corresponds to the edge of the camera (eg, the animation is the edge of the camera user interface). Indicates an expression that slides toward the part). If you stop displaying at least the first part of the captured media representation while maintaining the display of the camera user interface, you can from the first location on the display on the display corresponding to the edge of the display device. By displaying an animation that moves the representation of the captured media towards a second location, it provides the user with visual feedback that at least the first portion of the representation has been removed from the display. Providing improved feedback will increase user participation in competition and improve device usability (eg, help users provide proper input and interact with / interact with the device). By reducing user error, the interface between the user and the device becomes more efficient, which allows the user to use the device faster and more efficiently, further reducing power usage. Improves device battery life.

いくつかの実施形態では、キャプチャされたメディアの表現は、ディスプレイ上の第3の場所に表示される。いくつかの実施形態では、キャプチャされたメディアの第2の表現が表示されている間に、電子デバイス(例えば、600)は、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの第2の表現の少なくとも一部分の表示を停止する要求に対応するユーザ入力(例えば、表示デバイスの縁部に向かうスワイプジェスチャ)を検出する。いくつかの実施形態では、第2の表現の少なくとも一部分の表示を停止する要求を検出したことに応答して、カメラユーザインタフェースの表示を維持している間に、電子デバイス(例えば、600)は、キャプチャされたメディアの第2の表現の少なくとも一部分の表示を停止する。 In some embodiments, the captured media representation is displayed in a third location on the display. In some embodiments, the captured media is displayed while the electronic device (eg, 600) maintains the display of the camera user interface while the second representation of the captured media is displayed. Detects user input (eg, a swipe gesture towards the edge of the display device) corresponding to a request to stop displaying at least a portion of the second representation of. In some embodiments, the electronic device (eg, 600) maintains the display of the camera user interface in response to detecting a request to stop displaying at least a portion of the second representation. , Stop displaying at least a portion of the second representation of the captured media.

いくつかの実施形態では、表現の第1の部分の表示を停止した後に、電子デバイス(例えば、600)は、表示デバイスの縁部に対応するディスプレイ上の第4の場所から、ディスプレイ上の第4の場所とは異なる第5の場所への第2の接触の移動に対応するユーザ入力(例えば、ディスプレイの縁部への/からのスワイプ)(例えば、表現(又はプレビュー)を表示(又は再表示)する要求に対応するユーザ入力)を受信する(1316)。いくつかの実施形態では、表示デバイスの縁部に対応する表示デバイス上の第4の場所から、表示デバイス上の第5の場所への接触の移動に対応するユーザ入力を受信したことに応答して、電子デバイス(例えば、600)は、表現の第1の部分を再表示する(1318)。表示デバイスの縁部に対応するディスプレイ上の第4の場所から、ディスプレイ上の第5の場所への接触の移動に対応するユーザ入力を受信することに応答して、表現の第1の部分を再表示することにより、ユーザが、電子デバイスに迅速かつ容易に表現の第1の部分を再表示させることを可能にする。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, after stopping the display of the first portion of the representation, the electronic device (eg, 600) is placed on the display from a fourth location on the display corresponding to the edge of the display device. Display (or re-view) user input (eg, swipe from / to the edge of the display) (eg, representation (or preview)) corresponding to the movement of the second contact to a fifth location that is different from location 4. The user input) corresponding to the request to be displayed) is received (1316). In some embodiments, it responds to receiving user input corresponding to the movement of contact from a fourth location on the display device corresponding to the edge of the display device to a fifth location on the display device. The electronic device (eg, 600) then redisplays the first part of the representation (1318). The first part of the representation in response to receiving user input corresponding to the movement of the contact from the fourth location on the display corresponding to the edge of the display device to the fifth location on the display. Redisplay allows the user to quickly and easily redisplay the first part of the representation. By providing additional control options without cluttering the UI with the additional controllers displayed, the user-device interface is enhanced (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.

いくつかの実施形態では、カメラユーザインタフェースが表示されていない間(例えば、カメラユーザインタフェースを破棄した後)に、電子デバイス(例えば、600)は、カメラユーザインタフェースを再表示する要求を受信する(1320)。いくつかの実施形態では、カメラユーザインタフェースを再表示する要求を受信したことに応答して、電子デバイス(例えば、600)は、キャプチャされたメディアの第2の表現を含む(例えば、自動的に含む)、カメラユーザインタフェースの第2のインスタンスを表示する(例えば、自動的に表示する)(1322)。いくつかの実施形態では、キャプチャされたメディアの第2の表現は、ディスプレイの縁部からUI上に平行移動する表現のアニメーション化されたシーケンスにより、表示される。 In some embodiments, the electronic device (eg, 600) receives a request to redisplay the camera user interface while the camera user interface is not visible (eg, after destroying the camera user interface) (eg, after destroying the camera user interface). 1320). In some embodiments, in response to receiving a request to redisplay the camera user interface, the electronic device (eg, 600) comprises a second representation of the captured media (eg, automatically). (Including), display a second instance of the camera user interface (eg, display automatically) (1322). In some embodiments, the second representation of the captured media is displayed by an animated sequence of translations that translate from the edges of the display onto the UI.

方法1300に関して上述された処理(例えば、図13A〜図13B)の詳細はまた、上記及び以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1500、1700、1900、2000、2100、2300、2500、2700、2800、3000、3200、3400、3600、及び3800は、方法1300を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。 It should be noted that the details of the processes described above for Method 1300 (eg, FIGS. 13A-13B) are also applicable to the methods described above and below in a similar manner. For example, methods 700, 900, 1100, 1500, 1700, 1900, 2000, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3400, 3600, and 3800 are various described above with reference to Method 1300. Optionally include one or more of the properties of the method. For the sake of brevity, these details will not be repeated below.

図14A〜図14Uは、いくつかの実施形態による電子デバイスを使用してメディアアイテムを修正するための例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図15A〜図15Cにおける処理を含む、以下で説明される処理を例示するために使用される。 14A-14U show exemplary user interfaces for modifying media items using electronic devices according to some embodiments. The user interfaces in those figures are used to illustrate the processes described below, including the processes in FIGS. 15A-15C.

図14A〜図14Dは、異なるアスペクト比を使用してメディアをキャプチャするようにデバイス600が構成される処理を示す。 14A-14D show the process by which the device 600 is configured to capture media using different aspect ratios.

図14Aに示すように、デバイス600は、1つ以上のカメラの視野(field-of-review)の表現であるライブプレビュー630を表示する。ライブプレビュー630は、視覚部分1404及び暗色部分1406を含む。視覚境界部608は、視覚部分1404と暗色部分1406との間にあり、デバイス600上に視覚的に表示される。視覚境界部608は、視覚境界部608の角部に既定の入力場所1410A〜1410Dを含む。視覚部分1404は、メディアをキャプチャする要求に応答して、ユーザにキャプチャされ、表示されるメディアの視覚インジケーションである。換言すれば、視覚部分1404は、メディアがキャプチャされ、表現されたときに、典型的に表示されるメディアの表現の部分の視覚インジケーションである。暗色部分1406は、メディアがキャプチャされ、表現された後に、典型的に表示されないメディアの部分の視覚インジケーションである。視覚部分1404は、暗色部分1406と視覚的に区別される。具体的には、視覚部分1404は、陰影が付いていないが、暗色部分1406は、陰影が付いている。更には、デバイス600は、ズームアフォーダンス622を表示する。 As shown in FIG. 14A, the device 600 displays a live preview 630, which is a representation of the field-of-review of one or more cameras. The live preview 630 includes a visual portion 1404 and a dark colored portion 1406. The visual boundary portion 608 is located between the visual portion 1404 and the dark colored portion 1406 and is visually displayed on the device 600. The visual boundary portion 608 includes default input locations 1410A to 1410D at the corners of the visual boundary portion 608. Visual portion 1404 is a visual indication of the media captured and displayed by the user in response to a request to capture the media. In other words, visual portion 1404 is a visual indication of the representational portion of the media that is typically displayed when the media is captured and represented. The dark portion 1406 is a visual indication of a portion of the media that is typically not displayed after the media has been captured and represented. The visual portion 1404 is visually distinguished from the dark portion 1406. Specifically, the visual portion 1404 is not shaded, but the dark portion 1406 is shaded. Further, the device 600 displays a zoom affordance 622.

図14A〜図14Dは、全体入力1495Aの様々な部分を示す。全体入力1495Aは、視覚部分1404に対応するアスペクト比を、4×3のアスペクト比1400(例えば、視覚部分1404に対応する4:3アスペクト比)から新しいアスペクト比へ変更する。全体入力1495Aは、入力部分1495A1及び入力部分1495A2を含む。入力の静止構成要素に対応する入力部分1495A1は、全体入力1495Aの第1の部分であり、入力の移動構成要素に対応する入力部分1495A2は、全体入力1495Aの第2の部分である。図14Aに示すように、4×3のアスペクト比1400でメディアをキャプチャするようにデバイス600が構成されている間に、デバイスは、視覚境界部608の右上の角に対応する場所1410Aでの入力部分1495A1を検出する。 14A-14D show different parts of the overall input 1495A. The overall input 1495A changes the aspect ratio corresponding to the visual portion 1404 from a 4 × 3 aspect ratio 1400 (for example, a 4: 3 aspect ratio corresponding to the visual portion 1404) to a new aspect ratio. The total input 1495A includes an input portion 1495A1 and an input portion 1495A2. The input portion 1495A1 corresponding to the static component of the input is the first portion of the total input 1495A, and the input portion 1495A2 corresponding to the moving component of the input is the second portion of the total input 1495A. As shown in FIG. 14A, while the device 600 is configured to capture media with a 4x3 aspect ratio of 1400, the device inputs at location 1410A corresponding to the upper right corner of the visual boundary 608. Part 1495A1 is detected.

図14Bでは、デバイス600は、入力部分1495A1が所定の期間(例えば、ゼロでない時間長、0.25秒、0.5秒)にわたって場所1410Aで維持されていると判定している。図14Bに示すように、この判定に従って、デバイス600は、視覚境界部608によって囲まれたエリアを収縮する。いくつかの実施形態では、視覚境界部608によって囲まれたエリアを収縮することにより、視覚境界部を(例えば、入力の更なる移動を使用して)現在は修正することができるというインジケーションを提供する。視覚境界部608によって囲まれたエリアを低減することにより、視覚部分1404のエリアが低減し、暗色部分1406のエリアが増加する。いくつかの実施形態では、デバイス600は、視覚境界部608が収縮し、視覚境界部608が空いているエリアに暗色部分1406が拡張する、アニメーションを表示する。視覚境界部608によって囲まれたエリアを収縮することに加えて、デバイス600は、触知出力1412Aを生成し、ズームアフォーダンス622表示を停止する。入力部分1495A1を検出した後に、デバイス600は、場所1410Aから認識して(aware from)、下向き方向に動く全体入力1495Aの入力部分1495A2を検出する。 In FIG. 14B, device 600 determines that input portion 1495A1 is maintained at location 1410A for a predetermined period of time (eg, non-zero time length, 0.25 seconds, 0.5 seconds). As shown in FIG. 14B, according to this determination, the device 600 contracts the area surrounded by the visual boundary 608. In some embodiments, the visual boundary can now be modified (eg, using further movement of the input) by shrinking the area enclosed by the visual boundary 608. offer. By reducing the area surrounded by the visual boundary portion 608, the area of the visual portion 1404 is reduced and the area of the dark colored portion 1406 is increased. In some embodiments, the device 600 displays an animation in which the visual boundary 608 contracts and the dark portion 1406 expands into an area where the visual boundary 608 is vacant. In addition to contracting the area enclosed by the visual boundary 608, the device 600 produces a tactile output 1412A and stops the zoom affordance 622 display. After detecting the input portion 1495A1, the device 600 recognizes from the location 1410A (aware from) and detects the input portion 1495A2 of the overall input 1495A moving downward.

図14Cに示すように、入力部分1495A2を検出したことに応答して、デバイス600は、入力部分1495A2の特性(例えば、大きさ及び/又は方向)に基づいて、視覚境界部608をその元の位置から新しい位置に移動又は平行移動させる。デバイス600は、新たに視覚境界部608を表示する。視覚境界部608を新しい位置で表示している間に、デバイス600は、全体入力1495Aのリフトオフを検出する。 As shown in FIG. 14C, in response to detecting the input portion 1495A2, the device 600 sets the visual boundary portion 608 to its original, based on the characteristics (eg, size and / or orientation) of the input portion 1495A2. Move or translate from position to new position. The device 600 newly displays the visual boundary portion 608. While displaying the visual boundary 608 at the new position, the device 600 detects a lift-off of the overall input 1495A.

図14Dに示すように、入力1495Aのリフトオフを検出したことに応答して、デバイス600は、視覚境界部608を拡張して、視覚境界部608のサイズを正方形のアスペクト比1416(例えば、視覚部分1404に対応する正方形のアスペクト比)に増大させる。正方形のアスペクト比1416は、所定のアスペクト比である。デバイス600は、入力部分1495A2が所定の正方形のアスペクト比に対して所定の近接範囲内である最終位置を有する視覚境界部608をもたらしたと判定したので、デバイス600は、視覚境界部を、正方形のアスペクト比1416にスナップさせる。全体入力1495Aのリフトオフを検出したことに応答して、デバイス600はまた、触知出力1412Bを生成し、ズームアフォーダンス622を再表示する。更には、デバイス600は、正方形のアスペクト比1416のメディアをキャプチャするようにデバイス600が構成されていることを示す、アスペクト比状態インジケータ1420を表示する。 As shown in FIG. 14D, in response to detecting a lift-off of input 1495A, the device 600 extends the visual boundary 608 to make the size of the visual boundary 608 a square aspect ratio 1416 (eg, the visual portion). The aspect ratio of the square corresponding to 1404) is increased. The square aspect ratio 1416 is a predetermined aspect ratio. Since the device 600 has determined that the input portion 1495A2 has resulted in a visual boundary 608 having a final position within a predetermined proximity to a predetermined square aspect ratio, the device 600 has a square visual boundary. Snap to aspect ratio 1416. In response to detecting a lift-off of the global input 1495A, the device 600 also generates a tactile output 1412B and redisplays the zoom affordance 622. Further, the device 600 displays an aspect ratio status indicator 1420 indicating that the device 600 is configured to capture media with a square aspect ratio of 1416.

いくつかの実施形態では、所定の正方形のアスペクト比(又は任意の他の所定のアスペクト比)に対して所定の近接範囲内である最終位置を有さない入力部分1495A2に従って、視覚境界部608は、入力部分1495A2の大きさ及び方向に基づいて、所定のアスペクト比ではなく表示される。このようにして、ユーザは、カスタムアスペクト比を設定するか、又は所定のアスペクト比を容易に選択することができる。いくつかの実施形態では、デバイス600は、拡張する視覚境界部608のアニメーションを表示する。いくつかの実施形態では、デバイス600は、所定のアスペクト比にスナッピングする視覚境界部608のアニメーションを表示する。いくつかの実施形態では、触知出力412Bは、視覚境界部608が所定のアスペクト比(例えば、アスペクト比1416)にスナップされるときに提供される。 In some embodiments, the visual boundary 608 follows an input portion 1495A2 that does not have a final position that is within a predetermined proximity range to a given square aspect ratio (or any other given aspect ratio). , Based on the size and orientation of the input portion 1495A2, it is displayed instead of a given aspect ratio. In this way, the user can set a custom aspect ratio or easily select a predetermined aspect ratio. In some embodiments, the device 600 displays an animation of the expanding visual boundary 608. In some embodiments, the device 600 displays an animation of the visual boundary 608 that snaps to a predetermined aspect ratio. In some embodiments, the tactile output 412B is provided when the visual boundary 608 is snapped to a predetermined aspect ratio (eg, aspect ratio 1416).

図14Eに示すように、デバイス600は、視覚境界部608の右下の角に対応する所定の場所1404B上の全体入力1495Bの入力部分1495B1を検出する。入力部分1495B1は、場所1404Bで少なくとも所定の時間にわたって維持される接触である。図14Fに示すように、入力部分1495B1を検出したことに応答して、デバイス600は、図14Bで論じられたものと同様の技術を実行する。明確にするために、デバイス600は、視覚境界部608によって囲まれたエリアを収縮し、触知出力1412Cを生成する。デバイス600はまた、全体入力1495Bの入力部分1495B2を検出し、この入力は、場所1404Bから離れて下向き方向に動くドラッグである。 As shown in FIG. 14E, the device 600 detects the input portion 1495B1 of the total input 1495B on the predetermined location 1404B corresponding to the lower right corner of the visual boundary 608. Input portion 1495B1 is a contact maintained at location 1404B for at least a predetermined time. As shown in FIG. 14F, in response to detecting input portion 1495B1, device 600 performs a technique similar to that discussed in FIG. 14B. For clarity, device 600 contracts the area enclosed by the visual boundary 608 to produce a tactile output 1412C. Device 600 also detects input portion 1495B2 of total input 1495B, which is a drag moving downward away from location 1404B.

図14Gに示すように、入力部分1495B2の移動を検出したことに応答して、デバイス600は、入力部分1495B2の特性(例えば、大きさ及び/又は方向)に基づいて、視覚境界部608をその元の位置から新しい位置に移動又は平行移動させる。視覚境界部608を新しい位置に移動させている間に、デバイス600は、視覚境界部608が4×3のアスペクト比1418にあることを検出する。入力1495Bのリフトオフを検出することなく、視覚境界部608が4×3のアスペクト比1418にあることを検出したことに応答して、デバイス600は、触知出力1412Dを発する。更には、デバイス600は、全体入力1495Bがリフトオフなしで依然として維持されているため、正方形のアスペクト比1416のメディアをキャプチャするようにデバイス600が構成されていることを示すアスペクト比状態インジケータ1420の表示を維持し、アスペクト比状態インジケータ1420を更新するのをやめて、アスペクト比1418(例えば、4:3)のメディアをキャプチャするようにデバイス600が構成されていることを示す。 As shown in FIG. 14G, in response to detecting the movement of the input portion 1495B2, the device 600 sets the visual boundary portion 608 based on the characteristics (eg, size and / or orientation) of the input portion 1495B2. Move or translate from the original position to the new position. While moving the visual boundary 608 to a new position, the device 600 detects that the visual boundary 608 is in a 4x3 aspect ratio of 1418. The device 600 emits a tactile output 1412D in response to detecting that the visual boundary 608 is in a 4x3 aspect ratio 1418 without detecting a lift-off of the input 1495B. Further, the device 600 displays an aspect ratio status indicator 1420 indicating that the device 600 is configured to capture media with a square aspect ratio 1416 because the overall input 1495B is still maintained without lift-off. Indicates that the device 600 is configured to capture media with an aspect ratio of 1418 (eg, 4: 3) by stopping updating the aspect ratio status indicator 1420.

図14Hに示すように、デバイス600は、入力部分1495B2を検出し続ける。視覚境界部608は、ここではアスペクト比1421であり、図14Gに示すその位置から新しい位置に移動した。視覚境界部608を新しい位置で表示している間に、デバイス600は、全体入力1495Bのリフトオフを検出する。 As shown in FIG. 14H, the device 600 continues to detect the input portion 1495B2. The visual boundary portion 608 has an aspect ratio of 1421 here, and has moved from that position shown in FIG. 14G to a new position. While displaying the visual boundary 608 at the new position, the device 600 detects a lift-off of the overall input 1495B.

図14Iに示すように、入力1495Bのリフトオフを検出したことに応答して、デバイス600は、1495Aのリフトオフの検出に対する応答に関連して、図14Dで論じられたものと同様の技術を実行する。明確にするために、図14Iに示すように、デバイス600は、視覚境界部608を所定の16×9のアスペクト比1422に拡張する。更には、デバイス600は、ズームアフォーダンス622を再表示し、アスペクト比状態インジケータ1418を更新して、16×9のアスペクト比1422(例えば、16:9)のメディアをキャプチャするようにデバイス600が構成されていることを示す。いくつかの実施形態では、デバイス600は、入力1495Bのリフトオフに応答して、触知出力を生成する。 As shown in FIG. 14I, in response to detecting the lift-off of input 1495B, the device 600 performs a technique similar to that discussed in FIG. 14D in relation to the response to the detection of lift-off of 1495A. .. For clarity, device 600 extends the visual boundary 608 to a predetermined 16x9 aspect ratio 1422, as shown in FIG. 14I. Further, the device 600 is configured to redisplay the zoom affordance 622, update the aspect ratio status indicator 1418, and capture media with a 16x9 aspect ratio of 1422 (eg, 16: 9). Indicates that it has been done. In some embodiments, device 600 produces a tactile output in response to lift-off of input 1495B.

図14Jに示すように、デバイス600は、視覚境界部608の角に対応する既定の入力場所1404B上の入力1495C(例えば、連続的な上向きスワイプジェスチャ)を検出する。デバイス600は、1495Cが所定の期間(例えば、図14Bに関して論じられたのと同じ所定の期間)にわたって既定の入力場所1404B上で維持されていないと判定する。 As shown in FIG. 14J, the device 600 detects an input 1495C (eg, a continuous upward swipe gesture) on the default input location 1404B corresponding to the corner of the visual boundary 608. The device 600 determines that the 1495C has not been maintained on the default input location 1404B for a predetermined period of time (eg, the same predetermined period as discussed with respect to FIG. 14B).

図14Kに示すように、入力1495Cに応答して、デバイス600は、上記図8A〜図8Bにおいてカメラ設定アフォーダンス802を表示するための上述された技術に従って、カメラ設定アフォーダンス624を表示する。しかしながら、入力1495Cが視覚境界部608の角部に対応する場所1404Bで静止接触を含まなかったため、デバイス600は、入力1495Cに応答して、視覚境界部608を調整しない。いくつかの実施形態では、カメラ設定アフォーダンス624及びカメラ設定アフォーダンス802は、同一である。カメラ設定アフォーダンス624を表示している間に、デバイス600は、アスペクト比コントロール1426上の入力1495Dを検出する。 As shown in FIG. 14K, in response to the input 1495C, the device 600 displays the camera setting affordance 624 according to the techniques described above for displaying the camera setting affordance 802 in FIGS. 8A-8B. However, the device 600 does not adjust the visual boundary 608 in response to the input 1495C because the input 1495C did not include rest contact at location 1404B corresponding to the corner of the visual boundary 608. In some embodiments, the camera setting affordance 624 and the camera setting affordance 802 are identical. While displaying the camera setting affordance 624, the device 600 detects input 1495D on the aspect ratio control 1426.

図14Lに示すように、入力1495Dを検出したことに応答して、デバイス600は、調整可能なアスペクト比コントロール1470を表示する。調整可能なアスペクト比コントロール1470は、アスペクト比オプション1470A〜1470Dを含む。図14Lに示すように、アスペクト比オプション1495Cは、太字化され、かつ選択され、これは、アスペクト比状態インジケータ1420によって示される状態と一致する。調整可能なアスペクト比コントロール1470を表示している間に、デバイス600は、アスペクト比オプション1470B上の入力1495Eを検出する。 As shown in FIG. 14L, in response to detecting input 1495D, device 600 displays an adjustable aspect ratio control 1470. The adjustable aspect ratio control 1470 includes aspect ratio options 1470A-1470D. As shown in FIG. 14L, the aspect ratio option 1495C is bolded and selected, which matches the state indicated by the aspect ratio state indicator 1420. While displaying the adjustable aspect ratio control 1470, the device 600 detects input 1495E on aspect ratio option 1470B.

図14Mに示すように、入力1495Eを検出したことに応答して、デバイス600は、視覚境界部1408及び視覚部分1410を16×9のアスペクト比から4×3のアスペクト比に更新する。図14Mでは、デバイス600は、入力1495Fを検出し、この入力は、ライブプレビュー630における下向きスワイプである。 As shown in FIG. 14M, in response to detecting the input 1495E, the device 600 updates the visual boundary 1408 and the visual portion 1410 from a 16x9 aspect ratio to a 4x3 aspect ratio. In FIG. 14M, device 600 detects input 1495F, which is a downward swipe in live preview 630.

14Nに示すように、入力1495Fを検出したことに応答して、デバイス600は、図8Q〜図8Rにおいて上述された技術に従って、カメラ設定アフォーダンス624の表示を停止する。図14Nでは、デバイス600は、入力1495Gを検出し、この入力は、視覚境界部608の右上の角に対応する既定の入力場所1410Aでのタップジェスチャである。 As shown in 14N, in response to detecting input 1495F, device 600 ceases to display the camera setting affordance 624 according to the techniques described above in FIGS. 8Q-8R. In FIG. 14N, device 600 detects input 1495G, which is a tap gesture at the default input location 1410A corresponding to the upper right corner of the visual boundary 608.

図14Oに示すように、入力1495Gを検出したことに応答して、デバイス600は、入力1495Gが所定の期間にわたって既定の入力場所1410Aで維持されなかったと判定する。入力1495Gが視覚境界部を調整する条件を満たさなかったため、デバイス600は、入力1495Gに応答して、視覚境界部608を調整しない。入力1495Gに応答して、デバイス600は、ライブプレビュー630を更新し、タップ入力1495Gの場所に基づいて、焦点及び露出設定を調整することにより画像キャプチャ設定を調整する。図14Oに示すように、視覚部分1404は、更新された焦点及び露出設定により、よりぼけて、かつ焦点から外れて見える。 As shown in FIG. 14O, in response to detecting input 1495G, device 600 determines that input 1495G was not maintained at the default input location 1410A for a predetermined period of time. The device 600 does not adjust the visual boundary 608 in response to the input 1495G because the input 1495G did not meet the condition for adjusting the visual boundary. In response to input 1495G, device 600 updates the live preview 630 and adjusts the image capture settings by adjusting the focus and exposure settings based on the location of tap input 1495G. As shown in FIG. 14O, visual portion 1404 appears more blurry and out of focus due to the updated focus and exposure settings.

図14Pでは、デバイス600は、ライブプレビュー630内の場所(例えば、視覚境界部608の角1410A〜1410Dのうちの1つではない場所)上の全体入力1495Hの入力部分1495H1を検出する。全体入力1495Hは、第1の接触、続いてリフトオフ、及び次いで第2の接触を含む。入力部分1495H1は、所定の期間よりも長く維持される(例えば、図14Bの入力部分1495A1と少なくとも同じ期間にわたって維持される)静止接触(例えば、全体入力1495Hの第1の接触)である。 In FIG. 14P, the device 600 detects the input portion 1495H1 of the total input 1495H on a location within the live preview 630 (eg, not one of the corners 1410A-1410D of the visual boundary 608). The total input 1495H includes a first contact, followed by a lift-off, and then a second contact. The input portion 1495H1 is a static contact (eg, the first contact of the total input 1495H) that is maintained longer than a predetermined period (eg, maintained for at least the same period as the input portion 1495A1 in FIG. 14B).

図14Qに示すように、入力部分1495H1を検出したことに応答して、デバイス600は、ライブプレビューを更新し、入力部分1495H1の場所での光値に基づいてキャプチャ設定を更新する、露出ロック機能をアクティブ化する。デバイス600はまた、露出設定マニピュレータ1428表示する。 As shown in FIG. 14Q, in response to detecting the input portion 1495H1, the device 600 updates the live preview and updates the capture settings based on the light value at the location of the input portion 1495H1. To activate. The device 600 also displays the exposure setting manipulator 1428.

図14Rでは、デバイス600は、全体入力1495Hの入力部分1495H2(例えば、全体入力1495Hの第2の接触)を検出し、この入力は、全体入力1495Hの第2の接触で行われるドラッグの移動である。図14Sに示すように、デバイス600は、入力部分1495H2の特性(例えば、大きさ及び/又は方向)に基づいて、露出設定マニピュレータ1428を新しい値に更新する。 In FIG. 14R, the device 600 detects an input portion 1495H2 of the total input 1495H (eg, a second contact of the total input 1495H), which input is the movement of the drag made in the second contact of the total input 1495H. be. As shown in FIG. 14S, the device 600 updates the exposure setting manipulator 1428 to a new value based on the characteristics (eg, size and / or orientation) of the input portion 1495H2.

図14Tに示すように、デバイス600は、露出設定マニピュレータ1428の表示を維持する。デバイス600はまた、入力1495Iを検出し、この入力は、既定の入力場所1410Aから開始する水平スワイプであり、この入力場所は、視覚境界部608の右上の角である。 As shown in FIG. 14T, the device 600 maintains the display of the exposure setting manipulator 1428. The device 600 also detects input 1495I, which is a horizontal swipe starting from the default input location 1410A, which is the upper right corner of the visual boundary 608.

図14Uに示すように、入力1495Iを検出したことに応答して、デバイス600は、図8D〜図8Hで論じられた同様の技術に従ってカメラモードを変更する。しかしながら、入力1495Iが視覚境界部608の角部に対応する既定の入力場所1410Aで所定の期間にわたって検出された静止接触構成要素を含まなかったため、デバイス600は、入力1495Iに応答して、視覚境界部608を調整しない。 As shown in FIG. 14U, in response to detecting input 1495I, device 600 changes camera mode according to similar techniques discussed in FIGS. 8D-8H. However, because the input 1495I did not include the static contact component detected over a predetermined period of time at the default input location 1410A corresponding to the corner of the visual boundary 608, the device 600 responded to the input 1495I by the visual boundary. Do not adjust unit 608.

図15A〜図15Cは、いくつかの実施形態による電子デバイスを使用してメディアアイテムを修正するための方法を示すフロー図である。方法1500は、表示デバイス及び1つ以上のカメラ(例えば、電子デバイスの異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を備えるデバイス(例えば、100、300、500、600)で行われる。方法1500のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 15A-15C are flow diagrams illustrating methods for modifying media items using electronic devices according to some embodiments. Method 1500 provides a display device and one or more cameras (eg, one or more cameras (eg, dual cameras, triple cameras, quad cameras, etc.) on different sides of an electronic device (eg, front camera, rear camera)). This is done on a device that includes (eg, 100, 300, 500, 600). Some actions of Method 1500 are optionally combined, some actions are arbitrarily modified in order, and some actions are optionally omitted.

後述するように、方法1500は、メディアアイテムを修正するための直感的な仕方を提供する。この方法は、メディアアイテムを修正する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアアイテムを修正することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, Method 1500 provides an intuitive way to modify media items. This method reduces the user's cognitive burden in modifying media items, thereby creating a more efficient human-machine interface. For battery-powered computing devices, it saves power and prolongs the time between battery charges by enabling users to modify media items faster and more efficiently.

電子デバイス(例えば、600)は、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現(例えば、630)を含むカメラディスプレイ領域(例えば、604)を含む(例えば、同時に表示する)、カメラユーザインタフェースを表示する(1502)。 The electronic device (eg, 600) is to display the camera user interface via a display device, the camera display area, wherein the camera user interface includes a representation of the field of view of one or more cameras (eg, 630). Display camera user interfaces (eg, display simultaneously), including (eg, 604) (1502).

いくつかの実施形態では、カメラユーザインタフェースは、第1のメディアキャプチャモードで動作するように電子デバイス(例えば、600)が構成されているインジケーションを更に含む。いくつかの実施形態では、カメラディスプレイ領域(例えば、604)上の第2の方向(例えば、垂直)への第4の接触の連続的移動を検出することを含む、第4の入力の検出に従い(例えば、第3の所定の閾値を上回る)(例えば、特性を調整するコントロールを表示する要求)(いくつかの実施形態では、特性を調整するコントロールを表示する要求は、カメラモードを切り替える要求のためのコンテンツの連続的な移動によって検出される方向とは異なる(例えば、反対の)方向への連続的な接触の移動によって検出される)、電子デバイス(例えば、600)は、メディアキャプチャ動作に関連付けられた特性(例えば、設定)を調整するコントロール(例えば、スライダ)を表示する。第2の方向への第4の接触の連続的な移動を検出することを含む、第4の入力の検出に従い、メディアキャプチャ動作に関連付けられた特性を調整するコントロールを表示することにより、ユーザが、コントロールに迅速かつ容易にアクセスすることを可能にする。追加表示されたコントロールによりユーザインタフェースを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性が改善され、ユーザ−デバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。いくつかの実施形態では、メディアキャプチャ動作に関連付けられた特性を調整するコントロールを表示している間に、電子デバイス(例えば、600)は、特性(例えば、光量、持続時間など)の第1の値の第1のインジケーション(例えば、数値、スライダトラック上のスライダノブ(例えば、バー))を表示する。いくつかの実施形態では、メディアキャプチャ動作(例えば、光量、持続時間など)に関連付けられた特性の第2の値に制御特性(例えば、光量、持続時間など)を調整するための要求(コントロール上のスライダコントロールを調整可能なコントロール上のインジケーション(例えば、値)にドラッグすること)を受信したことに応答して、電子デバイス(例えば、600)は、特性の第1の値の第1のインジケーションの表示を、特性の第2の値の第2のインジケーションの表示に置き換える。いくつかの実施形態では、特性の値は、設定時に表示される。いくつかの実施形態では、特性の値は、表示されない。 In some embodiments, the camera user interface further comprises an indication in which the electronic device (eg, 600) is configured to operate in the first media capture mode. In some embodiments, according to the detection of a fourth input, including detecting the continuous movement of a fourth contact in a second direction (eg, vertical) on the camera display area (eg, 604). (For example, above a third predetermined threshold) (For example, a request to display a control for adjusting a characteristic) (In some embodiments, a request for displaying a control for adjusting a characteristic is a request for switching a camera mode. An electronic device (eg, 600) that is detected by a continuous movement of contact in a direction different from (eg, opposite) the direction detected by the continuous movement of the content for the media capture operation. Display controls (eg, sliders) that adjust associated characteristics (eg, settings). By displaying controls that adjust the characteristics associated with the media capture operation according to the detection of the fourth input, including detecting the continuous movement of the fourth contact in the second direction. Allows quick and easy access to controls. By providing additional control options without cluttering the user interface with the additionally displayed controls, the usability of the device is improved and the user-device interface is suitable (eg, when manipulating / interacting with the device). Powering the device by assisting the user in providing input and reducing user error) and by allowing the user to use the device more quickly and efficiently. Reduce usage and improve battery life. In some embodiments, the electronic device (eg, 600) is the first of the characteristics (eg, light intensity, duration, etc.) while displaying the controls that adjust the characteristics associated with the media capture operation. Display the first indication of the value (eg, a number, a slider knob (eg, a bar) on the slider track). In some embodiments, a requirement (on control) for adjusting a control characteristic (eg, light intensity, duration, etc.) to a second value of the characteristic associated with a media capture operation (eg, light intensity, duration, etc.). In response to receiving an indication (eg, value) on an adjustable control, the electronic device (eg, 600) has a first value of the first value of the characteristic. Replace the display of the indication with the display of the second indication of the second value of the characteristic. In some embodiments, the value of the property is displayed at the time of setting. In some embodiments, the value of the property is not displayed.

メディアをキャプチャする要求を受信したことに応答して(例えば、物理カメラシャッターボタンのアクティブ化又は仮想カメラシャッターボタンのアクティブ化に応答して)、第1のアスペクト比(例えば、1400)でメディアをキャプチャするように電子デバイス(例えば、600)が構成されている間に、電子デバイスは、1つ以上のカメラの視野の表現上のそれぞれの場所(例えば、カメラディスプレイ領域の角部に対応する場所)に第1の接触を含む第1の入力(例えば、タッチアンドホールド)を検出する(1504)。 In response to receiving a request to capture the media (eg, in response to activation of the physical camera shutter button or activation of the virtual camera shutter button), the media in the first aspect ratio (eg, 1400). While the electronic device (eg, 600) is configured to capture, the electronic device is located at each location on the representation of the field of view of one or more cameras (eg, a location corresponding to a corner of the camera display area). ) Detects a first input (eg, touch and hold) that includes a first contact (1504).

第1の入力を検出したことに応答して(1506)、1組のアスペクト比変化基準が満たされているという判定に従って、電子デバイス(例えば、600)は、メディアをキャプチャする要求に応答して(例えば、物理カメラシャッターボタンのアクティブ化又は仮想カメラシャッターボタンのアクティブ化に応答して)、第1のアスペクト比とは異なる第2のアスペクト比(例えば、1416)でメディアをキャプチャするように電子デバイスを構成する(1508)。1組のアスペクト比変化基準は、少なくとも閾値時間量にわたってメディアをキャプチャする要求(例えば、物理カメラシャッターボタンのアクティブ化又は仮想カメラシャッターボタンのアクティブ化)に応答してキャプチャされる、メディアの境界部の少なくとも一部分を示すカメラディスプレイ領域の既定の部分(例えば、角部)に対応する第1の場所で第1の接触を維持することを第1の入力が含むと満たされる基準を含み、続いて、第1の場所とは異なる第2の場所への第1の接触の移動を検出する(1510)。メディアをキャプチャする要求に応答して、1組のアスペクト比変化基準が満たされているという判定に従って、第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように電子デバイスを構成することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされたときに動作を行い、これにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In response to detecting the first input (1506), the electronic device (eg, 600) responds to the request to capture the media according to the determination that a set of aspect ratio change criteria is met. Electronic to capture media in a second aspect ratio (eg 1416) that is different from the first aspect ratio (eg, in response to activation of the physical camera shutter button or activation of the virtual camera shutter button). Configure the device (1508). A set of aspect ratio change criteria is the boundary of the media that is captured in response to a request to capture the media for at least a threshold amount of time (eg, activation of the physical camera shutter button or activation of the virtual camera shutter button). Includes criteria that are met when the first input includes maintaining the first contact at the first location corresponding to a predetermined portion (eg, corner) of the camera display area indicating at least a portion of the camera display area, followed by , Detect the movement of the first contact to a second location that is different from the first location (1510). In response to a request to capture media, the electronic device is configured to capture media with a second aspect ratio that is different from the first aspect ratio, according to the determination that a set of aspect ratio change criteria is met. By doing so, the electronic device operates when a set of conditions is met without requiring further user input, which enhances the usability of the device and provides a user-device interface (eg, for example). More efficient (by assisting the user in providing proper input when manipulating / interacting with the device and reducing user error), plus the user using the device faster and more efficiently By allowing it, the power usage of the device is reduced and the battery life is improved.

いくつかの実施形態では、第1の入力の少なくとも第1の部分を検出したことに応答して、第1の入力の第1の部分が、少なくとも閾値時間量にわたって第1の場所で第1の接触を維持することを含むという判定に従って、電子デバイス(例えば、600)は、第1の触知(例えば、触覚)出力を提供する(1512)。第1の入力の第1の部分が、少なくとも閾値時間量にわたって第1の場所で第1の接触を維持することを含むという判定に従って、第1の触知出力を提供することは、第1の接触が少なくとも閾値時間量にわたって第1の場所で維持されているというフィードバックをユーザに提供する。改善されたフィードバックを提供すれば、ユーザの活動競争への参加が増加し、デバイスの操作性が向上し、(例えば、ユーザが適切な入力を提供することを助け、デバイスとの動作/対話時にユーザの間違いを低減することによって)ユーザとデバイスのインタフェースがより効率的になり、これによって、ユーザがデバイスをより迅速かつ効率的に使用できるようになることにより、更に、電力使用が低減し、デバイスのバッテリ寿命が改善される。 In some embodiments, in response to detecting at least the first portion of the first input, the first portion of the first input is first in place at a first location for at least a threshold amount of time. According to the determination that it involves maintaining contact, the electronic device (eg, 600) provides a first tactile (eg, tactile) output (1512). Providing a first tactile output according to the determination that the first portion of the first input comprises maintaining the first contact in the first place for at least a threshold time amount is the first. It provides the user with feedback that the contact has been maintained in the first place for at least a threshold amount of time. Providing improved feedback will increase user participation in competition and improve device usability (eg, help users provide proper input and interact with / interact with the device). By reducing user error, the interface between the user and the device becomes more efficient, which allows the user to use the device faster and more efficiently, further reducing power usage. Improves device battery life.

いくつかの実施形態では、第1の入力の少なくとも第2の部分を検出したことに応答して、第1の入力の第2の部分が、少なくとも閾値時間量にわたって第1の場所で第1の接触を維持することを含むという判定に従って、電子デバイス(例えば、600)は、メディアをキャプチャする要求に応答してキャプチャされる、メディアの境界部(例えば、1410)(例えば、ボックス)の視覚インジケーションを表示する(1514)。第1の入力の第2の部分が、少なくとも閾値時間量にわたって第1の場所で第1の接触を維持することを含むという判定に従って、キャプチャされる、メディアの境界部の視覚インジケーションを表示することにより、メディアの部分がキャプチャされるという視覚的フィードバックをユーザに提供する。ユーザに改善された視覚的フィードバックを提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in response to detecting at least the second portion of the first input, the second portion of the first input is first at the first location for at least a threshold amount of time. According to the determination that it involves maintaining contact, the electronic device (eg, 600) is captured in response to a request to capture the media, a visual indicator of the media boundary (eg, 1410) (eg, box). Display (1514). Display visual indications of media boundaries captured according to the determination that the second portion of the first input involves maintaining the first contact at the first location for at least a threshold amount of time. This provides the user with visual feedback that a portion of the media is captured. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

いくつかの実施形態では、視覚インジケーション(例えば、1410)が表示されている間に、及び第1の入力の少なくとも第3の部分を検出したことに応答して、第1の入力の第3の部分が第1の接触の移動を含むという判定に従って、第1の接触が閾値時間量にわたって第1の場所で維持された後に、第1の接触の移動は第1の大きさ及び第1の方向を有し、電子デバイス(例えば、600)は、第1の大きさ及び第1の方向に基づいて視覚インジケーションの外観を修正する(例えば、視覚インジケーションを調整して、キャプチャされるメディアの境界部への変化を示す)(1516)。 In some embodiments, while the visual indication (eg, 1410) is displayed, and in response to detecting at least a third portion of the first input, a third of the first input. The movement of the first contact is of the first magnitude and the first after the first contact is maintained in the first place for a threshold amount of time according to the determination that the portion of the first contains the movement of the first contact. The media having orientation, the electronic device (eg, 600) modifies the appearance of the visual indication based on the first magnitude and the first orientation (eg, adjusting the visual indication to capture the media). (Shows the change to the boundary) (1516).

いくつかの実施形態では、第1の入力の少なくとも第1の部分を検出したことに応答して、第1の入力の第1の部分が、少なくとも閾値時間量にわたって第1の場所で第1の接触を維持することを含むという判定に従って、電子デバイス(例えば、600)は、視覚インジケーションによって示される1つ以上のカメラの視野の表現の一部分のサイズを縮小することを含むアニメーション(例えば、押し戻されている(又は収縮している)境界部のアニメーション)を表示する(1518)。第1の入力の第1の部分が、少なくとも閾値時間量にわたって第1の場所で第1の接触を維持することを含むという判定に従って、視覚インジケーションによって示される1つ以上のカメラの視野の表現の一部分のサイズを縮小することを含むアニメーションを表示することにより、表現の一部分のサイズが縮小され、一方、ユーザが、サイズを迅速かつ容易に低減することもできるという視覚的フィードバックをユーザに提供する。表示される追加コントローラによってUIを雑然とさせることなく、改善された視覚的フィードバック及び追加の制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, in response to detecting at least the first portion of the first input, the first portion of the first input is first at the first location for at least a threshold amount of time. According to the determination that it involves maintaining contact, the electronic device (eg, 600) is an animation (eg, pushed back) that involves reducing the size of a portion of the field of view representation of one or more cameras indicated by the visual indication. (Animation of the boundary (or contracting)) is displayed (1518). Representation of the field of view of one or more cameras as indicated by visual indication, according to the determination that the first portion of the first input comprises maintaining the first contact at the first location for at least a threshold amount of time. By displaying an animation that involves reducing the size of a portion of the representation, the size of the portion of the representation is reduced, while providing the user with visual feedback that the size can also be reduced quickly and easily. do. By providing improved visual feedback and additional control options without cluttering the UI with additional controllers displayed, device usability is enhanced and the user-device interface (eg, manipulating the device) is enhanced. (By assisting the user in providing proper input when interacting with the device and reducing user errors), and in addition, allowing the user to use the device faster and more efficiently. By doing so, the power usage of the device is reduced and the battery life is improved.

いくつかの実施形態では、視覚インジケーションが表示されている間に、及び第1の入力の少なくとも第4の部分を検出したことに応答して、第1の入力の第4の部分が、第1の接触のリフトオフを含むという判定に従って、電子デバイス(例えば、600)は、視覚インジケーションによって示される1つ以上のカメラの視野の表現の一部分のサイズを増大する(例えば、第1の境界部ボックスを第1の比率(例えば、拡張率)で拡張する)ことを含むアニメーションを表示する(1520)。 In some embodiments, the fourth portion of the first input is the fourth while the visual indication is displayed and in response to detecting at least the fourth portion of the first input. According to the determination that the lift-off of one contact is included, the electronic device (eg, 600) increases the size of a portion of the field of view representation of one or more cameras indicated by the visual indication (eg, the first boundary). Display an animation that includes expanding the box with a first ratio (eg, expansion ratio) (1520).

いくつかの実施形態では、1つ以上のカメラの視野の表現の第1の部分は、メディアの境界部の視覚インジケーション(例えば、1410)によって選択されたものとして示され(例えば、境界部(例えば、ボックス)内に取り囲まれ)、1つ以上のカメラの視野の表現の第2の部分は、メディアの境界部の視覚インジケーションによって選択されたものとして示されていない(例えば、境界部(例えば、ボックス)の外側)。第1の部分がメディアの境界部の視覚インジケーションによって選択されたものとして示され、第2の部分がメディアの境界部の視覚インジケーションによって選択されたものとして示されていないことにより、ユーザが、選択されているかされていない表現の部分を迅速かつ容易に視覚的に区別することを可能にする。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。いくつかの実施形態では、第2の部分は、第1の部分から視覚的に区別される(例えば、暗色又は陰影の付いた外観を有する)(例えば、1つ以上のカメラの視野の第2の部分上に半透明のオーバーレイを有する)。 In some embodiments, the first portion of the field of view representation of one or more cameras is shown as selected by a visual indication of the boundary of the media (eg, 1410) (eg, the boundary (eg, 1410). The second part of the field of view representation of one or more cameras (enclosed in a box, for example) is not shown as selected by visual indication of the boundary of the media (eg, the boundary (eg, the boundary). For example, outside the box). The first part is shown as selected by the visual indication of the media border, and the second part is not shown as selected by the visual indication of the media border, so that the user Allows a quick and easy visual distinction between selected and unselected parts of the expression. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve. In some embodiments, the second portion is visually distinguished from the first portion (eg, has a dark or shaded appearance) (eg, a second portion of the field of view of one or more cameras). Has a translucent overlay on the part of).

いくつかの実施形態では、第2のアスペクト比(例えば、1416)でメディアをキャプチャするように電子デバイス(例えば、600)を構成することは、第1の移動範囲(例えば、全てが所定のアスペクト比に対応するベクトルの範囲)内にある移動(例えば、大きさ及び方向)の第1の大きさ及び/又は方向を有する第2の場所への第1の接触の移動に従って、所定のアスペクト比(例えば、4:3、正方形、16:9)でメディアをキャプチャするように電子デバイスを構成することを含む。いくつかの実施形態では、第2のアスペクト比でメディアをキャプチャするように電子デバイス(例えば、600)を構成することは、第1の移動範囲(例えば、全てが所定のアスペクト比に対応するベクトルの範囲)内にない移動(例えば、大きさ及び方向)の第2の大きさ及び/又は方向を有する第2の場所への第1の接触の移動に従って、所定でなく(例えば、動的アスペクト比)、かつ移動の大きさ及び/又は方向に基づく(例えば、移動の大きさ及び/又は方向に基づく)アスペクト比でメディアをキャプチャするように電子デバイスを構成することを含む。 In some embodiments, configuring an electronic device (eg, 600) to capture media in a second aspect ratio (eg, 1416) is a first range of movement (eg, all in a predetermined aspect). A predetermined aspect ratio according to the movement of the first contact to a second place having a first magnitude and / or direction of movement (eg, magnitude and direction) within (a range of vectors corresponding to the ratio). Includes configuring an electronic device to capture media in (eg, 4: 3, square, 16: 9). In some embodiments, configuring an electronic device (eg, 600) to capture media in a second aspect ratio is a vector in which the first range of movement (eg, all correspond to a given aspect ratio). According to the movement of the first contact to a second place having a second magnitude and / or direction of movement (eg, magnitude and direction) that is not within (eg, dynamic aspect). Ratio) and includes configuring the electronic device to capture the media in an aspect ratio based on the magnitude and / or direction of the movement (eg, based on the size and / or direction of the movement).

いくつかの実施形態では、所定のアスペクト比でメディアをキャプチャするように電子デバイス(例えば、600)を構成することは、1つ以上の触知出力デバイスを介して、第2の触知(例えば、触覚)出力を生成することを含む。所定のアスペクト比でメディアをキャプチャするように電子デバイスを構成するときに、第2の触知出力を生成することにより、アスペクト比設定のフィードバックをユーザに提供する。改良されたフィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, configuring an electronic device (eg, 600) to capture media at a predetermined aspect ratio is a second tactile (eg, eg) tactile output device via one or more tactile output devices. Includes producing (tactile) output. When the electronic device is configured to capture media with a predetermined aspect ratio, it provides the user with feedback on the aspect ratio setting by generating a second tactile output. By providing improved feedback to the user, it improves the usability of the device (eg, assists the user in providing appropriate input when manipulating / interacting with the device, and user error. Reduces power usage and improves device battery life by making the user-device interface more efficient (by reducing) and, in addition, allowing users to use the device faster and more efficiently. do.

いくつかの実施形態では、第1の入力を検出する前に、電子デバイス(例えば、600)は、第1のカメラモードを使用してメディアをキャプチャするように構成される。いくつかの実施形態では、各カメラモード(例えば、ビデオ、写真(phot)/静止(still)、ポートレート、スローモーション、パノラマモード)は、カメラ(例えば、カメラセンサ)がメディアをキャプチャするように動作している(キャプチャ後に自動的に行われる後処理を含む)モード(例えば、ポートレートモード)の複数の値(例えば、各設定の光のレベル)を有する複数の設定(例えば、ポートレートカメラモードについて:スタジオ照明設定、輪郭照明設定、舞台照明設定)を有する。このようにして、例えば、カメラモードは、メディアをキャプチャするときにカメラがどのように動作するかに影響を及ぼさないモードとは異なるか、又は複数の設定(例えば、複数の値(例えば、非アクティブ、アクティブ、自動)を有する1つの設定を有するフラッシュモード)を含まない。いくつかの実施形態では、カメラモードにより、ユーザは、異なるタイプのメディア(例えば、写真又はビデオ)をキャプチャすることを可能にし、各モードの設定を最適化して、特定の特性(例えば、形状(例えば、正方形、矩形)、速さ(例えば、スローモーション、時間経過)、オーディオ、ビデオ)を有する特定のモードに対応する特定のタイプのメディアを(例えば、後処理を介して)キャプチャすることができる。例えば、静止写真モードで動作するように電子デバイス(例えば、600)が構成されている場合、電子デバイスの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定、1つ以上のフィルタ設定)を有する第1のタイプ(例えば、矩形の写真)のメディアをキャプチャし、正方形モードで動作するように電子デバイスが構成されている場合、電子デバイスの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定及び1つ以上のフィルタ)を有する第2のタイプ(例えば、正方形の写真)のメディアをキャプチャし、スローモーションモードで動作するように電子デバイスが構成されている場合、電子デバイスの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定、秒コマ数キャプチャ速さ)を有する第3のタイプ(例えば、スローモーションビデオ)のメディアのメディアをキャプチャし、ポートレートモードで動作するように電子デバイスが構成されている場合、電子デバイスの1つ以上のカメラは、特定の設定(例えば、特定のタイプの光(例えば、舞台光、スタジオ光、輪郭光)の量、f値、ぼかし)を有する第5のタイプ(例えば、ポートレート写真(例えば、ぼかしをかけた背景を有する写真))のメディアをキャプチャし、パノラマモードで動作するように電子デバイスが構成されている場合、電子デバイスの1つ以上のカメラは、特定の設定(例えば、ズーム、移動しながらキャプチャするための視野の量)を有する第4のタイプ(例えば、パノラマ写真(例えば、広い写真)のメディアをキャプチャする。いくつかの実施形態では、モード間の切り替え時、視野の表現の表示は、モードによってキャプチャされるメディアのタイプに対応するように変化する(例えば、電子デバイスが静止写真モードで動作している間、この表現は、矩形モードであり、電子デバイスが正方形モードで動作している間、この表現は、正方形である)。いくつかの実施形態では、電子デバイス(例えば、600)は、デバイスが第1のカメラモードに構成されているというインジケーションを表示する。いくつかの実施形態では、第1の入力を検出したことに応答して、第1の入力が閾値時間量にわたって第1の場所で第1の接触を維持することを含まないという判定、及び第1の入力が第1の移動閾値を超える第1の接触の移動を含む(例えば、第1の入力は、初期休止なしで表示デバイスの一部分を横切るスワイプである)という判定に従って、第1のカメラモードとは異なる第2のカメラモードを使用してメディアをキャプチャするように電子デバイス(例えば、600)を構成することを含む。いくつかの実施形態では、電子デバイス(例えば、600)は、第2のカメラモードにある間、第1のアスペクト比を使用してメディアをキャプチャするように構成される。いくつかの実施形態では、第2のカメラモードを使用するように電子デバイスを構成することは、デバイスが第2のカメラモードに構成されているというインジケーションを表示することを含む。 In some embodiments, the electronic device (eg, 600) is configured to capture the media using the first camera mode before detecting the first input. In some embodiments, each camera mode (eg, video, photo (phot) / still, portrait, slow motion, panorama mode) is such that the camera (eg, camera sensor) captures the media. Multiple settings (eg, portrait camera) with multiple values (eg, the light level of each setting) of a working mode (including post-processing that is done automatically after capture) (eg, portrait mode). Mode: Has studio lighting settings, contour lighting settings, stage lighting settings). In this way, for example, the camera mode is different from the mode that does not affect how the camera behaves when capturing media, or multiple settings (eg, multiple values (eg, non-). Does not include flash mode) with one setting that has active, active, automatic). In some embodiments, camera modes allow the user to capture different types of media (eg, photos or videos), optimizing the settings for each mode, and specifying specific characteristics (eg, shapes (eg, shapes)). For example, it is possible to capture a particular type of media (eg, via post-processing) that corresponds to a particular mode with speed (eg, slow motion, over time), audio, video) (square, rectangle). can. For example, if an electronic device (eg, 600) is configured to operate in still photo mode, then one or more cameras in the electronic device will have certain settings (eg, flash settings, 1) when activated. If the electronic device is configured to capture media of a first type (eg, a rectangular photo) with one or more filter settings) and operate in square mode, then one or more cameras in the electronic device When activated, it captures a second type of media (eg, a square photo) with certain settings (eg, flash settings and one or more filters) and electronically to operate in slow motion mode. When the device is configured, one or more cameras in the electronic device, when activated, have a third type (eg, slow) with certain settings (eg, flash settings, number of frames per second capture speed). When an electronic device is configured to capture media of media (motion video) and operate in portrait mode, one or more cameras of the electronic device will have a specific setting (eg, a specific type of light (eg, a specific type of light). For example, capturing media of a fifth type (eg, a portrait photo (eg, a photo with a blurred background)) having an amount of stage light, studio light, contour light, f-value, blur), When the electronic device is configured to operate in panoramic mode, one or more cameras of the electronic device have a fourth setting (eg, zoom, amount of field of view for moving and capturing). Capture media of a type (eg, a panoramic photo (eg, a wide photo). In some embodiments, when switching between modes, the display of the visual field representation corresponds to the type of media captured by the mode. (For example, while the electronic device is operating in still photo mode, this representation is in rectangular mode, and while the electronic device is operating in square mode, this representation is square). In one embodiment, the electronic device (eg, 600) displays an indication that the device is configured in the first camera mode. In some embodiments, the first input is detected. In response, a determination that the first input does not include maintaining the first contact in the first place for a threshold time amount, and that the first input exceeds the first movement threshold of the first contact. Transfer Capture media using a second camera mode that is different from the first camera mode, as determined to include motion (eg, the first input is a swipe across a portion of the display device without initial pause). Including configuring an electronic device (eg, 600) to do so. In some embodiments, the electronic device (eg, 600) is configured to capture media using the first aspect ratio while in the second camera mode. In some embodiments, configuring the electronic device to use the second camera mode includes displaying an indication that the device is configured in the second camera mode.

いくつかの実施形態では、第1の入力を検出したことに応答して、第1の入力(例えば、境界部ボックスの角部上での短期間のタッチ)が閾値時間量未満にわたって第1の場所で第1の接触を検出する(例えば、焦点を設定する要求を検出する)ことを含むという判定に従って、電子デバイス(例えば、600)は、第1の場所に対応するカメラの視野内の場所でのコンテンツに基づく焦点設定でメディアをキャプチャするように電子デバイスを構成することを含む、焦点設定を調整する(1522)。第1の入力が閾値時間量未満にわたって第1の場所で第1の接触を検出することを含むという判定に従って、焦点設定を調整することは、操作を行うために必要な入力の数を減らし、これにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, in response to the detection of the first input, the first input (eg, a short-term touch on the corner of the boundary box) is the first over a threshold time amount. According to the determination that the location comprises detecting a first contact (eg, detecting a request to set a focus), the electronic device (eg, 600) is located in the field of view of the camera corresponding to the first location. Adjust the focus settings, including configuring the electronic device to capture the media with content-based focus settings in (1522). Adjusting the focus setting according to the determination that the first input involves detecting the first contact at the first location for less than the threshold time amount reduces the number of inputs required to perform the operation. This enhances the usability of the device and provides a user-device interface (eg, by assisting the user in providing appropriate input when manipulating / interacting with the device and reducing user error). By making the device more efficient and, in addition, allowing the user to use the device faster and more efficiently, the power usage of the device is reduced and battery life is improved.

いくつかの実施形態では、第1の入力を検出したことに応答して、第1の入力(例えば、境界部ボックスの角部ではない表現上のいずれかの場所上での長期間のタッチ)が、メディアをキャプチャする要求(例えば、物理カメラシャッターボタンのアクティブ化又は仮想カメラシャッターボタンのアクティブ化)に応答してキャプチャされる、メディアの境界部の少なくとも一部分を示す、カメラディスプレイ領域(例えば、604)の既定の部分(例えば、角部)に対応しない第3の場所(例えば、第1の場所ではない場所)で第2の閾値時間量にわたって第1の接触を維持することを含むという判定に従って、電子デバイス(例えば、600)は、第3の場所に対応するカメラの視野内の場所でのコンテンツに基づく第1の露出設定(例えば、自動露出設定)でメディアをキャプチャするように電子デバイスを構成する(1524)。第1の入力が、メディアをキャプチャする要求に応答してキャプチャされる、メディアの境界部の少なくとも一部分を示す、カメラディスプレイ領域の既定の部分に対応しない第3の場所で第2の閾値時間量にわたって第1の接触を維持することを含むという判定に従って、第1の露出設定でメディアをキャプチャするように電子デバイスを構成することは、操作を行うために必要な入力の数を減らし、これにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, in response to detecting the first input, the first input (eg, a long-term touch somewhere on the non-corner representation of the boundary box). Indicates at least a portion of the boundary of the media that is captured in response to a request to capture the media (eg, activation of the physical camera shutter button or activation of the virtual camera shutter button), a camera display area (eg, eg). 604) Determining that it involves maintaining a first contact for a second threshold time at a third location (eg, a location other than the first location) that does not correspond to a predetermined portion (eg, a corner). According to, the electronic device (eg, 600) captures the media with a first exposure setting (eg, automatic exposure setting) based on the content at a location within the field of view of the camera corresponding to the third location. (1524). A second threshold time amount at a third location where the first input is captured in response to a request to capture the media, indicating at least a portion of the media boundary and not corresponding to a default portion of the camera display area. Configuring the electronic device to capture the media at the first exposure setting, according to the determination that it involves maintaining the first contact over, reduces the number of inputs required to perform the operation, thereby reducing the number of inputs required to perform the operation. Increases device usability and makes the user-device interface more efficient (eg, by assisting the user in providing proper input when manipulating / interacting with the device and reducing user error). In addition, by allowing the user to use the device more quickly and efficiently, the power usage of the device is reduced and the battery life is improved.

いくつかの実施形態では、第3の場所に対応するカメラの視野内の場所でのコンテンツに基づく第1の露出設定(例えば、自動露出設定)でメディアをキャプチャするように電子デバイス(例えば、600)を構成することを構成した後に、電子デバイス(例えば、600)は、第3の場所に対応するカメラの視野内の場所でのコンテンツを、1つ以上のカメラの視野内にもはや存在させないという、(例えば、電子デバイスの移動による)1つ以上のカメラの視野の表現の変化を検出する。いくつかの実施形態では、変化を検出したことに応答して、電子デバイス(例えば、600)は、第1の露出設定でメディアをキャプチャするように電子デバイスを構成し続ける。 In some embodiments, an electronic device (eg, 600) captures the media with a first exposure setting (eg, an automatic exposure setting) based on the content at a location within the field of view of the camera corresponding to the third location. ) Is configured so that the electronic device (eg, 600) no longer has content in the field of view of the camera corresponding to the third location in the field of view of one or more cameras. , Detect changes in the representation of the field of view of one or more cameras (eg, due to the movement of an electronic device). In some embodiments, in response to detecting a change, the electronic device (eg, 600) continues to configure the electronic device to capture the media at the first exposure setting.

方法1500に関して上述された処理(例えば、図15A〜図15C)の詳細はまた、上記及び以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1700、1900、2000、2100、2300、2500、2700、2800、3000、3200、3400、3600、及び3800は、方法1500を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。 It should be noted that the details of the processes described above for Method 1500 (eg, FIGS. 15A-15C) are also applicable to the methods described above and below in a similar manner. For example, methods 700, 900, 1100, 1300, 1700, 1900, 2000, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3400, 3600, and 3800 are various described above with reference to Method 1500. Optionally include one or more of the properties of the method. For the sake of brevity, these details will not be repeated below.

図16A〜図16Qは、いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図17A〜図17Bにおける処理を含む、以下で説明される処理を例示するために使用される。 16A-16Q show exemplary user interfaces for varying zoom levels using electronic devices according to some embodiments. The user interfaces in those figures are used to illustrate the processes described below, including the processes in FIGS. 17A-17B.

図16Aは、デバイス600の長軸が垂直に走る縦向き1602(例えば、垂直)のデバイス600を示す。デバイス600が縦向き1602にある間、デバイスは縦向きカメラインタフェース1680を表示する。縦向きインタフェース1680は、縦向きライブプレビュー1682、ズームトグルアフォーダンス1616、シャッターアフォーダンス1648、及びカメラ切り替えアフォーダンス1650を含む。図16Aにおいて、縦向きライブプレビュー1682は、前面カメラ1608の視野の一部分のライブプレビューである。ライブプレビュー1682は、グレーアウト部分1681及び1683を含まず、これはまた、前面カメラ1608の視野からコンテンツのプレビューを表示する。 FIG. 16A shows a vertically oriented 1602 (eg, vertical) device 600 in which the major axis of the device 600 runs vertically. The device displays the portrait camera interface 1680 while the device 600 is in portrait 1602. The portrait interface 1680 includes a portrait live preview 1682, a zoom toggle affordance 1616, a shutter affordance 1648, and a camera switching affordance 1650. In FIG. 16A, the portrait live preview 1682 is a live preview of a portion of the field of view of the front camera 1608. Live preview 1682 does not include grayed out portions 1681 and 1683, which also display a preview of the content from the field of view of the front camera 1608.

図16Aに示すように、縦向きライブプレビュー1682は、デバイス600の前面カメラ1608を使用して、画像(例えば、自撮り)を撮影するための準備をしている人1650Aを示す。特に、縦向きライブプレビュー1682は、縦向きライブプレビュー1682での表示に利用可能な、前面カメラ604の視野(例えば、ライブプレビューはズームインされている)の80%を使用するズームレベル1620Aで表示される。縦向きライブプレビュー1682は、画像の右側で部分的に視認可能な人1650Bと画像の左側で部分的に視認可能な人1650Cとの中央にいる人1650A(例えば、デバイス600のユーザ)を示す。上述の方法で縦向きライブプレビュー1682を表示している間に、デバイス600は、シャッターアフォーダンス1648上の入力1695A(例えば、タップ)を検出する。 As shown in FIG. 16A, the portrait live preview 1682 shows a person 1650A preparing to take an image (eg, a selfie) using the front camera 1608 of the device 600. In particular, the portrait live preview 1682 is displayed at a zoom level 1620A that uses 80% of the field of view of the front camera 604 (eg, the live preview is zoomed in) available for display in the portrait live preview 1682. NS. The portrait live preview 1682 shows a person 1650A (eg, a user of device 600) in the center of a person 1650B who is partially visible on the right side of the image and a person 1650C who is partially visible on the left side of the image. While displaying the portrait live preview 1682 as described above, the device 600 detects an input 1695A (eg, a tap) on the shutter affordance 1648.

図16Bに示すように、入力1695Aを検出したことに応答して、デバイス600は、縦向きライブプレビュー1682を表すメディアをキャプチャし、縦向きカメラユーザインタフェース1680内にメディアの表現1630を表示する。 As shown in FIG. 16B, in response to detecting input 1695A, the device 600 captures media representing the portrait live preview 1682 and displays the media representation 1630 within the portrait camera user interface 1680.

更に、図16Bに示すように、縦向きライブプレビュー1682を表示している間に、デバイス600は、デバイス600を、横向き(例えば、デバイスの長軸が水平に走る)に物理的に回転させる時計方向回転入力1695Bを検出する。いくつかの実施形態では、人1650Aは、水平方向の環境をより多くキャプチャするために(例えば、人1650B及び1650Cを視野内に入れるように)デバイス600を時計方向に回転させる。図16Cに示すように、回転入力1695Bを検出したことに応答して、デバイス600は、追加のユーザ入力を介在することなく自動的に、縦向きカメラユーザインタフェース1680を、横向きカメラインタフェース1690に置き換える。横向きカメラインタフェース1690は、横向き1604にズームレベル1620Bで表示される横向きライブプレビュー1692を含む。 Further, as shown in FIG. 16B, while displaying the portrait live preview 1682, the device 600 physically rotates the device 600 in landscape orientation (eg, the long axis of the device runs horizontally). The directional rotation input 1695B is detected. In some embodiments, the person 1650A rotates the device 600 clockwise to capture more of the horizontal environment (eg, to bring the people 1650B and 1650C into view). As shown in FIG. 16C, in response to detecting the rotation input 1695B, the device 600 automatically replaces the portrait camera user interface 1680 with the landscape camera interface 1690 without the intervention of additional user input. .. The landscape camera interface 1690 includes a landscape live preview 1692 displayed at zoom level 1620B at landscape 1604.

ズームレベル1620Bは、デバイス600が前面カメラ1608の視野(「FOV」)の100%を使用して、横向きライブプレビュー1692を表示するという点で、ズームレベル1620Aとは異なる。ズームレベル1620Aの代わりに、ズームレベル1620Bを使用して、横向きライブプレビュー1692を表示することにより、横向きライブプレビュー1692を、よりズームアウトして表示させる。図16Cに示すように、横向きライブプレビュー1692は、人1650A、並びに人1650B及び1650Cの顔全体を示す。したがって、横向きライブプレビュー1692により、ズームレベル1620B(FOVの100%)である間、ユーザは、コンテンツの率がより高い写真(例えば、潜在的な写真)をフレームに収めることができる。横向きライブプレビュー1692はまた、縦向きライブプレビュー1682に示されていなかった、新しい人(人1650D)を示す。いくつかの実施形態では、ユーザは典型的には、デバイスの前カメラを使用して、横向きよりも縦向きで環境をキャプチャすることをより望むため、デバイス600は、デバイスの向きが縦から横に変化するときに、自動的にズームレベル1620A(FOVの80%)とズームレベル1620B(FOVの100%)との間をシフトする。図16Cの横向きライブプレビュー1692を表示している間に、デバイス600は、シャッターアフォーダンス1648上の入力1695B(例えば、タップ)を検出する。図16Dに示すように、入力1695Bを検出したことに応答して、デバイス600は、横向きライブプレビュー1692を表すメディアをキャプチャし、横向きカメラユーザインタフェース1690内にメディアの表現1632を表示する。表現1632は、それが、横向き1604であり、ズームレベル1620B(FOVの100%)と一致するという点で、表現1630とは異なる。 The zoom level 1620B differs from the zoom level 1620A in that the device 600 uses 100% of the field of view (“FOV”) of the front camera 1608 to display a landscape live preview 1692. By using the zoom level 1620B instead of the zoom level 1620A to display the landscape live preview 1692, the landscape live preview 1692 is displayed more zoomed out. As shown in FIG. 16C, the sideways live preview 1692 shows the entire faces of people 1650A, as well as people 1650B and 1650C. Thus, the landscape live preview 1692 allows the user to frame a photo with a higher percentage of content (eg, a potential photo) while at zoom level 1620B (100% of FOV). The landscape live preview 1692 also shows a new person (person 1650D) that was not shown in the portrait live preview 1682. In some embodiments, the device 600 is oriented from portrait to landscape because the user typically prefers to use the front camera of the device to capture the environment in portrait orientation rather than landscape orientation. When it changes to, it automatically shifts between the zoom level 1620A (80% of the FOV) and the zoom level 1620B (100% of the FOV). While displaying the landscape live preview 1692 of FIG. 16C, the device 600 detects an input 1695B (eg, a tap) on the shutter affordance 1648. As shown in FIG. 16D, in response to detecting input 1695B, device 600 captures media representing the landscape live preview 1692 and displays the media representation 1632 within the landscape camera user interface 1690. Representation 1632 differs from Representation 1630 in that it is landscape 1604 and coincides with zoom level 1620B (100% of FOV).

デバイス600はまた、様々な手動入力に基づいてズームレベルを変更することも可能である。例えば、ズームレベル1620Bで横向きライブプレビュー1692を表示している間に、デバイス600は、ズームトグルアフォーダンス1616上のデピンチ入力1695D又はタップ入力1695DDを検出する。図16Eに示すように、入力1695D又はタップ入力1695DDを検出したことに応答して、デバイス600は、ズームレベル1620B(FOVの100%)からズームレベル1620A(FOVの80%)に戻るように横向きライブプレビュー1692のズームレベルを変更する。いくつかの実施形態では、ズームレベル1620B(FOVの100%)である間のデピンチジェスチャにより、デピンチジェスチャの大きさに完全基づいてズームレベルを設定するよりもむしろ、ズームレベル1620A(80%のFOV、所定のズームレベル)でスナップする。しかしながら、横向きライブプレビュー1692のズームレベルを変更するとき、ライブプレビュー1692は、横向き1604のままである。ズームレベルを変更した結果として、横向きライブプレビュー1692は、現在、人1650Bの一部分のみを表示し、人1650Dの表示を停止する。また、ズームレベルが図16Bのズームレベルと同じズームレベルに変更されている間、横向きライブプレビュー1692は、縦向きライブプレビュー1682とは異なる、デバイス600が現在横向き1604にあるため示された画像を示す。ズームレベル1620Aで横向きライブプレビュー1692を表示している間に、デバイス600は、デピンチ入力1695Eを検出する。 The device 600 can also change the zoom level based on various manual inputs. For example, while displaying the landscape live preview 1692 at zoom level 1620B, device 600 detects depinch input 1695D or tap input 1695D on the zoom toggle affordance 1616. As shown in FIG. 16E, in response to detecting input 1695D or tap input 1695DD, the device 600 is oriented sideways to return from zoom level 1620B (100% of FOV) to zoom level 1620A (80% of FOV). Change the zoom level of Live Preview 1692. In some embodiments, the depinch gesture while the zoom level is 1620B (100% of the FOV) causes the zoom level 1620A (80%) rather than setting the zoom level entirely based on the size of the depinch gesture. FOV, specified zoom level) to snap. However, when changing the zoom level of the landscape live preview 1692, the live preview 1692 remains landscape 1604. As a result of changing the zoom level, the landscape live preview 1692 now displays only a portion of the person 1650B and stops displaying the person 1650D. Also, while the zoom level is changed to the same zoom level as the zoom level of FIG. 16B, the landscape live preview 1692 differs from the portrait live preview 1682 in that the image shown because the device 600 is currently in landscape 1604. show. While displaying the landscape live preview 1692 at zoom level 1620A, the device 600 detects the depinch input 1695E.

図16Fに示すように、入力1695Eを検出したことに応答して、デバイス600は、ズームレベル1620A(FOVの80%)からズームレベル1620C(例えば、FOVの40%)に戻るように横向きライブプレビュー1692のズームレベルを変更する。ここで、横向きライブプレビュー1692は、人1650Aの顔の一部分及び少量の人1650B及び1650Cのみを示す。いくつかの実施形態では、ズームレベル1620A(例えば、FOVの80%)とズームレベル1670(例えば、FOVの40%)との間を切り替えることは、予め定義されておらず、ピンチジェスチャに応答してピンチジェスチャの大きさに基づいて生じる。ズームレベル1620C(FOVの40%)で横向きライブプレビュー1692を表示している間に、デバイス600は、ピンチ入力1695Fを検出する。 As shown in FIG. 16F, in response to detecting input 1695E, device 600 performs a landscape live preview from zoom level 1620A (80% of FOV) back to zoom level 1620C (eg 40% of FOV). Change the zoom level of 1692. Here, the sideways live preview 1692 shows only a portion of the face of person 1650A and a small amount of people 1650B and 1650C. In some embodiments, switching between zoom level 1620A (eg, 80% of FOV) and zoom level 1670 (eg, 40% of FOV) is not predefined and responds to pinch gestures. It occurs based on the size of the pinch gesture. The device 600 detects the pinch input 1695F while displaying the landscape live preview 1692 at zoom level 1620C (40% of FOV).

図16Gに示すように、ピンチ入力1695Fを検出したことに応答して、デバイス600は、ズームレベル1620C(FOVの40%)からズームレベル1620A(FOVの80%)に戻るように横向きライブプレビュー1692のズームレベルを変更し、これは、図16Eに関連して上述した。ズームレベル1620Aで横向きライブプレビューを表示している間に、デバイス600は、ピンチ入力1695Gを検出する。 As shown in FIG. 16G, in response to detecting the pinch input 1695F, the device 600 moves from zoom level 1620C (40% of FOV) to zoom level 1620A (80% of FOV) sideways live preview 1692. The zoom level of was changed, which was described above in connection with FIG. 16E. While displaying the landscape live preview at zoom level 1620A, the device 600 detects the pinch input 1695G.

図16Hに示すように、ピンチ入力1695Gを検出したことに応答して、デバイス600は、ズームレベル1620A(FOVの80%)からズームレベル1620B(FOVの100%)に戻るように横向きライブプレビュー1692のズームレベルを変更し、これは、図16C〜図16Dに関連して上述した。ポートレート横向きライブプレビュー1692を表示している間に、デバイス600は、デバイス600を、縦向き1602に戻るように回転させる、反時計方向回転入力1695Hを検出する。 As shown in FIG. 16H, in response to detecting the pinch input 1695G, the device 600 moves from zoom level 1620A (80% of FOV) to zoom level 1620B (100% of FOV) sideways live preview 1692. The zoom level of was changed, which was described above in relation to FIGS. 16C-16D. While displaying the portrait landscape live preview 1692, the device 600 detects a counterclockwise rotation input 1695H that rotates the device 600 back to portrait 1602.

図16Iに示すように、回転入力1695Hを検出したことに応答して、デバイス600は、入力を介在することなく自動的に、ズームレベル1620A(FOVの80%)で、縦向き1602で、縦向きライブプレビュー1682を含む縦向きカメラユーザインタフェース1680を表示する。ここで、デバイス600は、ユーザが、追加の入力なしで自動的に、ズームレベル1620Bでのカメラユーザインタフェース1692をズームレベル1620Aでのカメラユーザインタフェース1680(図16Aに示すように)に戻すように変更できるようにすることも可能である。 As shown in FIG. 16I, in response to detecting the rotation input 1695H, the device 600 automatically, without intervening input, at zoom level 1620A (80% of FOV), portrait 1602, portrait. Orientation Displays a portrait camera user interface 1680 including a live preview 1682. Here, the device 600 causes the user to automatically return the camera user interface 1692 at zoom level 1620B to the camera user interface 1680 at zoom level 1620A (as shown in FIG. 16A) without any additional input. It is also possible to make it changeable.

図16Iでは、デバイス600(上述のように)はまた、ポートレートカメラユーザインタフェース1680上にズームトグルアフォーダンス1616を表示する。ズームトグルアフォーダンス1616を使用して、ズームレベル1620A(FOVの80%を使用)とズームレベル1620B(FOVの100%を使用)との間のライブプレビューを変更し、このアフォーダンスは、ユーザにより、ライブプレビューのズームレベルを他のズームレベル(例えば、ズームレベル1620C)に変更することができるピンチ入力(上述のように)とは異なる。1620Bで縦向きライブプレビュー1682を表示している間に、デバイス600は、ズームトグルアフォーダンス1616上の入力1695I(例えば、タップ)を検出する。 In FIG. 16I, the device 600 (as described above) also displays the zoom toggle affordance 1616 on the portrait camera user interface 1680. Using Zoom Toggle Affordance 1616, change the live preview between zoom level 1620A (using 80% of FOV) and zoom level 1620B (using 100% of FOV), this affordance will be live by the user. It differs from the pinch input (as described above) where the zoom level of the preview can be changed to another zoom level (eg, zoom level 1620C). While displaying the portrait live preview 1682 on the 1620B, the device 600 detects an input 1695I (eg, a tap) on the zoom toggle affordance 1616.

図16Jに示すように、入力1695Iを検出したことに応答して、デバイス600は、ズームレベル1620A(FOV視野の80%)からズームレベル1620B(FOVの100%)に縦向きライブプレビュー1682のズームレベルを変更して表示する。ここで、縦向きライブプレビュー1682は、人1650A、並びに人1650B及び1650Cの顔全体を示す。 As shown in FIG. 16J, in response to detecting input 1695I, the device 600 zooms in portrait live preview 1682 from zoom level 1620A (80% of FOV field of view) to zoom level 1620B (100% of FOV). Change the level and display it. Here, the portrait live preview 1682 shows the entire faces of people 1650A, as well as people 1650B and 1650C.

図16J〜図16Nは、デバイス600が、回転入力を検出するときにカメラユーザインタフェースのズームレベルを自動的に変更しないシナリオを示す。図16Jに戻ると、デバイス600は、カメラ切り替えアフォーダンス上の入力1695Jを検出する。 16J-16N show scenarios in which the device 600 does not automatically change the zoom level of the camera user interface when detecting a rotation input. Returning to FIG. 16J, the device 600 detects the input 1695J on the camera switching affordance.

図16Kに示すように、入力1695Jを検出したことに応答して、デバイス600は、1つ以上のカメラの視野の少なくとも一部分を示す縦向きライブプレビュー1684を含む縦向きカメラインタフェース1680を表示する。縦向きライブプレビュー1684は、ズームレベル1620Dで表示される。加えて、デバイス600は、前面カメラ1608を使用してメディアをキャプチャするような構成から、1つ以上のカメラを使用してメディアをキャプチャするような構成へと切り替えた。ライブプレビュー1684を表示している間に、デバイス600は、デバイス600の時計方向回転入力1695Kを検出し、縦向きから横向きにデバイスを変更する。 As shown in FIG. 16K, in response to detecting input 1695J, device 600 displays a portrait camera interface 1680 including a portrait live preview 1684 showing at least a portion of the field of view of one or more cameras. The portrait live preview 1684 is displayed at a zoom level of 1620D. In addition, the device 600 has switched from a configuration in which the front camera 1608 is used to capture media to a configuration in which one or more cameras are used to capture media. While displaying the live preview 1684, the device 600 detects the clockwise rotation input 1695K of the device 600 and changes the device from portrait to landscape.

図16Lに示すように、回転入力1695Kを検出したことに応答して、デバイス600は、横向きカメラインタフェース1690を表示する。横向きカメラインタフェースカメラインタフェース1690は、横向き1604で1つ以上のカメラの視野を示す、横向きライブプレビュー1694を含む。デバイス600は、図16B〜図16Cに見られるように、ズームレベルを自動的に調整しないため、横向きライブプレビュー1694は、デバイス600が背面カメラ(例えば、前面カメラ1608に対してデバイスの反対側にあるカメラ)を使用してメディアをキャプチャするように構成されているときに、自動ズーム基準が満たされないため、ズームレベル1620Dで表示されたままである。横向きライブプレビュー1694を表示している間に、デバイス600は、ビデオキャプチャモードアフォーダンスに対応するライブプレビュー1684上の入力1695Lを検出する。 As shown in FIG. 16L, the device 600 displays the sideways camera interface 1690 in response to detecting the rotation input 1695K. Landscape Camera Interface The camera interface 1690 includes a landscape live preview 1694 that shows the field of view of one or more cameras in landscape 1604. Since the device 600 does not automatically adjust the zoom level as seen in FIGS. 16B-16C, the landscape live preview 1694 allows the device 600 to be on the opposite side of the device with respect to the rear camera (eg, front camera 1608). When configured to capture media using a camera), it remains displayed at zoom level 1620D because the automatic zoom criteria are not met. While displaying the landscape live preview 1694, the device 600 detects an input 1695 L on the live preview 1684 that corresponds to the video capture mode affordance.

図16Mに示すように、入力1695Lを検出したことに応答して、デバイス600は、ビデオキャプチャモードを開始する。ビデオキャプチャモードにおいて、デバイス600は、ズームレベル1620Eで横向きカメラインタフェース1691を表示する。横向きカメラインタフェース1691は、背面カメラ(例えば、前面カメラ1608に対してデバイスの反対側にあるカメラ)の視野を示す横向きライブプレビュー1697を含む。横向きカメラインタフェース1691を表示している間に、デバイス600は、カメラ切り替えアフォーダンス1616上の入力1695Mを検出する。 As shown in FIG. 16M, the device 600 initiates video capture mode in response to detecting input 1695L. In video capture mode, device 600 displays the landscape camera interface 1691 at zoom level 1620E. The landscape camera interface 1691 includes a landscape live preview 1697 showing the field of view of a rear camera (eg, a camera on the opposite side of the device with respect to the front camera 1608). While displaying the landscape camera interface 1691, the device 600 detects an input 1695M on the camera switching affordance 1616.

図16Nに示すように、入力1695Mを検出したことに応答して、デバイス600は、横向きカメラインタフェース1691を表示する。横向きカメラインタフェース1691は、横向き1604にFOVを示す横向きライブプレビュー1697を含む。横向きカメラインタフェース1691及びライブプレビュー1697は、ズームレベル1620Eで横向き1604のままである。加えて、デバイス600は、背面カメラ(例えば、前面カメラ1608に対してデバイスの反対側にあるカメラ)を使用してメディアをキャプチャするような構成から、前面カメラ1608へと切り替え、ビデオキャプチャモードのままである。カメラインタフェース1691を表示している間に、デバイス600は、デバイス600を、縦向き1602に戻るように回転させる、反時計方向回転入力1695Nを検出する。 As shown in FIG. 16N, the device 600 displays the landscape camera interface 1691 in response to detecting the input 1695M. The landscape camera interface 1691 includes a landscape live preview 1697 showing the FOV at landscape 1604. The landscape camera interface 1691 and live preview 1697 remain landscape 1604 at zoom level 1620E. In addition, the device 600 switches from a configuration that captures media using a rear camera (eg, a camera on the opposite side of the device with respect to the front camera 1608) to the front camera 1608, in video capture mode. There is up to. While displaying the camera interface 1691, the device 600 detects a counterclockwise rotation input 1695N that rotates the device 600 back to the portrait direction 1602.

図16Oに示すように、回転入力1695Nを受信したことに応答して、デバイス600は、縦向きカメラインタフェース1681を表示する。縦向きインタフェース1681は、デバイス600がビデオモードでメディアをキャプチャするように構成されるときに、自動ズーム基準が満たされないため、ズームレベル1620Eで縦向き1602に前面カメラ1608の視野の少なくとも一部分を示す、ライブプレビュー1687を含む。更に、図16Oに示すように、デバイス600は、通知1640を表示して、参加アフォーダンス1642を含むライブ通信セッションに参加する。通知1640を表示している間に、デバイス600は、通知アフォーダンス1642上の入力(例えば、タップ)1695Oを検出する。 As shown in FIG. 16O, the device 600 displays the portrait camera interface 1681 in response to receiving the rotation input 1695N. The portrait interface 1681 shows at least a portion of the field of view of the front camera 1608 to portrait 1602 at zoom level 1620E because the automatic zoom criteria are not met when the device 600 is configured to capture media in video mode. , Includes live preview 1687. Further, as shown in FIG. 16O, the device 600 displays notification 1640 and participates in a live communication session including participation affordance 1642. While displaying the notification 1640, the device 600 detects an input (eg, tap) 1695O on the notification affordance 1642.

図16Pに示すように、入力1695Oを検出したことに応答して、デバイス600は、ライブ通信セッションに参加する。いくつかの実施形態では、ライブ通信セッションに参加することによって、デバイス600は、ビデオキャプチャモードからライブ通信セッションモードへと切り替える。ライブ通信セッションにある間、デバイス600は、ズームレベル1620A(FOVの80%)で縦向きライブプレビュー1689を表示することを含む、縦向き1602で縦向きカメラインタフェース1688を表示する。カメラインタフェース1688を表示している間に、デバイス600は、デバイス600を、横向き1604になるように回転させる、時計方向回転入力1695Pを検出する。 As shown in FIG. 16P, the device 600 participates in a live communication session in response to detecting input 1695O. In some embodiments, by participating in a live communication session, the device 600 switches from video capture mode to live communication session mode. During a live communication session, device 600 displays portrait camera interface 1688 at portrait 1602, including displaying portrait live preview 1689 at zoom level 1620A (80% of FOV). While displaying the camera interface 1688, the device 600 detects a clockwise rotation input 1695P that rotates the device 600 so that it is laterally 1604.

図16Qに示すように、回転入力1695Pを検出したことに応答して、デバイス600は、追加のユーザ入力を介在することなく自動的に、縦向きカメラユーザインタフェース1688を、横向きカメラインタフェース1698に置き換える。横向きカメラインタフェース1698は、(例えば、ビデオキャプチャモードにあることとは対照的に)デバイス600がライブ通信セッションでライブビデオを伝送しているときに、1組の自動ズーム基準が満たされるため、ズームレベル1620Bで(例えば、FOVの100%で)表示される横向きライブプレビュー1699を含む。 As shown in FIG. 16Q, in response to detecting the rotation input 1695P, the device 600 automatically replaces the portrait camera user interface 1688 with the landscape camera interface 1698 without the intervention of additional user input. .. The landscape camera interface 1698 zooms because a set of auto-zoom criteria is met when the device 600 is transmitting live video in a live communication session (as opposed to being in video capture mode, for example). Includes a landscape live preview 1699 displayed at level 1620B (eg, at 100% of FOV).

図17A〜図17Bは、いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための方法を示すフロー図である。方法1700は、表示デバイス(例えば、タッチ感知ディスプレイ)及びカメラ(例えば、1608;電子デバイスの異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を備えるデバイス(例えば、100、300、500、600)で行われる。方法1700のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 17A-17B are flow diagrams illustrating methods for changing the zoom level using electronic devices according to some embodiments. Method 1700 describes one or more cameras (eg, dual cameras, triple cameras, quads) on a display device (eg, touch-sensitive display) and a camera (eg, 1608; different sides of the electronic device (eg, front camera, rear camera)). It is done on a device (eg, 100, 300, 500, 600) equipped with (such as a camera). Some actions of Method 1700 are optionally combined, some actions are optionally changed in order, and some actions are optionally omitted.

後述するように、方法1700は、ズームレベルを変更するための直感的な仕方を提供する。この方法は、ズームレベルを変更する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にズームレベルを変更することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, Method 1700 provides an intuitive way to change the zoom level. This method reduces the user's cognitive burden when changing the zoom level, thereby creating a more efficient human-machine interface. For battery-powered computing devices, it saves power and prolongs the time between battery charges by enabling users to change zoom levels faster and more efficiently.

電子デバイス(例えば、600)が第1の向きにある(例えば、1602)(例えば、電子が縦向きに向いている(例えば、電子デバイスが垂直である))間に、電子デバイスは、表示デバイスを介して、第1のズームレベル(例えば、ズーム比(例えば、1×、5×、10×))で第1のカメラの向き(例えば、縦向き)でメディア(例えば、画像、ビデオ)をキャプチャする第1のカメラユーザインタフェース(例えば、1680)を表示する(1702)。 While the electronic device (eg, 600) is in the first orientation (eg, 1602) (eg, the electrons are oriented vertically (eg, the electronic device is vertical)), the electronic device is a display device. Media (eg, image, video) in the first camera orientation (eg, portrait) at the first zoom level (eg, zoom ratio (eg, 1x, 5x, 10x)). Display the first camera user interface to capture (eg, 1680) (1702).

電子デバイス(例えば、600)は、第1の向き(例えば、1602)から第2の向き(例えば、1604)への、電子デバイスの向きの変化(例えば、1695B)を検出する(1704)。 The electronic device (eg, 600) detects a change in the orientation of the electronic device (eg, 1695B) from a first orientation (eg, 1602) to a second orientation (eg, 1604) (1704).

第1の向き(例えば、1602)から第2の向き(例えば、1604)への、電子デバイス(例えば、600)の向きの変化を検出したことに応答して(1706)(例えば、電子デバイスが縦向きから横向きへ向きが変化している(例えば、電子デバイスが水平))、1組の自動ズーム基準が満たされているという判定に従って(例えば、自動ズーム基準は、電子デバイスが、第1のカメラ(例えば、前カメラ)を使用して、カメラの視野をキャプチャするとき、及び/又は電子デバイスが、1つ以上の他のモード(例えば、ポートレートモード、写真モード、ライブ通信セッションに関連付けられたモード)にあると満たされる基準を含む)、電子デバイス(例えば、600)は、ユーザ入力を介在することなく自動的に、第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向き(例えば、横向き)でメディアをキャプチャする第2のカメラユーザインタフェース(例えば、1690)を表示する(1708)(例えば、電子デバイスの向きが縦向きから横向きへ変化していることを検出する)。ユーザ入力を介在することなく自動的に、第1のズームレベルとは異なる第2のズームレベルで第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示することは、操作を行うために必要な入力の数を減らし、これにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In response to detecting a change in the orientation of the electronic device (eg, 600) from the first orientation (eg, 1602) to the second orientation (eg, 1604) (eg, the electronic device) (eg, the electronic device). According to the determination that the orientation is changing from portrait to landscape (eg, the electronic device is horizontal) and a set of auto-zoom criteria is met (eg, the auto-zoom criteria is that the electronic device is the first). When using a camera (eg, the front camera) to capture the field of view of the camera and / or the electronic device is associated with one or more other modes (eg, portrait mode, photo mode, live communication session). The electronic device (eg, 600) automatically has a second zoom level that is different from the first zoom level, without the intervention of user input. Display a second camera user interface (eg, 1690) that captures media in the camera orientation (eg, landscape) (1708) (eg, that the orientation of the electronic device is changing from portrait to landscape. To detect). Displaying a second camera user interface that automatically captures media in a second camera orientation at a second zoom level different from the first zoom level without user input is an operation. It reduces the number of inputs required to do this, which enhances the usability of the device and allows the user to provide the user-device interface (eg, to provide the appropriate input when manipulating / interacting with the device). By assisting and reducing user error), and in addition, by allowing users to use the device faster and more efficiently, the device's power usage is reduced and battery life is improved. NS.

いくつかの実施形態では、電子デバイス(例えば、600)は、メディアキャプチャアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、シャッターボタン)を(例えば、第1のカメラユーザインタフェース内及び第2のカメラユーザインタフェース内に)表示する(1710)。いくつかの実施形態では、電子デバイス(例えば、600)は、メディアキャプチャアフォーダンス(例えば、1648)に対応する第1の入力(例えば、アフォーダンス上でのタップ)を検出する(1712)。いくつかの実施形態では、第1の入力を検出したことに応答して(1714)、第1のカメラユーザインタフェース(例えば、1680)が表示されている間に第1の入力が検出されたという判定に従って、電子デバイス(例えば、600)は、第1のズームレベル(例えば、1620A)でメディアをキャプチャする(1716)。いくつかの実施形態では、第1の入力を検出したことに応答して(1714)、第2のカメラユーザインタフェース(例えば、1690)が表示されている間に第1の入力が検出されたという判定に従って、電子デバイス(例えば、600)は、第2のズームレベル(例えば、1620B)でメディアをキャプチャする(1718)。第1のカメラユーザインタフェースが表示されている間又は第2のカメラユーザインタフェースが表示されている間に、第1の入力が検出されるかどうかの判定に基づいて、異なるズームレベルでメディアをキャプチャすることにより、ズームレベルを手動で構成する必要がないため、ユーザが、メディアを迅速かつ容易にキャプチャすることを可能にする。更なるユーザ入力を必要とせずに条件のセットが満たされたときに動作を行うことにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the electronic device (eg, 600) has media capture affordances (eg, selectable user interface objects) (eg, shutter buttons) (eg, within the first camera user interface and second camera). Display (in the user interface) (1710). In some embodiments, the electronic device (eg, 600) detects a first input (eg, a tap on the affordance) corresponding to a media capture affordance (eg, 1648) (1712). In some embodiments, in response to detecting the first input (1714), the first input was detected while the first camera user interface (eg, 1680) was displayed. According to the determination, the electronic device (eg, 600) captures the media at the first zoom level (eg, 1620A) (1716). In some embodiments, in response to detecting the first input (1714), the first input was detected while the second camera user interface (eg, 1690) was displayed. According to the determination, the electronic device (eg, 600) captures the media at a second zoom level (eg, 1620B) (1718). Capture media at different zoom levels based on determining if a first input is detected while the first camera user interface is displayed or while the second camera user interface is displayed. This allows the user to capture the media quickly and easily, as there is no need to manually configure the zoom level. By acting when a set of conditions is met without requiring further user input, the usability of the device is enhanced and the user-device interface (eg, when manipulating / interacting with the device) By assisting the user in providing proper input and reducing user errors), and by allowing the user to use the device faster and more efficiently, the power of the device. Reduced use and improved battery life.

いくつかの実施形態では、第1のカメラユーザインタフェース(例えば、1680)を表示することは、カメラ(例えば、カメラに視認可能である開放観測可能エリア、カメラレンズから所与の距離の画像の水平(又は垂直又は対角線)長さ)の視野の第1の表現(例えば、1682)(例えば、ライブプレビュー(例えば、キャプチャされ得るメディアのライブフィード))を表示することを含む。いくつかの実施形態では、第1の表現は、第1のズームレベル(例えば、1620A)(例えば、カメラの視野の80%、ズーム比(例えば、1×、5×、10×))で第1のカメラの向き(例えば、縦向き)で表示される。いくつかの実施形態では、第1の表現(例えば、1682)は、リアルタイムで表示される。いくつかの実施形態では、第2のカメラユーザインタフェース(例えば、1690)を表示することは、カメラ(例えば、カメラに視認可能である開放観測可能エリア、カメラレンズから所与の距離の画像の水平(又は垂直又は対角線)長さ)の視野の第2の表現(例えば、1692)(例えば、ライブプレビュー(例えば、キャプチャされ得るメディアのライブフィード))を表示することを含む。いくつかの実施形態では、第2の表現(例えば、1692)は、第2のズームレベル(例えば、1620B)(例えば、カメラの視野の100%、ズーム比(例えば、1×、5×、10×))で第2のカメラの向き(例えば、横向き)で表示される。いくつかの実施形態では、第2の表現(例えば、1692)は、リアルタイムで表示される。 In some embodiments, displaying a first camera user interface (eg, 1680) is an open observable area visible to the camera (eg, visible to the camera, horizontal of the image at a given distance from the camera lens. Includes displaying a first representation (eg, 1682) of a field of view (or vertical or diagonal) length) (eg, a live preview (eg, a live feed of media that can be captured)). In some embodiments, the first representation is at a first zoom level (eg, 1620A) (eg, 80% of the camera's field of view, zoom ratio (eg, 1x, 5x, 10x)). It is displayed in the orientation of 1 camera (for example, portrait orientation). In some embodiments, the first representation (eg, 1682) is displayed in real time. In some embodiments, displaying a second camera user interface (eg, 1690) is a horizontal view of the image at a given distance from the camera (eg, open observable area visible to the camera, camera lens). Includes displaying a second representation (eg, 1692) of a field of view (or vertical or diagonal) length) (eg, a live preview (eg, a live feed of media that can be captured)). In some embodiments, the second representation (eg, 1692) is a second zoom level (eg, 1620B) (eg, 100% of the camera's field of view, zoom ratio (eg, 1x, 5x, 10). X)) is displayed in the orientation of the second camera (for example, landscape orientation). In some embodiments, the second representation (eg, 1692) is displayed in real time.

いくつかの実施形態では、第1の向き(例えば、1602)は縦向きであり、第1の表現はカメラの視野の一部分であり、第2の向き(例えば、1604)は横向きであり、第2の表現はカメラの視野全体である。いくつかの実施形態では、縦向きでは、カメラインタフェースに表示される表現(例えば、1682)は、カメラの視野のクロッピングされた部分である。いくつかの実施形態では、横向きでは、カメラインタフェースに表示される表現(例えば、1692)は、カメラの視野全体である(例えば、カメラ(例えば、1608)の視野はクロップされない)。 In some embodiments, the first orientation (eg, 1602) is portrait orientation, the first representation is part of the field of view of the camera, and the second orientation (eg, 1604) is landscape orientation. The expression 2 is the entire field of view of the camera. In some embodiments, in portrait orientation, the representation displayed on the camera interface (eg, 1682) is a cropped portion of the camera's field of view. In some embodiments, in landscape orientation, the representation displayed on the camera interface (eg, 1692) is the entire field of view of the camera (eg, the field of view of the camera (eg, 1608) is not cropped).

いくつかの実施形態では、カメラの視野の第1の表現(例えば、1682)を表示している間に、電子デバイス(例えば、600)は、第1のズームレベル(例えば、1620A)を第3のズームレベル(例えば、1620B)に変更する要求(例えば、カメラユーザインタフェース上でのピンチジェスチャ)を受信する(1720)。いくつかの実施形態では、要求は、自動ズーム基準が満たされているときに受信される(例えば、自動ズーム基準は、電子デバイスが第1のカメラ(例えば、前カメラ)を使用して、カメラの視野をキャプチャするとき、及び/又は電子デバイスが1つ以上の他のモード(例えば、ポートレートモード、写真モード、ライブ通信セッションに関連付けられたモード)にあると満たされる基準を含む)。いくつかの実施形態では、第1のズームレベル(例えば、1620A)を第3のズームレベル(例えば、1620B)に変更する要求を受信したことに応答して、電子デバイス(例えば、600)は、第1の表現(例えば、1682)の表示を、カメラの視野の第3の表現(例えば、ライブプレビュー(例えば、キャプチャされ得るメディアのライブフィード))に置き換える(1722)。いくつかの実施形態では、第3の表現は、第1のカメラの向きにあり、かつ第3のズームレベルである。いくつかの実施形態では、第3のズームレベル(例えば、1620B)は、第2のズームレベル(例えば、1620A及び1620B)と同じである。いくつかの実施形態では、ユーザは、ピンチアウト(例えば、2つの接触間の距離が増加するように2つの接触がお互いに対して動く)ジェスチャを使用して、第1のズームレベル(例えば、80%)から第3のズームレベル(例えば、第2のズームレベル(例えば、100%))(例えば、カメラの視野をより少なくキャプチャする)に表現上でズームインすることができる。いくつかの実施形態では、ユーザは、ピンチイン(例えば、2本の指が近づく)ジェスチャを使用して、第1のズームレベル(例えば、100%)から第3のズームレベル(例えば、第2のズームレベル(例えば、80%))(例えば、カメラの視野をより多くキャプチャする)に表現上でズームアウトすることができる。 In some embodiments, the electronic device (eg, 600) has a third zoom level (eg, 1620A) while displaying a first representation of the camera's field of view (eg, 1682). Receives a request (eg, a pinch gesture on the camera user interface) to change to the zoom level (eg, 1620B) of (1720). In some embodiments, the request is received when the auto-zoom criteria are met (eg, auto-zoom criteria are cameras where the electronic device uses a first camera (eg, a front camera). When capturing a field of view, and / or including criteria that are met when the electronic device is in one or more other modes (eg, portrait mode, photo mode, mode associated with a live communication session). In some embodiments, the electronic device (eg, 600) receives a request to change the first zoom level (eg, 1620A) to a third zoom level (eg, 1620B). The display of the first representation (eg, 1682) is replaced with a third representation of the camera's field of view (eg, live preview (eg, live feed of media that can be captured)) (1722). In some embodiments, the third representation is in the orientation of the first camera and is the third zoom level. In some embodiments, the third zoom level (eg, 1620B) is the same as the second zoom level (eg, 1620A and 1620B). In some embodiments, the user uses a pinch-out (eg, the two contacts move relative to each other so that the distance between the two contacts increases) gesture to a first zoom level (eg, for example). You can expressively zoom in from 80%) to a third zoom level (eg, a second zoom level (eg, 100%)) (eg, capturing less camera field of view). In some embodiments, the user uses a pinch-in (eg, two-finger approach) gesture to move from a first zoom level (eg, 100%) to a third zoom level (eg, a second). You can expressively zoom out to a zoom level (eg, 80%)) (eg, capture more of the camera's field of view).

いくつかの実施形態では、カメラの視野の第1の表現(例えば、1682)を表示している間に、電子デバイス(例えば、600)は、ズームトグルアフォーダンス(例えば、1616)(例えば、選択可能ユーザインタフェースオブジェクト)を表示する(例えば、第1のカメラユーザインタフェース及び第2のカメラユーザインタフェースに表示する)(1724)。カメラの視野の第1の表現を表示している間に、ズームトグルアフォーダンスを表示することにより、ユーザが、必要であれば、迅速かつ容易に第1の表現のズームレベルを手動で調整することを可能にする。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、電子デバイス(例えば、600)は、ズームトグルアフォーダンス(例えば、1616)(例えば、選択可能ユーザインタフェースオブジェクト)の選択に対応する第2の入力(例えば、1695I)(例えば、アフォーダンス上でのタップ)を検出する(1726)。いくつかの実施形態では、ズームトグルアフォーダンスの選択は、第1のズームレベルを第4のズームレベルに変更する要求である。いくつかの実施形態では、第2の入力を検出したことに応答して、電子デバイス(例えば、600)は、第1の表現(例えば、1682)の表示を、カメラの視野の第4の表現(例えば、ライブプレビュー(例えば、キャプチャされ得るメディアのライブフィード))に置き換える(1728)。いくつかの実施形態では、第4の表現(例えば、ライブプレビュー(例えば、キャプチャされ得るメディアのライブフィード))は、第1のカメラの向きにあり、かつ第4のズームレベルである。いくつかの実施形態では、第4のズームレベルは、第2のズームレベルと同じである。いくつかの実施形態では、ユーザは、アフォーダンスをタップして、第1のズームレベル(例えば、80%)から第3のズームレベル(例えば、第2のズームレベル(例えば、100%))(例えば、カメラの視野をより少なくキャプチャする)に表現上でズームインする。いくつかの実施形態では、ユーザは、アフォーダンスをタップして、第1のズームレベル(例えば、100%)から第3のズームレベル(例えば、第2のズームレベル(例えば、80%))(例えば、カメラの視野をより多くキャプチャする)に表現上でズームアウトすることができる。いくつかの実施形態では、選択されると、ズームレベルを変更するアフォーダンスは、選択されると、ズームイン状態とズームアウト状態との間をトグルすることができる(例えば、アフォーダンスの表示は、次の選択が表現をズームアウト又はズームインさせることを示すために変化することができる)。 In some embodiments, the electronic device (eg, 600) is zoom toggle affordance (eg, 1616) (eg, selectable) while displaying the first representation of the camera's field of view (eg, 1682). Display a user interface object) (eg, display in a first camera user interface and a second camera user interface) (1724). By displaying the zoom toggle affordance while displaying the first representation of the camera's field of view, the user can quickly and easily manually adjust the zoom level of the first representation if necessary. To enable. By providing additional control options without cluttering the UI with the additional controllers displayed, the user-device interface is enhanced (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved. In some embodiments, the electronic device (eg, 600) has a second input (eg, 1695I) (eg, 1695I) (eg, 1695I) that corresponds to the selection of a zoom toggle affordance (eg, 1616) (eg, selectable user interface object). (Tap on affordance) is detected (1726). In some embodiments, the choice of zoom toggle affordance is a requirement to change the first zoom level to a fourth zoom level. In some embodiments, in response to detecting a second input, the electronic device (eg, 600) displays the first representation (eg, 1682) as a fourth representation of the camera's field of view. Replace with (eg, live preview (eg, live feed of media that can be captured)) (1728). In some embodiments, the fourth representation (eg, live preview (eg, live feed of media that can be captured)) is oriented to the first camera and is the fourth zoom level. In some embodiments, the fourth zoom level is the same as the second zoom level. In some embodiments, the user taps the affordance to from a first zoom level (eg, 80%) to a third zoom level (eg, a second zoom level (eg, 100%)) (eg, 100%). , Capture less of the camera's field of view) to zoom in on the representation. In some embodiments, the user taps the affordance from a first zoom level (eg, 100%) to a third zoom level (eg, a second zoom level (eg, 80%)) (eg, 80%). , Capture more of the camera's field of view) can be expressively zoomed out. In some embodiments, affordances that change the zoom level when selected can toggle between zoomed in and zoomed out states (eg, the affordance display is as follows: The choice can be changed to indicate that the expression is zoomed out or zoomed in).

いくつかの実施形態では、ズームトグルアフォーダンス(例えば、1616)は、第1のカメラユーザインタフェース(例えば、1680)内及び第2のカメラインタフェース(例えば、1690)に表示される。いくつかの実施形態では、ズームトグルアフォーダンス(例えば、1616)は、選択されると、第2のズームレベルを使用してメディアをキャプチャするように電子デバイスを構成するインジケーションとともに、第1のカメラユーザインタフェース内に最初に表示され、かつ選択されると、第1のズームレベルを使用してメディアをキャプチャするように電子デバイス(例えば、600)を構成するインジケーションとともに、第2のカメラユーザインタフェース内に最初に表示される。 In some embodiments, the zoom toggle affordance (eg, 1616) is displayed within the first camera user interface (eg, 1680) and in the second camera interface (eg, 1690). In some embodiments, a zoom toggle affordance (eg, 1616), when selected, is a first camera, along with an interface that configures the electronic device to capture media using a second zoom level. A second camera user interface, with indications that, when first displayed and selected in the user interface, configure an electronic device (eg, 600) to capture media using the first zoom level. First displayed in.

いくつかの実施形態では、カメラの視野の第1の表現(例えば、1682)を表示している間に、電子デバイス(例えば、600)は、第1のズームレベル(例えば、1620A)を第3のズームレベル(例えば、1620B)に変更する要求(例えば、カメラユーザインタフェース上でのピンチジェスチャ(例えば、1695D〜1695I))を受信する。いくつかの実施形態では、要求は、電子デバイス(例えば、600)が第1のモードで動作しているときに受信される(例えば、電子デバイスが第1のカメラ(例えば、前カメラ)を使用して、カメラの視野をキャプチャするという判定、及び/又はデバイスが1つ以上の他のモード(例えば、ポートレートモード、写真モード、ライブ通信セッションに関連付けられたモード)で動作しているという判定を含むモード)。いくつかの実施形態では、第1のズームレベル(例えば、1620A)を第3のズームレベル(例えば、1620C)に変更する要求を受信したことに応答して、電子デバイス(例えば、600)は、第1の表現(例えば、1682)の表示を、カメラの視野の第5の表現(例えば、ライブプレビュー(例えば、キャプチャされ得るメディアのライブフィード))に置き換える。いくつかの実施形態では、第5の表現は、第1のカメラの向きにあり、かつ第5のズームレベルである。いくつかの実施形態では、第5のズームレベルは、第2のズームレベルとは異なる。いくつかの実施形態では、ユーザは、デバイスの向きが変更されると、デバイスが表現を自動的に表示しないズームレベルまで、表現をズームイン及びズームアウトすることができる。 In some embodiments, the electronic device (eg, 600) has a third zoom level (eg, 1620A) while displaying a first representation of the camera's field of view (eg, 1682). Receives a request to change to a zoom level of (eg, 1620B) (eg, a pinch gesture on the camera user interface (eg, 1695D to 1695I)). In some embodiments, the request is received when the electronic device (eg, 600) is operating in the first mode (eg, the electronic device uses a first camera (eg, front camera)). And / or the determination that the camera's field of view is captured and / or that the device is operating in one or more other modes (eg, portrait mode, photo mode, mode associated with a live communication session). Modes including). In some embodiments, the electronic device (eg, 600) receives a request to change the first zoom level (eg, 1620A) to a third zoom level (eg, 1620C). The display of the first representation (eg, 1682) is replaced with a fifth representation of the camera's field of view (eg, a live preview (eg, a live feed of media that can be captured)). In some embodiments, the fifth representation is in the orientation of the first camera and is the fifth zoom level. In some embodiments, the fifth zoom level is different from the second zoom level. In some embodiments, the user can zoom in and out on a representation to a zoom level at which the device does not automatically display the representation when the device is reoriented.

いくつかの実施形態では、カメラは、第1のカメラ(例えば、前面カメラ(例えば、第1の側(例えば、電子デバイスの前面ハウジング)に配置されるカメラ)と、第1のカメラとは異なる第2のカメラ(例えば、背面カメラ(例えば、背面側(例えば、電子デバイスの背面ハウジング)に配置される))と、を含む。いくつかの実施形態では、自動ズーム基準は、電子デバイス(例えば、600)が第1のカメラユーザインタフェース(例えば、1680、1690)(例えば、デバイスのユーザによって、カメラの視野の表現が表示されるように設定され、カメラが第1又は第2のカメラに対応する)内に第1のカメラの視野の表現を表示しており、第2のカメラの視野の表現を表示していないと満たされる基準を含む。いくつかの実施形態では、自動ズーム基準が満たされていない(例えば、デバイスが第1のカメラではなく第2のカメラの視野の表現を表示している)(例えば、図16J〜図16K)という判定に従って、電子デバイス(例えば、600)は、ユーザ入力を介在することなく自動的に、第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向き(例えば、横向き)でメディアをキャプチャする第2のカメラユーザインタフェース(例えば、1690)を表示するのをやめる。自動ズーム基準が満たされていないという判定に従って、ユーザ入力を介在することなく自動的に、第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示するのをやめることは、第2のカメラユーザインタフェースへの意図しないアクセスを防ぐ。条件のセットが満たされなかったときに動作を行うのを自動的にやめることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the camera differs from the first camera (eg, a front camera (eg, a camera located on the first side (eg, the front housing of the electronic device)) and the first camera. Includes a second camera (eg, a rear camera (eg, located on the back side (eg, the back housing of the electronic device)). In some embodiments, the automatic zoom reference is an electronic device (eg, eg). , 600) is set to display a representation of the camera's field of view by the user of the first camera user interface (eg, 1680, 1690) (eg, the device), and the camera corresponds to the first or second camera. Includes criteria that are satisfied if the representation of the field of view of the first camera is displayed and the representation of the field of view of the second camera is not displayed. In some embodiments, the automatic zoom criteria are met. According to the determination (eg, the device is displaying a representation of the field of view of the second camera rather than the first camera) (eg, FIGS. 16J-16K), the electronic device (eg, 600) is A second camera user interface (eg, landscape) that automatically captures media in a second camera orientation (eg, landscape) at a second zoom level that is different from the first zoom level, without the intervention of user input. , 1690). According to the determination that the automatic zoom criteria are not met, the media is automatically captured at the second zoom level and in the second camera orientation without the intervention of user input. Stopping displaying the second camera user interface prevents unintended access to the second camera user interface. Automatically stop operating when a set of conditions is not met. Improves the usability of the device and makes the user-device interface (eg, by assisting the user in providing proper input when operating / interacting with the device and reducing user error). By making the device more efficient and, in addition, allowing the user to use the device faster and more efficiently, the power usage of the device is reduced and the battery life is improved.

いくつかの実施形態では、自動ズーム基準は、電子デバイス(例えば、600)がビデオキャプチャ動作モードになっていないと満たされる基準を含む(例えば、電子デバイスが複数の参加者間のライブ通信セッションにある間にキャプチャされたビデオを含まないビデオをキャプチャする、ビデオをストリーミングする(図16M〜図16N))。 In some embodiments, the auto-zoom criteria includes criteria that are met when the electronic device (eg, 600) is not in video capture operating mode (eg, the electronic device is in a live communication session between multiple participants). Stream the video, capturing the video that does not contain the video captured in the meantime (FIGS. 16M-16N).

いくつかの実施形態では、自動ズーム基準は、ライブ通信セッションのビデオをキャプチャするように電子デバイス(例えば、600)が構成されていると満たされる基準を含む(例えば、複数の参加者間のライブビデオチャットで通信する(例えば、ライブビデオチャットモード)、ライブ通信セッションを促すユーザインタフェースを表示する(例えば、第1のカメラユーザインタフェースがライブ通信セッションインタフェースである)(例えば、図16P〜図16Q))。 In some embodiments, the auto-zoom criteria includes criteria that are met when an electronic device (eg, 600) is configured to capture video for a live communication session (eg, live between multiple participants). Communicate via video chat (eg, live video chat mode), display a user interface that encourages a live communication session (eg, the first camera user interface is the live communication session interface) (eg, FIGS. 16P-16Q). ).

いくつかの実施形態では、第1のズームレベルは、第2のズームレベルよりも高い(例えば、第1のズームレベルは、10×であり、第2のズームレベルは、1×であり、第1のズームレベルは、100%であり、第2のズームレベルは、80%である)。いくつかの実施形態では、第2のカメラユーザインタフェース(例えば、1690)を表示している間に、電子デバイス(例えば、600)は、第2の向き(例えば、1604)から第1の向き(例えば、1602)への電子デバイスの向きの変化を検出する。いくつかの実施形態では、第2の向きから第1の向きへの電子デバイス(例えば、600)の向きの変化(例えば、ランドスケープモードからポートレートモードへとデバイスを切り替えること)を検出したことに応答して、電子デバイスは、表示デバイス上に、第1のカメラユーザインタフェース(例えば、1680)を表示する。いくつかの実施形態では、デバイスを横向き(例えば、ランドスケープモード)から縦向き(例えば、ポートレートモード)に切り替えるときに、カメラユーザインタフェースは、ズームインし、デバイスを縦向きから横向きに切り替えるときに、ズームアウトする。 In some embodiments, the first zoom level is higher than the second zoom level (eg, the first zoom level is 10x, the second zoom level is 1x, and the second The zoom level of 1 is 100%, and the second zoom level is 80%). In some embodiments, while displaying the second camera user interface (eg, 1690), the electronic device (eg, 600) is oriented from the second orientation (eg, 1604) to the first orientation (eg, 1604). For example, the change in the orientation of the electronic device to 1602) is detected. In some embodiments, detecting a change in orientation of an electronic device (eg, 600) from a second orientation to a first orientation (eg, switching the device from landscape mode to portrait mode). In response, the electronic device displays a first camera user interface (eg, 1680) on the display device. In some embodiments, when switching the device from landscape (eg landscape mode) to portrait (eg portrait mode), the camera user interface zooms in and switches the device from portrait to landscape. Zoom out.

方法1700に関して上述された処理(例えば、図17A〜図17B)の詳細はまた、上記及び以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1900、2000、2100、2300、2500、2700、2800、3000、3200、3400、3600、及び3800は、方法1700を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。 It should be noted that the details of the processes described above for Method 1700 (eg, FIGS. 17A-17B) are also applicable to the methods described above and below in a similar manner. For example, methods 700, 900, 1100, 1300, 1500, 1900, 2000, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3400, 3600, and 3800 are various described above with reference to Method 1700. Optionally include one or more of the properties of the method. For the sake of brevity, these details will not be repeated below.

図18A〜図18Xは、いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図19A〜図19B、図20A〜図20C、及び図21A〜図21Cにおける処理を含む、以下で説明される処理を示すために使用される。 18A-18X show exemplary user interfaces for managing media using electronic devices according to some embodiments. The user interfaces in those figures are used to indicate the processes described below, including the processes in FIGS. 19A-19B, 20A-20C, and 21A-21C.

具体的には、図18A〜図18Xは、異なるレベルの可視光を有するいくつかの環境で動作するデバイス600を示す。低光閾値(例えば、20ルクス)を下回る光量を有する環境は、低光環境と呼ばれる。低光閾値を上回る光量を有する環境は、通常環境と呼ばれる。以下の実施例では、デバイス600は、1つ以上のカメラを介して、環境内(例えば、1つ以上のカメラの視野内(FOV))の光量の変化があるかどうかを検出し、デバイス600が低光環境又は通常環境で動作しているかどうかを判定することができる。以下の説明は、デバイス600が低光環境内で動作しているか、又はその外で動作しているかどうかに基づいて、異なるユーザインタフェースを提供することの相互作用を示す。 Specifically, FIGS. 18A-18X show devices 600 operating in several environments with different levels of visible light. An environment having a light intensity below a low light threshold (eg, 20 lux) is called a low light environment. An environment having an amount of light exceeding the low light threshold is called a normal environment. In the following examples, the device 600 detects whether there is a change in the amount of light in the environment (eg, in the field of view (FOV) of the one or more cameras) through the device 600 and the device 600. Can be determined whether is operating in a low light environment or a normal environment. The following description shows the interaction of providing different user interfaces based on whether the device 600 is operating in or out of a low light environment.

図18Aに示すように、デバイス600は、カメラディスプレイ領域604、コントロール領域606、及びインジケータ領域602を含む、カメラユーザインタフェースを表示する。ライブプレビュー630は、FOVの表現である。 As shown in FIG. 18A, the device 600 displays a camera user interface that includes a camera display area 604, a control area 606, and an indicator area 602. The live preview 630 is an expression of FOV.

ライブプレビュー630は、明るく照らされた環境において写真を撮影するためにポーズをとる人を示す。それゆえ、FOV内の光量は低光閾値を上回り、デバイス600は、低光環境では動作していない。デバイス600は、低光環境で動作していないため、デバイス600は、FOV内のデータを連続的にキャプチャし、標準フレームレートに基づいてライブプレビュー630を更新する。 Live preview 630 shows a person posing to take a picture in a brightly lit environment. Therefore, the amount of light in the FOV exceeds the low light threshold, and the device 600 is not operating in a low light environment. Since the device 600 is not operating in a low light environment, the device 600 continuously captures the data in the FOV and updates the live preview 630 based on the standard frame rate.

図18Bに示すように、デバイス600は、低光環境において写真を撮影するためにポーズをとる人を示すライブプレビュー630を表示し、この低光環境は、ライブプレビュー630が視覚的に暗い画像を表示することによって明らかである。デバイス600は、低光環境で動作しているため、デバイス600は、低光モード状態インジケータ602c及びフラッシュ状態インジケータ602aを表示する。低光モード状態インジケータ602cは、低光モードが非アクティブである(例えば、低光モードで動作するようにデバイス600が構成されていない)ことを示し、フラッシュ状態インジケータ602aは、フラッシュ動作がアクティブである(例えば、画像をキャプチャするときにフラッシュ動作を実行するようにデバイス600が構成されている)ことを示す。いくつかの実施形態では、フラッシュ状態インジケータ602aは、デバイス600が低光環境で動作していない場合であっても、コントロール領域606内に出現することができる。図18Bでは、デバイス600は、低光モード状態インジケータ602c上の入力1895Aを検出する。 As shown in FIG. 18B, the device 600 displays a live preview 630 showing a person posing to take a picture in a low light environment, in which the live preview 630 produces a visually dark image. It is clear by displaying. Since the device 600 operates in a low light environment, the device 600 displays the low light mode state indicator 602c and the flash state indicator 602a. The low light mode state indicator 602c indicates that the low light mode is inactive (eg, the device 600 is not configured to operate in the low light mode), and the flash state indicator 602a indicates that the flash operation is active. Indicates that (eg, the device 600 is configured to perform a flash operation when capturing an image). In some embodiments, the flash state indicator 602a can appear within the control area 606 even when the device 600 is not operating in a low light environment. In FIG. 18B, device 600 detects input 1895A on the low light mode state indicator 602c.

図18Cに示すように、入力1895Aに応答して、デバイス600は、低光モード状態インジケータ602cを更新して、低光モードがアクティブであることを示し、フラッシュモード状態インジケータ602aを更新して、フラッシュ動作が非アクティブであることを示す。本実施形態では、より暗い環境においてメディアをキャプチャするときに、光モード及びフラッシュ動作が両方とも有用である間、低光モードは、フラッシュ動作と互いに排他的である。更には、入力1895Aに応答して、デバイス600は、低光モードでメディアをキャプチャするキャプチャ持続時間を設定するための調整可能な低光モードコントロール1804を表示する。調整可能な低光モードコントロール1804上のインジケーション1818は、低光モードが特定のキャプチャ持続時間に設定されていることを示し、調整可能な低光モードコントロール1804上の各ティックマークは、異なるキャプチャ持続時間を表す。 As shown in FIG. 18C, in response to input 1895A, the device 600 updates the low light mode state indicator 602c to indicate that the low light mode is active and updates the flash mode state indicator 602a. Indicates that the flash operation is inactive. In this embodiment, when capturing media in a darker environment, the low light mode is mutually exclusive with the flash operation, while both the light mode and the flash operation are useful. Further, in response to input 1895A, device 600 displays an adjustable low light mode control 1804 for setting the capture duration of capturing media in low light mode. The indication 1818 on the adjustable low light mode control 1804 indicates that the low light mode is set to a specific capture duration, and each tick mark on the adjustable low light mode control 1804 is a different capture. Represents the duration.

特に、ライブプレビュー630は、図18Bのものよりも図18Cで視覚的に明るい。これは、低光モードがアクティブであるとき、デバイス600が、より低いフレームレート(例えば、より長い露出時間に対応する)を使用して、そのカメラのうちの1つ以上を動作させるためである。低光環境における標準フレームレート(例えば、より高いフレームレート)を使用すると、各フレームに対する露出時間が短いため、(図18Bに示すように)より暗い画像をキャプチャする。したがって、デバイス600が低光モードで動作しているとき(18Cに示すように)、デバイス600は、標準フレームレートからフレームレートを低下させる。 In particular, the live preview 630 is visually brighter in FIG. 18C than that in FIG. 18B. This is because when the low light mode is active, the device 600 uses a lower frame rate (eg, corresponding to a longer exposure time) to operate one or more of its cameras. .. Using standard frame rates (eg, higher frame rates) in low light environments captures darker images (as shown in FIG. 18B) due to the shorter exposure time for each frame. Therefore, when the device 600 is operating in low light mode (as shown in 18C), the device 600 reduces the frame rate from the standard frame rate.

図18Cにおいて、デバイス600は、実質的に静止状態に保持されており、FOV内の対象は、同様に実質的に静止している。いくつかの実施形態では、FOV内のコンテンツが閾値速さを上回って動いている場合(例えば、デバイス600の移動及び/又はFOV内の対象の移動に起因して)、デバイス600は、コンテンツがFOV内で動くと、低いフレームレートでは画像がぼやける可能性があるため、フレームレートを低下させるのをやめるか、移動が検出されない場合よりもフレームレートを下げる度合いをより低くする。デバイス600は、環境内の低光量によるフレームレートの減少と、環境内で検出された移動によるフレームレートの増加との間のオプションをバランスするように構成することができる。 In FIG. 18C, the device 600 is held in a substantially stationary state, and the object in the FOV is also substantially stationary. In some embodiments, if the content in the FOV is moving above a threshold rate (eg, due to the movement of the device 600 and / or the movement of the object in the FOV), the device 600 will have the content. Moving within the FOV can blur the image at low frame rates, so either stop lowering the frame rate or lower the frame rate less than if no movement was detected. The device 600 can be configured to balance the options between a decrease in frame rate due to low light intensity in the environment and an increase in frame rate due to movement detected in the environment.

図18Dに示すように、入力1895Bを検出したことに応答して、デバイス600は、低光モードを使用してメディアをキャプチャすることを開始した。メディアのキャプチャを開始すると、ライブプレビュー630は、表示を停止される。具体的には、ライブプレビュー630は、暗色化して黒くなる。更には、デバイス600はまた、シャッターアフォーダンス610の表示を、停止アフォーダンス1806に置き換え、触知応答1820Aを生成する。停止アフォーダンス1806は、停止アフォーダンス1806上の入力によって低光モードキャプチャを停止することができることを示す。更に入力1895Bを検出したことに応答して、デバイス600はまた、インジケーション1818の移動をキャプチャ持続時間がゼロに向かって開始する(例えば、1秒からゼロまでのカウントダウン)。いくつかの実施形態では、調整可能な低光モードコントロール1804はまた、入力1895Bを検出したことに応答して、色が変化する(例えば、白から赤)。 As shown in FIG. 18D, in response to detecting input 1895B, device 600 began capturing media using low light mode. When the media capture is started, the live preview 630 is stopped displaying. Specifically, the live preview 630 is darkened and turned black. Furthermore, the device 600 also replaces the display of the shutter affordance 610 with a stop affordance 1806 to generate a tactile response 1820A. The stop affordance 1806 indicates that the low light mode capture can be stopped by the input on the stop affordance 1806. Further, in response to detecting input 1895B, the device 600 also initiates the movement of the indication 1818 towards zero capture duration (eg, a countdown from 1 second to zero). In some embodiments, the adjustable low light mode control 1804 also changes color in response to detecting input 1895B (eg, white to red).

図18Eに示すように、メディアをキャプチャする間に、デバイス600は、調整可能な低光モードコントロール1804上のインジケーション1818を、ほぼゼロであるキャプチャ持続時間に移動させる。図18Eに示すように、ライブプレビュー630は、1秒のキャプチャ持続時間(例えば、18Eで)とほぼゼロのキャプチャ持続時間との間にキャプチャされたメディアの表現とともに表示される。 As shown in FIG. 18E, while capturing the media, the device 600 moves the indication 1818 on the adjustable low light mode control 1804 to a capture duration that is near zero. As shown in FIG. 18E, the live preview 630 is displayed with a representation of the captured media between a capture duration of 1 second (eg, at 18E) and a capture duration of near zero.

図18Fに示すように、低光モードでのメディアのキャプチャを完了した後、デバイス600は、キャプチャされたメディアの表現1812を表示する。デバイス600は、メディアがキャプチャされた後に、停止アフォーダンス1806の表示を、シャッターアフォーダンス610に置き換える。低光モード状態インジケータ602cは、低光モードがアクティブであることを示すが、デバイス600は、低光モード状態インジケータ602c上の入力1895Cを検出する。 As shown in FIG. 18F, after completing the capture of the media in low light mode, the device 600 displays a representation 1812 of the captured media. The device 600 replaces the display of the stop affordance 1806 with the shutter affordance 610 after the media has been captured. The low light mode state indicator 602c indicates that the low light mode is active, but the device 600 detects input 1895C on the low light mode state indicator 602c.

図18Gに示すように、入力1895Cを受信したことに応答して、デバイス600は、低光モード状態インジケータ602cを更新して、低光モードが非アクティブであることを示し、フラッシュ状態インジケータ602aを更新して、フラッシュ動作がアクティブであることを示す。更に、入力1895Cを検出したことに応答して、デバイス600は、調整可能な低光モードコントロール1804の表示を停止する。いくつかの実施形態では、デバイス600が低光条件で標準条件まで動作するとき、調整可能な低光モードコントロール1804は、任意のユーザ入力なしに自動的に表示を停止される。 As shown in FIG. 18G, in response to receiving input 1895C, the device 600 updates the low light mode state indicator 602c to indicate that the low light mode is inactive and sets the flash state indicator 602a. Update to indicate that the flash operation is active. Further, in response to detecting input 1895C, the device 600 stops displaying the adjustable low light mode control 1804. In some embodiments, the adjustable low light mode control 1804 is automatically stopped displaying without any user input when the device 600 operates under low light conditions up to standard conditions.

特に、低光モードが非アクティブであるため、デバイス630は、そのカメラの1つ以上のカメラのフレームレートを増加させ、ライブプレビュー630は、図18Bのように、視覚的により暗くなる。図18Gでは、デバイス600は、デバイス600が追加のカメラコントロールアフォーダンス614に隣接して表示した、低光モードコントローラアフォーダンス614b上の入力1895Dを検出する。 In particular, because the low light mode is inactive, the device 630 increases the frame rate of one or more cameras of that camera, and the live preview 630 is visually darker, as shown in FIG. 18B. In FIG. 18G, the device 600 detects the input 1895D on the low light mode controller affordance 614b that the device 600 displayed adjacent to the additional camera control affordance 614.

図18Hに示すように、入力1895Dを検出したことに応答して、デバイス600は、低光モード状態インジケータ602cを更新して、低光モードがアクティブであることを示し、フラッシュ状態インジケータ602cを更新して、フラッシュ動作が非アクティブであることを示す。デバイス600は、以前の1秒のキャプチャ持続時間に設定されたインジケーション1818とともに、調整可能な低光モードコントロール1804を再表示する。特に、低光モードがアクティブであるため、デバイス600は、そのカメラの1つ以上のカメラのフレームレートを減少させ、ライブプレビュー630を、図18Cのように、視覚的により明るくする。図18Hでは、デバイス600は、インジケーション1818上の入力1895Eを検出して、調整可能な低光モードコントロール1804を新しいキャプチャ持続時間に調整する。 As shown in FIG. 18H, in response to detecting input 1895D, the device 600 updates the low light mode state indicator 602c to indicate that the low light mode is active and updates the flash state indicator 602c. To indicate that the flash operation is inactive. The device 600 redisplays the adjustable low light mode control 1804 with the indication 1818 set to the previous capture duration of 1 second. In particular, because the low light mode is active, the device 600 reduces the frame rate of one or more cameras of that camera, making the live preview 630 visually brighter, as in FIG. 18C. In FIG. 18H, device 600 detects input 1895E on the indication 1818 and adjusts the adjustable low light mode control 1804 to a new capture duration.

図18Iに示すように、入力1895Eを受信したことに応答して、デバイス600は、1秒のキャプチャ持続時間から2秒のキャプチャ持続時間にインジケーション1818を動かす。1秒の持続時間から2秒のキャプチャ持続時間までインジケーション1818を動かす間、デバイス600は、ライブプレビュー630を明るくする。いくつかの実施形態では、デバイス600は、デバイス600の1つ以上のカメラのフレームレートを減少させる(例えば、更に減少させる)ことにより、及び/又は1つ以上の画像処理技術を適用することにより、より明るいライブプレビュー630を表示する。図18Iでは、デバイス600は、インジケーション1818上の入力1895Fを検出して、調整可能な低光モードコントロール1804を新しいキャプチャ持続時間に調整する。いくつかの実施形態では、入力1895Fは、入力1895Eの第2の部分である(例えば、1895E及び1895Fを含む連続的なドラッグ入力)。 As shown in FIG. 18I, in response to receiving input 1895E, device 600 moves the indication 1818 from a capture duration of 1 second to a capture duration of 2 seconds. The device 600 brightens the live preview 630 while moving the indication 1818 from a duration of 1 second to a capture duration of 2 seconds. In some embodiments, the device 600 reduces (eg, further reduces) the frame rate of one or more cameras of the device 600 and / or by applying one or more image processing techniques. , Display a brighter live preview 630. In FIG. 18I, device 600 detects input 1895F on the indication 1818 and adjusts the adjustable low light mode control 1804 to a new capture duration. In some embodiments, the input 1895F is a second portion of the input 1895E (eg, a continuous drag input involving 1895E and 1895F).

図18Jに示すように、入力1895Fを検出したことに応答して、デバイス600は、2秒のキャプチャ持続時間から4秒のキャプチャ持続時間にインジケーション1818を動かす。2秒のキャプチャ持続時間から4秒のキャプチャ持続時間までインジケーション1818を動かす間、デバイス600は、ライブプレビュー630を更に明るくする。図10Jでは、デバイス600は、シャッターアフォーダンス610上の入力1895Gを検出する。図18K〜図18Mに示すように、入力1895Gを検出したことに応答して、デバイス600は、図18Kに設定された4秒のキャプチャ持続時間に基づいて、メディアのキャプチャを開始する。図18K〜図18Mは、巻き取りアニメーション1814を示す。巻き取りアニメーション814は、急速に進行する前の0秒(18K)で開始し、4秒マーク(18M)に到達する前の2秒マーク(18L)までの低光モードコントロール1804のアニメーションを含み、これは、調整可能な低光モードコントロール1804のキャプチャされた持続時間(例えば、4秒)に等しい。巻き取りアニメーションは、様々な段階で触知出力を生成する。巻き取りアニメーション1814は、低光モードメディアキャプチャの開始に対応する。いくつかの実施形態では、巻き取りアニメーションは、等間隔で図18K〜図18Mを表示する滑らかなアニメーションである。いくつかの実施形態では、デバイス600は、巻き取りアニメーション(例えば、触知出力1820B〜1820D)とともに触知出力を生成する。いくつかの実施形態では、巻き取りアニメーションは、比較的短い時間(例えば、0.25秒、0.5秒)で発生する。 As shown in FIG. 18J, in response to detecting the input 1895F, the device 600 moves the indication 1818 from a capture duration of 2 seconds to a capture duration of 4 seconds. While moving the indication 1818 from a capture duration of 2 seconds to a capture duration of 4 seconds, the device 600 further brightens the live preview 630. In FIG. 10J, device 600 detects input 1895G on the shutter affordance 610. As shown in FIGS. 18K-18M, in response to detecting input 1895G, device 600 initiates media capture based on the 4 second capture duration set in FIG. 18K. 18K-18M show take-up animation 1814. The take-up animation 814 includes an animation of the low light mode control 1804 starting at 0 seconds (18K) before rapid progress and up to the 2 seconds mark (18L) before reaching the 4 seconds mark (18M). This is equal to the captured duration of the adjustable low light mode control 1804 (eg 4 seconds). The take-up animation produces tactile output at various stages. Winding animation 1814 corresponds to the start of low light mode media capture. In some embodiments, the take-up animation is a smooth animation that displays FIGS. 18K-18M at equal intervals. In some embodiments, the device 600 produces a tactile output along with a take-up animation (eg, tactile outputs 1820B-1820D). In some embodiments, the take-up animation occurs in a relatively short time (eg, 0.25 seconds, 0.5 seconds).

巻き取りアニメーション1814を表示した後、デバイス600は、図18M〜図18Qに示すように、巻き出しアニメーション1822を表示する。巻き出しアニメーション1822は、キャプチャ持続時間に基づいて発生し、発生する画像キャプチャと一致する。巻き出し(Wounding down)アニメーションは、様々な段階で触知出力を生成する。図18Mに戻ると、デバイス600は、4秒のキャプチャ持続時間でインジケーション1818を表示する。 After displaying the take-up animation 1814, the device 600 displays the take-up animation 1822 as shown in FIGS. 18M-18Q. The unwind animation 1822 occurs based on the capture duration and matches the resulting image capture. Wounding down animation produces tactile output at various stages. Returning to FIG. 18M, the device 600 displays the indication 1818 with a capture duration of 4 seconds.

図18Nに示すように、デバイス600は、4秒のキャプチャ持続時間から3.5秒までインジケーション1818を動かし、ライブプレビュー630を更新すること及び触知出力を生成することなく、残りのキャプチャ持続時間を示す。 As shown in FIG. 18N, the device 600 runs the indication 1818 from a capture duration of 4 seconds to 3.5 seconds to update the live preview 630 and generate the remaining capture duration without producing a tactile output. Indicates the time.

図18Oに示すように、デバイス600は、3.5秒のキャプチャ持続時間から3秒のキャプチャ残り持続時間にインジケーション1818を動かした。デバイス600は、ライブプレビュー630を更新して、3秒のキャプチャ残り持続時間までキャプチャされたカメラデータを表す画像を示す。(例えば、1秒のキャプチャされたカメラデータ)。特に、図18N〜図18Oにおいて、デバイス600は、より明るい画像を示すために、ライブプレビュー630を連続的に更新しない。代わりに、デバイス600は、1秒の間隔のキャプチャ持続時間でライブプレビュー630を更新するだけである。ライブプレビュー630を更新することに加えて、デバイス600は、触知出力1820Eを生成する。 As shown in FIG. 18O, the device 600 moved the indication 1818 from a capture duration of 3.5 seconds to a remaining capture duration of 3 seconds. The device 600 updates the live preview 630 to show an image representing camera data captured up to the remaining capture duration of 3 seconds. (For example, 1 second of captured camera data). In particular, in FIGS. 18N-18O, the device 600 does not continuously update the live preview 630 to show a brighter image. Instead, the device 600 only updates the live preview 630 with a capture duration of 1 second interval. In addition to updating the live preview 630, the device 600 produces a tactile output 1820E.

図18Pに示すように、デバイス600は、3秒のキャプチャ残り持続時間から2秒のキャプチャ残り持続時間にインジケーション1818を動かし、触知出力1820Fを生成する。更に、18Nを考慮して、ライブプレビュー630は、ここでは視覚的により明るいが、これは、ライブプレビュー630を1秒の間隔で、追加のキャプチャされたカメラデータで更新するためである。いくつかの実施形態では、ライブプレビューは、1秒以外(例えば、0.5秒、2秒)の間隔で更新された。 As shown in FIG. 18P, the device 600 moves the indication 1818 from the remaining capture duration of 3 seconds to the remaining capture duration of 2 seconds to generate the tactile output 1820F. Further, considering 18N, the live preview 630 is visually brighter here, in order to update the live preview 630 with additional captured camera data at 1 second intervals. In some embodiments, the live preview was updated at intervals other than 1 second (eg, 0.5 seconds, 2 seconds).

図18Qに示すように、デバイス600は、2秒のキャプチャ残り持続時間から0のキャプチャ残り持続時間にインジケーション1818を動かす。図18Qにおいて、ライブプレビュー630は、図18Pのものよりも視覚的に明るい。 As shown in FIG. 18Q, the device 600 moves the indication 1818 from the remaining capture duration of 2 seconds to the remaining capture duration of 0. In FIG. 18Q, the live preview 630 is visually brighter than that of FIG. 18P.

図18Rに示すように、デバイス600は、最大4秒の持続時間にわたってキャプチャを完了し、キャプチャされたメディアの表現1824を表示する。表現1826は、図18O(例えば、1秒のデータ)及び18P(2秒のデータ)のライブプレビューのそれぞれよりも明るく、図18Q(4秒のデータ)のライブプレビューと同等の輝度である。 As shown in FIG. 18R, the device 600 completes the capture for a duration of up to 4 seconds and displays a representation 1824 of the captured media. Representation 1826 is brighter than each of the live previews of FIGS. 18O (for example, 1 second data) and 18P (2 seconds data), and has the same brightness as the live preview of FIG. 18Q (4 seconds data).

いくつかの実施形態では、デバイス600は、メディアをキャプチャする間及び設定されたキャプチャ持続時間の完了前に、停止アフォーダンス820上の入力を検出する。このような実施形態では、デバイス600は、そのポイントまでキャプチャされたデータを使用して、メディアを生成及び記憶する。図18Sは、キャプチャが4秒のキャプチャで1秒停止される実施形態の結果を示す。18Sにおいて、停止される前に1秒の間隔でキャプチャされたメディアの表現1824は、4秒の持続時間にわたってキャプチャされた、図18Rの表現1826よりも顕著に暗くなる。 In some embodiments, the device 600 detects an input on the stop affordance 820 while capturing the media and before the completion of the set capture duration. In such an embodiment, the device 600 uses the data captured up to that point to generate and store media. FIG. 18S shows the result of the embodiment in which the capture is stopped for 1 second after the capture for 4 seconds. At 18S, the media representation 1824 captured at 1 second intervals before being stopped is significantly darker than the representation 1826 of FIG. 18R captured over a duration of 4 seconds.

図18Rに戻ると、デバイス600は、調整可能な低光モードコントロール1804上で入力1895Rを検出する。図18Tに示すように、入力1895Rを検出したことに応答して、デバイス600は、4秒のキャプチャ持続時間から0秒のキャプチャ持続時間にインジケーション1818を動かす。インジケーション1818をゼロキャプチャ持続時間まで動かすことに応答して、デバイス600は、低光モード状態インジケータ602cを更新して、低光モードが非アクティブであることを示す。更には、デバイス600は、フラッシュ状態インジケータ602aを更新して、フラッシュ動作がアクティブであることを示す。したがって、低光モードコントロール1804をゼロの持続時間まで設定することは、低光モードをオフにすることと同等である。 Returning to FIG. 18R, device 600 detects input 1895R on the adjustable low light mode control 1804. As shown in FIG. 18T, in response to detecting input 1895R, device 600 moves the indication 1818 from a capture duration of 4 seconds to a capture duration of 0 seconds. In response to moving the indication 1818 to the zero capture duration, the device 600 updates the low light mode state indicator 602c to indicate that the low light mode is inactive. Furthermore, the device 600 updates the flash status indicator 602a to indicate that the flash operation is active. Therefore, setting the low light mode control 1804 to a duration of zero is equivalent to turning off the low light mode.

図18Tでは、デバイス600は、追加のコントロールアフォーダンス614上の入力1895Sを検出する。図18Uに示すように、入力1895Sを検出したことに応答して、デバイス600は、コントロール領域606に低光モードコントロールアフォーダンス614bを表示する。 In FIG. 18T, device 600 detects input 1895S on an additional control affordance 614. As shown in FIG. 18U, in response to detecting input 1895S, the device 600 displays a low light mode control affordance 614b in the control area 606.

図18V〜図18Xは、3つの異なる周囲環境における、フラッシュ状態インジケータ602c1〜602c3及び低光モード状態インジケータ602c1〜602c3を示す、ユーザインタフェースの様々なセットを示す。図18V〜図18Xは、デバイス600A、600B、及び600Cを示し、各々がデバイス100、300、500、又は600の1つ以上の機能を含む。デバイス600Aは、オンに設定された調整可能なフラッシュコントロールを表示し、デバイス600Bは、自動に設定された調整可能なフラッシュコントロール662Bを表示し、デバイス600Bは、オフに設定された調整可能なフラッシュコントロール662Cを表示する。上述のように、図6H〜図6Iに関連して、調整可能なフラッシュコントロール662は、デバイス600のフラッシュ設定を設定する。 18V-18X show different sets of user interfaces showing flash state indicators 602c1-602c3 and low light mode state indicators 602c1-602c3 in three different ambient environments. 18V-18X show the devices 600A, 600B, and 600C, each comprising one or more functions of the device 100, 300, 500, or 600. Device 600A displays an adjustable flash control set on, device 600B displays an adjustable flash control 662B set automatically, and device 600B displays an adjustable flash set off. Display control 662C. As mentioned above, in connection with FIGS. 6H-6I, the adjustable flash control 662 sets the flash settings for the device 600.

図18Vは、インジケータグラフィック1888によって示されるように、FOV内の光量1888が10ルクス〜0ルクスである周囲環境を示す。FOV内の光量が10ルクス〜0ルクス(例えば、非常に低光モード)であるため、デバイス600は、フラッシュがオフに設定されているときにのみ、アクティブとして低光状態インジケータを表示する。図18Vに示すように、低光インジケータ602c2は、アクティブとして表示された低光インジケータのみであり、フラッシュ状態インジケータ602a2は、調整可能なフラッシュコントロール662Bがオフに設定されているため、非アクティブに設定されたフラッシュ状態インジケータのみである。 FIG. 18V shows the ambient environment in which the amount of light 1888 in the FOV is 10 lux to 0 lux, as indicated by the indicator graphic 1888. Since the amount of light in the FOV is between 10 lux and 0 lux (eg, very low light mode), the device 600 displays the low light condition indicator as active only when the flash is set to off. As shown in FIG. 18V, the low light indicator 602c2 is only the low light indicator displayed as active, and the flash state indicator 602a2 is set to inactive because the adjustable flash control 662B is set to off. Only the flash status indicator that has been used.

図18Wは、FOV内の光量1890が20ルクス〜10ルクスである環境を示す。FOV光量が20ルクス〜10ルクス(例えば、適度に低光)であるため、デバイス600は、フラッシュがオンに設定されているときにのみ、非アクティブとして低光状態インジケータを表示する。図18Wに示すように、低光インジケータ602c1は、非アクティブとして表示された低光インジケータのみであり、フラッシュ状態インジケータ602a1は、調整可能なフラッシュコントロール662Aがオンに設定されているため、アクティブに設定されたフラッシュ状態インジケータのみである。 FIG. 18W shows an environment in which the amount of light in the FOV is 20 lux to 10 lux. Since the FOV light intensity is 20 lux to 10 lux (eg, moderately low light), the device 600 displays the low light condition indicator as inactive only when the flash is set to on. As shown in FIG. 18W, the low light indicator 602c1 is only the low light indicator displayed as inactive, and the flash state indicator 602a1 is set to active because the adjustable flash control 662A is set to on. Only the flash status indicator that has been used.

図18Xは、FOV内の光量1892が20ルクスを上回る周囲環境を示す。FOV内の光量が20ルクス(例えば、標準光)を上回るため、低光インジケータは、デバイス600A〜600Cのいずれにも表示されない。フラッシュ状態インジケータ602c−2は、調整可能なフラッシュコントロール662Aがオンに設定されているため、アクティブに表示される。フラッシュ状態インジケータ602c−3は、調整可能なフラッシュコントロール662Bがオフに設定されているため、非アクティブに表示される。デバイス600Cは、調整可能なフラッシュコントロール662Cが自動に設定されているため、フラッシュ状態インジケータを表示せず、デバイス600は、フラッシュが10ルクスを上回ると自動的に動作しないと判定した。 FIG. 18X shows an ambient environment in which the amount of light 1892 in the FOV exceeds 20 lux. Since the amount of light in the FOV exceeds 20 lux (eg, standard light), the low light indicator is not displayed on any of the devices 600A-600C. The flash status indicator 602c-2 is actively displayed because the adjustable flash control 662A is set to on. The flash status indicator 602c-3 is displayed inactive because the adjustable flash control 662B is set to off. The device 600C did not display the flash status indicator because the adjustable flash control 662C was set automatically, and the device 600 determined that it would not automatically operate when the flash exceeded 10 lux.

図19A〜図19Bは、いくつかの実施形態による電子デバイスを使用してフレームレートを変更するための方法を示すフロー図である。方法1900は、表示デバイス(例えば、タッチ感知ディスプレイ)及び1つ以上のカメラ(例えば、電子デバイスの異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を備えるデバイス(例えば、100、300、500、600)で行われる。方法1900のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 19A-19B are flow diagrams illustrating methods for changing the frame rate using electronic devices according to some embodiments. Method 1900 includes a display device (eg, a touch-sensitive display) and one or more cameras (eg, dual cameras, triple cameras) on different sides of the electronic device (eg, front camera, rear camera). , Quad camera, etc.)) (eg, 100, 300, 500, 600). Some actions of method 1900 are optionally combined, some actions are arbitrarily modified in order, and some actions are optionally omitted.

後述するように、方法1900は、フレームレートを変更するための直感的な仕方を提供する。この方法は、フレームレートを変更する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にフレームレートを変更することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, Method 1900 provides an intuitive way to change the frame rate. This method reduces the user's cognitive burden of changing the frame rate, thereby creating a more efficient human-machine interface. For battery-powered computing devices, it saves power and prolongs the time between battery charges by enabling users to change frame rates faster and more efficiently.

電子デバイス(例えば、600)は、表示デバイスを介して、1つ以上のカメラ(例えば、カメラに視認可能である開放観測可能エリア、カメラレンズから所与の距離の画像の水平(又は垂直又は対角線)長さ)の視野の表現(例えば、630)(例えば、表現オーバータイム、カメラからのデータのライブプレビューフィード)を表示することを含むメディアキャプチャユーザインタフェースを表示する(1902)。 An electronic device (eg, 600) is an open observable area visible to one or more cameras (eg, visible to the camera, horizontal (or vertical or diagonal) of an image at a given distance from the camera lens via a display device. Display a media capture user interface that includes displaying a representation of the field of view (eg, 630) (eg, representation overtime, live preview feed of data from the camera).

いくつかの実施形態では、メディアキャプチャユーザインタフェースを表示することは、可変フレームレート基準が満たされているという判定に従って、可変フレームレートモードがアクティブであるというインジケーション(例えば、602c)(例えば、低光状態インジケータ)を表示する(1906)ことを含む(1904)。可変フレームレート基準が満たされているという判定に従って、可変フレームレートモードがアクティブであるというインジケーションを表示することにより、ユーザに、可変フレームレートモード(例えば、18B及び18Cの630)の状態の視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。いくつかの実施形態では、メディアキャプチャユーザインタフェースを表示することは、可変フレームレート基準が満たされていないという判定に従って、可変フレームレートモードがアクティブであるというインジケーションなしで、メディアキャプチャユーザインタフェースを表示すること(1908)を含む(1904)。いくつかの実施形態では、低光状態インジケータ(例えば、602c)は、デバイスが低光モードで動作していることを示す(例えば、低光状態インジケータは、デバイスが低光モードで動作しているかどうかの状態(例えば、アクティブ又は非アクティブ)を含む)。 In some embodiments, displaying the media capture user interface indicates that the variable frame rate mode is active (eg, 602c) (eg, low) according to the determination that the variable frame rate criteria are met. Includes displaying (1906) (light status indicator) (1904). By displaying an indication that the variable frame rate mode is active according to the determination that the variable frame rate criterion is met, the user is visually informed of the state of the variable frame rate mode (eg, 18B and 18C 630). Provide feedback. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve. In some embodiments, displaying the media capture user interface displays the media capture user interface without the indication that the variable frame rate mode is active, according to the determination that the variable frame rate criteria are not met. Including (1908) to do (1904). In some embodiments, the low light condition indicator (eg, 602c) indicates that the device is operating in low light mode (eg, the low light condition indicator is whether the device is operating in low light mode). Some state (including, for example, active or inactive).

いくつかの実施形態では、第1のフレームレートで1つ以上のカメラの視野内で検出された変化に基づいて更新された1つ以上のカメラの視野の表現(例えば、1802)は、第1の輝度で表示デバイス上に表示される(例えば、18B及び18Cの630)。いくつかの実施形態では、第1のフレームレートより低い第2のフレームレートで1つ以上のカメラの視野内で検出された変化に基づいて更新された1つ以上のカメラの視野の表現(例えば、1802)は、(例えば、電子デバイスによって)第1の輝度よりも視覚的に明るい第2の輝度で表示デバイス上に表示される(例えば、18B及び18Cの630)。いくつかの実施形態では、フレームレートを減少させることにより、ディスプレイ上に表示されている表現の輝度が増加する(例えば、18B及び18Cの630)。 In some embodiments, the representation of the field of view of one or more cameras (eg, 1802) updated based on the changes detected within the field of view of the camera of one or more at the first frame rate is the first. It is displayed on the display device with the brightness of (eg, 630 of 18B and 18C). In some embodiments, a representation of the field of view of one or more cameras updated based on changes detected within the field of view of the camera at a second frame rate lower than the first frame rate (eg,). , 1802) are displayed on the display device with a second luminance that is visually brighter than the first luminance (eg, by an electronic device) (eg, 630 of 18B and 18C). In some embodiments, reducing the frame rate increases the brightness of the representation displayed on the display (eg, 630 of 18B and 18C).

メディアキャプチャユーザインタフェース(例えば、608)を表示している間に、電子デバイス(例えば、600)は、カメラを介して、1つ以上のカメラの視野(例えば、18B及び18Cの630)内の変化(例えば、移動を表す変化)を検出する(1910)。 While displaying the media capture user interface (eg, 608), the electronic device (eg, 600) changes within the field of view of one or more cameras (eg, 630 of 18B and 18C) via the camera. (For example, a change representing movement) is detected (1910).

いくつかの実施形態では、検出された変化は、検出された移動(例えば、電子デバイスの移動、視野内のコンテンツの変化率)を含む。いくつかの実施形態では、第2のフレームレートは、検出された移動の量に基づく。いくつかの実施形態では、第2のフレームレートは、移動が増加するにつれて増加する(例えば、18B及び18Cの630)。 In some embodiments, the detected changes include detected movements (eg, movement of electronic devices, rate of change of content in the field of view). In some embodiments, the second frame rate is based on the amount of movement detected. In some embodiments, the second frame rate increases with increasing movement (eg, 630 of 18B and 18C).

1つ以上のカメラの視野内の変化を検出したことに応答して、及び可変フレームレート基準(例えば、視野の表現が可変又は静的フレームレートで更新されているかどうかを管理する1組の基準)が満たされているという判定に従って(1912)、1つ以上のカメラ(例えば、電子デバイスのハウジング内に組み込まれた1つ以上のカメラ)の視野内の検出された変化が移動基準(例えば、移動速さ閾値、移動量閾値など)を満たすという判定に従って、電子デバイス(例えば、600)は、第1のフレームレートで1つ以上のカメラの視野(例えば、18Cの630)内で検出された変化に基づいて、1つ以上のカメラの視野の表現(例えば、630)を更新する(1914)。1つ以上のカメラの視野内の検出された変化が移動基準を満たすという判定に従って、第1のフレームレートで1つ以上のカメラの視野内で検出された変化に基づいて、1つ以上のカメラの視野の表現を更新することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされたときに動作を行い、これにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、フレームレート基準は、電子デバイスが動いていると判定されると満たされる基準を含む(例えば、所定の閾値は、位置変位、速さ、速度、加速度、又はこれらのいずれかの組み合わせに基づく)。いくつかの実施形態では、フレームレート基準は、電子デバイス(例えば、600)が動いていないと判定されると満たされる基準を含む(例えば、18B及び18Cの630)(例えば、実質的に静止(例えば、デバイスの移動は、所定の閾値(例えば、所定の閾値は、位置変位、速さ、速度、加速度、又はこれらのいずれかの組み合わせに基づく)以上又は等しい))。 A set of criteria that responds to the detection of changes in the field of view of one or more cameras and manages whether the field of view representation is updated with a variable or static frame rate (eg, a variable frame rate). ) Is satisfied (1912), and the detected changes in the field of view of one or more cameras (eg, one or more cameras embedded within the housing of the electronic device) are the movement criteria (eg,). The electronic device (eg, 600) was detected within the field of view of one or more cameras (eg, 630 at 18C) at the first frame rate according to the determination that the movement speed threshold, movement amount threshold, etc. are satisfied. Based on the change, the field of view representation of one or more cameras (eg, 630) is updated (1914). One or more cameras based on the changes detected in the field of view of one or more cameras at the first frame rate, according to the determination that the detected changes in the field of view of one or more cameras meet the movement criteria. By updating the representation of the field of view, the electronic device operates when a set of conditions is met without the need for further user input, which enhances the operability of the device and allows the user-. Make the device interface more efficient (for example, by assisting the user in providing proper input when manipulating / interacting with the device and reducing user error), and in addition, the user makes the device more efficient. Allowing for quick and efficient use reduces device power usage and improves battery life. In some embodiments, the frame rate reference includes criteria that are met when the electronic device is determined to be moving (eg, a given threshold is position displacement, speed, velocity, acceleration, or any of these). Based on the combination of In some embodiments, the frame rate criteria include criteria that are met when it is determined that the electronic device (eg, 600) is not moving (eg, 630 of 18B and 18C) (eg, substantially stationary (eg, substantially stationary). For example, device movement is greater than or equal to a predetermined threshold (eg, a predetermined threshold is based on position displacement, speed, velocity, acceleration, or a combination of any of these).

1つ以上のカメラの視野内の変化を検出したことに応答して、及び可変フレームレート基準(例えば、視野の表現が可変又は静的フレームレートで更新されているかどうかを管理する1組の基準)が満たされているという判定(1912)に従って、1つ以上のカメラの視野内の検出された変化が移動基準を満たさないという判定に従って、電子デバイス(例えば、600)は、第1のフレームレートより低い第2のフレームレート(例えば、フレームレート、及び画像データが第1の露出時間よりも長い第2の露出時間を使用してキャプチャされる場所)(例えば、18A及び18Bの630)で1つ以上のカメラの視野内で検出された変化に基づいて、1つ以上のカメラの視野の表現(例えば、630)を更新する(1916)。1つ以上のカメラの視野内の検出された変化が移動基準を満たさないという判定に従って、第2のフレームレートで1つ以上のカメラの視野内で検出された変化に基づいて、1つ以上のカメラの視野の表現を更新することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされた(又は他方では、満たされなかった)ときに動作を行い、これにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 A set of criteria that responds to the detection of changes in the field of view of one or more cameras and manages whether the field of view representation is updated at a variable or static frame rate. ) Is satisfied (1912), and according to the determination that the detected changes in the field of view of one or more cameras do not meet the movement criteria, the electronic device (eg, 600) has a first frame rate. 1 at a lower second frame rate (eg, where the frame rate and where the image data is captured using a second exposure time longer than the first exposure time) (eg 630 of 18A and 18B) The representation of the field of view of one or more cameras (eg, 630) is updated (1916) based on the changes detected within the field of view of the one or more cameras. One or more based on the changes detected in the field of view of one or more cameras at the second frame rate according to the determination that the detected changes in the field of view of one or more cameras do not meet the movement criteria. By updating the representation of the camera's field of view, the electronic device behaves when a set of conditions is met (or, on the other hand, is not) without the need for further user input. Increases device usability and makes the user-device interface more efficient (eg, by assisting the user in providing proper input when manipulating / interacting with the device and reducing user error). In addition, by allowing the user to use the device faster and more efficiently, the device's power usage is reduced and battery life is improved.

いくつかの実施形態では、可変フレームレート基準は、1つ以上のカメラの視野内の周辺光が閾値を下回ると満たされる基準(例えば、可変フレームレート基準は、周辺光が閾値を上回ると満たされない)を含み、1つ以上のカメラの視野内の変化を検出する前に、1つ以上のカメラの視野の表現が、第3のフレームレート(例えば、通常の照明条件でのフレームレート)(例えば、1888、1890、及び1892)で更新される(1918)。いくつかの実施形態では、1つ以上のカメラの視野内の変化を検出したことに応答して、及び可変フレームレート基準が満たされていないという判定に従って、電子デバイス(例えば、600)は、第3のフレームレートで1つ以上のカメラの視野の表現の更新を維持する(1920)(例えば、1つ以上のカメラの視野内で検出された変化が(例えば、判定することなく、又は判定を考慮することなく)移動基準を満たすかどうかに関係なく)(例えば、図8Aの630)。1つ以上のカメラの視野内の変化を検出したことに応答して、及び可変フレームレート基準が満たされていないという判定に従って、第3のフレームレートで1つ以上のカメラの視野の表現の更新を維持することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされた(又は他方では、満たされなかった)ときに動作を行い、これにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、低光可変フレームレート基準は、フラッシュモードが非アクティブであることを満たす基準を含む。いくつかの実施形態では、低光状態インジケータ(例えば、602c)は、フラッシュ動作と互いに排他的である(例えば、フラッシュ動作が非アクティブのときにアクティブ又はフラッシュ動作がアクティブのときに非アクティブ)。いくつかの実施形態では、フラッシュ動作の状態及び低光キャプチャモードの状態は、互いに反対である。 In some embodiments, the variable frame rate reference is met when the ambient light in the field of view of one or more cameras is below the threshold (eg, the variable frame rate reference is not met when the ambient light is above the threshold). ) Is included, and the representation of the field of view of one or more cameras is a third frame rate (eg, frame rate under normal lighting conditions) (eg, before detecting changes in the field of view of one or more cameras). , 1888, 1890, and 1892) (1918). In some embodiments, the electronic device (eg, 600) is the first in response to detecting changes in the field of view of one or more cameras, and according to the determination that the variable frame rate criteria are not met. Maintaining an update of the field of view representation of one or more cameras at a frame rate of 3 (1920) (eg, changes detected within the field of view of one or more cameras (eg, without determination or determination). Whether or not the movement criteria are met (without consideration) (eg, 630 in FIG. 8A). Updating the field of view representation of one or more cameras at a third frame rate in response to detecting changes in the field of view of one or more cameras and according to the determination that the variable frame rate criteria are not met. By maintaining, the electronic device operates when a set of conditions is met (or, on the other hand, is not met) without the need for further user input, thereby allowing the device to operate. Is enhanced, making the user-device interface more efficient (eg, by assisting the user in providing proper input when manipulating / interacting with the device and reducing user error), and in addition. By allowing users to use the device faster and more efficiently, the device's power usage is reduced and battery life is improved. In some embodiments, the low light variable frame rate reference includes a criterion that satisfies that the flash mode is inactive. In some embodiments, the low light condition indicator (eg, 602c) is mutually exclusive with the flash operation (eg, active when the flash action is inactive or inactive when the flash action is active). In some embodiments, the flash operating state and the low light capture mode state are opposite to each other.

いくつかの実施形態では、第2のフレームレートは、それぞれの閾値を下回る1つ以上のカメラの視野内の周辺光の量に基づく。いくつかの実施形態では、周辺は、1つ以上のカメラ又は検出された周辺光センサによって検出することができる。いくつかの実施形態では、フレームは、周辺光が減少するにつれて減少する。 In some embodiments, the second frame rate is based on the amount of peripheral light in the field of view of one or more cameras below each threshold. In some embodiments, the periphery can be detected by one or more cameras or detected ambient light sensors. In some embodiments, the frame is reduced as the ambient light is reduced.

いくつかの実施形態では、移動基準は、1つ以上のカメラの視野(field-of-field)内で検出された変化が移動閾値(例えば、閾値移動速度)よりも大きい電子デバイス(例えば、600)の移動に対応する(例えば、移動による視野内のコンテンツの変化率に対応する)と満たされる基準を含む。 In some embodiments, the movement reference is an electronic device (eg, 600) in which changes detected within the field-of-field of one or more cameras are greater than the movement threshold (eg, threshold movement speed). ) Corresponds to the movement (eg, corresponds to the rate of change of the content in the field of view due to the movement) and includes criteria that are satisfied.

方法1900に関して上述された処理(例えば、図19A〜図19B)の詳細はまた、上記及び以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、2000、2100、2300、2500、2700、2800、3000、3200、3400、3600、及び3800は、方法1900を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。 It should be noted that the details of the processes described above for Method 1900 (eg, FIGS. 19A-19B) are also applicable to the methods described above and below in a similar manner. For example, methods 700, 900, 1100, 1300, 1500, 1700, 2000, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3400, 3600, and 3800 are various described above with reference to Method 1900. Optionally include one or more of the properties of the method.

図20A〜図20Cは、いくつかの実施形態による電子デバイスを使用して照明条件に対応するための方法を示すフロー図である。方法2000は、表示デバイス(例えば、タッチ感知ディスプレイ)及び1つ以上のカメラ(例えば、電子デバイスの異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を備えるデバイス(例えば、100、300、500、600)で行われる。方法2000のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 20A-20C are flow diagrams illustrating methods for addressing lighting conditions using electronic devices according to some embodiments. Method 2000 includes a display device (eg, a touch-sensitive display) and one or more cameras (eg, dual cameras, triple cameras) on different sides of the electronic device (eg, front camera, rear camera). , Quad camera, etc.)) (eg, 100, 300, 500, 600). Some actions of Method 2000 are optionally combined, some actions are arbitrarily modified, and some actions are optionally omitted.

後述するように、方法2000は、照明条件に対応するための直感的な仕方を提供する。この方法は、カメラインジケーションを閲覧する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的に照明条件に対応することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As will be described later, Method 2000 provides an intuitive way to accommodate lighting conditions. This method reduces the cognitive burden on the user when viewing the camera indication, thereby creating a more efficient human-machine interface. For battery-powered computing devices, it saves power and prolongs the time between battery charges by enabling users to respond to lighting conditions faster and more efficiently.

電子デバイス(例えば、600)は、カメラユーザインタフェースを表示する要求(例えば、カメラアプリケーションを表示する要求又はカメラアプリケーション内でメディアキャプチャモードに切り替える要求)を受信する(2002)。 The electronic device (eg, 600) receives a request to display the camera user interface (eg, a request to display the camera application or a request to switch to media capture mode within the camera application) (2002).

カメラユーザインタフェースを表示する要求を受信したことに応答して、電子デバイス(例えば、600)は、表示デバイスを介して、カメラユーザインタフェースを表示する(2004)。 In response to receiving a request to display the camera user interface, the electronic device (eg, 600) displays the camera user interface via the display device (2004).

カメラユーザインタフェースを表示すること(2004)は、電子デバイス(例えば、600)が、表示デバイス(例えば、602)を介して、1つ以上のカメラ(例えば、カメラに視認可能である開放観測可能エリア、カメラレンズから所与の距離の画像の水平(又は垂直又は対角線)長さ)の視野の表現(例えば、630)(例えば、表現オーバータイム、カメラからのデータのライブプレビューフィード)を表示すること(2006)を含む。 Displaying a camera user interface (2004) means that an electronic device (eg, 600) has an open observable area visible to one or more cameras (eg, cameras) via a display device (eg, 602). Displaying a representation of the field of view (eg, 630) (eg, representation overtime, live preview feed of data from the camera), the horizontal (or vertical or diagonal) length of the image at a given distance from the camera lens. (2006) is included.

カメラユーザインタフェースを表示すること(2004)は、1つ以上のカメラの視野内の周辺光がそれぞれの閾値(例えば、20ルクス)を下回る(例えば、又は、代替的に、値のそれぞれの範囲の間)と満たされる条件を含む低光条件が満たされたという判定に従って、電子デバイス(例えば、600)が、1つ以上のカメラの視野の表現(例えば、630)と同時に、メディアをキャプチャする要求に応答してメディア(例えば、画像、ビデオ)をキャプチャするキャプチャ持続時間を調整するコントロール(例えば、1804)(例えば、スライダ)(例えば、キャプチャ持続時間調整コントロール)を表示すること(2008)を含む。1つ以上のカメラの視野の表現と同時に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することにより、ユーザが、視野の表現を閲覧している間に、キャプチャ持続時間を迅速かつ容易に調整することを可能にする。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、調整可能なコントロール(例えば、1804)は、ティックマークを含み、各ティックマークは、調整可能なコントロールの値を表す。いくつかの実施形態では、周辺光は、1つ以上のカメラ又は専用の周辺光センサを介して、周辺光を検出することによって、判定した。 Displaying the camera user interface (2004) means that the ambient light in the field of view of one or more cameras is below their respective thresholds (eg, 20 lux) (eg, or alternative, in their respective ranges of values. A request for an electronic device (eg, 600) to capture media at the same time as a representation of the field of view of one or more cameras (eg, 630), according to the determination that a low light condition is met, including a condition that is met. Includes displaying a control (eg, 1804) (eg, slider) (eg, capture duration adjustment control) that adjusts the capture duration to capture media (eg, image, video) in response to (2008). .. By displaying a control that adjusts the capture duration to capture the media at the same time as the representation of the field of view of one or more cameras, the user can quickly and easily capture the duration while viewing the representation of the field of view. Allows you to adjust to. By providing additional control options without cluttering the UI with the additional controllers displayed, the user-device interface is enhanced (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved. In some embodiments, the adjustable control (eg, 1804) includes tick marks, and each tick mark represents the value of the adjustable control. In some embodiments, the ambient light was determined by detecting the ambient light via one or more cameras or a dedicated ambient light sensor.

カメラユーザインタフェースを表示すること(2004)は、低光条件が満たされていないという判定に従って、電子デバイス(例えば、600)が、キャプチャ持続時間を調整するコントロール(例えば、1804)を表示するのをやめること(2010)を含む。低光条件が満たされていないという判定に従って、キャプチャ持続時間を調整するコントロールを表示するのをやめることによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされた(又は満たされなかった)ときに動作を行い、低光条件が満たされたという判定に従って、キャプチャ持続時間を調整するコントロールと同時に、低光キャプチャ状態インジケータを表示することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされたときに動作を行い、これにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 Displaying the camera user interface (2004) causes an electronic device (eg, 600) to display a control (eg, 1804) that adjusts the capture duration according to the determination that the low light condition is not met. Includes quitting (2010). By stopping displaying the control that adjusts the capture duration according to the determination that the low light condition is not met, the electronic device fulfilled a set of conditions without requiring further user input ( By performing an operation when (or not met) and displaying a low light capture status indicator at the same time as a control that adjusts the capture duration according to the determination that the low light condition is met, the electronic device is further enhanced. It operates when a set of conditions is met without requiring user input, which enhances the usability of the device and makes the user-device interface (eg, when operating / interacting with the device). By assisting the user in providing proper input and reducing user errors), and by allowing the user to use the device more efficiently, the power usage of the device It is suppressed and the battery life is improved.

いくつかの実施形態では、キャプチャ持続時間を調整するコントロール(例えば、スライダ)を表示している間に、電子デバイス(例えば、600)は、低光条件(例えば、周辺光の減少又は周辺光の増加)がもはや満たされていないというインジケーションを取得する(例えば、受信する、判定する、得る)(2012)(例えば、別の時点で、低光条件が満たされているかどうかの別の判定が発生する)。いくつかの実施形態では、インジケーションを取得したことに応答して、電子デバイス(例えば、600)は、表示デバイスを介して、キャプチャ持続時間を調整するコントロールの表示を停止する(2014)。低光条件がもはや満たされていないというインジケーションを取得したことに応答して、キャプチャ持続時間を調整するコントロールの表示を(例えば、自動的に、ユーザ入力なしで)停止することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされた(又は満たされなかった)ときに動作を行い、これにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、低光条件が満たされ続けるという判定に従って、電子デバイス(例えば、600)は、メディアをキャプチャする要求に応答して、メディアをキャプチャするキャプチャ持続時間を調整するコントロール(例えば、1804)の表示を維持する。 In some embodiments, while displaying a control (eg, slider) that adjusts the capture duration, the electronic device (eg, 600) is in low light conditions (eg, ambient light reduction or ambient light reduction). Acquire an indication that the increase) is no longer satisfied (eg, receive, determine, obtain) (2012) (eg, at another time, another determination of whether the low light condition is met. appear). In some embodiments, in response to the acquisition of the indication, the electronic device (eg, 600) stops displaying the control that adjusts the capture duration via the display device (2014). Electronic devices by stopping the display of controls that adjust the capture duration (eg, automatically, without user input) in response to getting an interface that the low light conditions are no longer met. Acts when a set of conditions is met (or not met) without the need for further user input, which enhances the usability of the device and provides a user-device interface (eg, for example). (By assisting the user in providing proper input when manipulating / interacting with the device and reducing user error), in addition, the user makes the device faster and more efficient. By making it available, the device's power usage is reduced and battery life is improved. In some embodiments, the electronic device (eg, 600) adjusts the capture duration to capture the media in response to a request to capture the media (eg, 600) according to the determination that the low light condition continues to be met. , 1804) is maintained.

いくつかの実施形態では、キャプチャ持続時間を調整するコントロール(例えば、1804)を同時に表示することなく、1つ以上のカメラの視野の表現(例えば、630)を表示している間に、電子デバイス(例えば、600)は、低光条件が満たされたというインジケーションを取得する(例えば、受信する、判定する、検出する、得る)(2030)(例えば、別の時点で、低光条件が満たされているかどうかの別の判定が発生する)。いくつかの実施形態では、インジケーションを取得したことに応答して、電子デバイス(例えば、600)は、1つ以上のカメラの視野の表現と同時に、キャプチャ持続時間を調整するコントロール(例えば、1804)を表示する(2032)。低光条件が満たされたというインジケーションを取得したことに応答して、1つ以上のカメラの視野の表現と同時に、キャプチャ持続時間を調整するコントロールを表示することによって、ユーザに、コントロールが必要そうなときにキャプチャ持続時間を調整するコントロールへの迅速かつ便利なアクセスを提供する。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、低光条件が満たされていないという判定に従って、電子デバイス(例えば、600)は、メディアをキャプチャする要求に応答して、メディアをキャプチャするキャプチャ持続時間を調整するコントロールの表示をやめることを維持する。 In some embodiments, an electronic device is displayed while displaying a representation of the field of view of one or more cameras (eg, 630) without simultaneously displaying controls that adjust the capture duration (eg, 1804). (For example, 600) acquires an indication that the low light condition is met (eg, receives, determines, detects, obtains) (2030) (eg, at another time, the low light condition is met). Another determination of whether or not it has been done occurs). In some embodiments, in response to acquiring an indication, an electronic device (eg, 600) controls the capture duration (eg, 1804) as well as representing the field of view of one or more cameras. ) Is displayed (2032). The user needs control by displaying a control that adjusts the capture duration at the same time as representing the field of view of one or more cameras in response to obtaining the indication that the low light condition has been met. It provides quick and convenient access to controls that adjust the capture duration at such times. By providing additional control options without cluttering the UI with the additional controllers displayed, the user-device interface is enhanced (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved. In some embodiments, according to the determination that the low light condition is not met, the electronic device (eg, 600) is a control that adjusts the capture duration to capture the media in response to a request to capture the media. Keep off the display.

いくつかの実施形態では、低光条件は、フラッシュモードが非アクティブであると満たされる条件を含む(例えば、フラッシュ設定がオフに設定される、フラッシュ動作の状態が非アクティブである)。 In some embodiments, the low light condition includes a condition that the flash mode is satisfied as inactive (eg, the flash setting is set to off, the flash operating state is inactive).

いくつかの実施形態では、キャプチャ持続時間を調整するコントロール(例えば、1804)は、スライダである。いくつかの実施形態では、スライダは、ティックマークを含み、各ティックマーク(例えば、間隔で表示される)は、キャプチャ持続時間を表す。 In some embodiments, the control that adjusts the capture duration (eg, 1804) is a slider. In some embodiments, the slider includes tick marks, and each tick mark (eg, displayed at intervals) represents the capture duration.

いくつかの実施形態では、カメラユーザインタフェースを表示することは、電子デバイス(例えば、600)が、1つ以上のカメラの視野の表現(例えば、1802)と同時に、選択されると、1つ以上のカメラ(例えば、シャッターアフォーダンス;シャッターボタン)を使用してメディアのキャプチャを開始するメディアキャプチャアフォーダンス(例えば、610)(例えば、選択可能ユーザインタフェースオブジェクト)を表示する(2016)ことを更に含む。 In some embodiments, displaying the camera user interface is such that one or more electronic devices (eg, 600) are selected at the same time as a representation of the field of view of one or more cameras (eg, 1802). It further includes displaying (2016) a media capture affordance (eg, 610) (eg, a selectable user interface object) that initiates a media capture using a camera (eg, shutter affordance; shutter button).

いくつかの実施形態では、キャプチャ持続時間を調整するコントロール(例えば、1804)を表示している間に、電子デバイス(例えば、600)は、第1のキャプチャ持続時間の第1のインジケーション(例えば、数値、スライダトラック上のスライダノブ(例えば、バー))を表示する(2018)(例えば、時間(例えば、合計キャプチャ時間、露出時間)、ピクチャ/フレームの数で測定)。キャプチャ持続時間を調整するコントロールを表示している間に、第1のキャプチャ持続時間の第1のインジケーションを表示することにより、表示表現の設定されたキャプチャ持続時間の視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。いくつかの実施形態では、第1のキャプチャ持続時間(例えば、時間(例えば、合計キャプチャ時間、露出時間)、ピクチャ/フレームの数で測定)から第2のキャプチャ持続時間(例えば、時間(例えば、合計キャプチャ時間、露出時間)、ピクチャ/フレームの数で測定)にキャプチャ持続時間を調整するコントロール(例えば、1804)を調整する要求(例えば、調整可能なコントロール上のスライダコントロールを調整可能なコントロール上のインジケーション(例えば、値)までドラッグすること)を受信したことに応答して、電子デバイス(例えば、600)は、第1のキャプチャ持続時間の第1のインジケーションの表示を、第2のキャプチャ持続時間の第2のインジケーションの表示に置き換える(2020)。いくつかの実施形態では、キャプチャ持続時間は、設定時に表示される。いくつかの実施形態では、キャプチャ持続時間は、表示されない。いくつかの実施形態では、持続時間は、調整可能なコントロールを介して設定された値と同じである。いくつかの実施形態では、持続時間は、調整可能な入力コントロールを介して設定された値とは異なる(例えば、値は1秒であるが、持続時間は0.9秒である;値は1秒であるが、持続時間は、8枚のピクチャである)。これらの実施形態のうちのいくつかでは、持続時間に対する値の対応(例えば、平行移動)は、電子デバイス(例えば、600)及び/若しくはカメラのタイプ、又は電子デバイス若しくはカメラの実行中のソフトウェアのタイプに基づく。 In some embodiments, while displaying a control (eg, 1804) that adjusts the capture duration, the electronic device (eg, 600) has a first indication of the first capture duration (eg, 1804). , Numerical values, slider knobs (eg bars) on slider tracks) (2018) (eg time (eg total capture time, exposure time), measured by number of pictures / frames). Providing the user with visual feedback of the set capture duration of the display representation by displaying the first indication of the first capture duration while displaying the control that adjusts the capture duration. do. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve. In some embodiments, the first capture duration (eg, measured by time (eg, total capture time, exposure time), number of pictures / frames) to the second capture duration (eg, time (eg, eg, time)). A request to adjust a control (eg 1804) that adjusts the capture duration to (total capture time, exposure time), measured by the number of pictures / frames) (eg, a slider control on an adjustable control on an adjustable control) In response to receiving the indication (eg, dragging to a value) of, the electronic device (eg, 600) displays the first indication of the first capture duration, the second. Replace with a second indication of capture duration (2020). In some embodiments, the capture duration is displayed at setup time. In some embodiments, the capture duration is not displayed. In some embodiments, the duration is the same as the value set via the adjustable control. In some embodiments, the duration differs from the value set via the adjustable input control (eg, the value is 1 second, but the duration is 0.9 seconds; the value is 1). Seconds, but duration is 8 pictures). In some of these embodiments, the correspondence of values to duration (eg, translation) is the type of electronic device (eg, 600) and / or camera, or the running software of the electronic device or camera. Based on type.

いくつかの実施形態では、1つ以上のカメラの視野の表現(例えば、630)は、第1の表現である(2022)。いくつかの実施形態では、更に第1のキャプチャ持続時間からキャプチャ持続時間を調整するコントロールを調整する要求を受信したことに応答して(2024)、電子デバイス(例えば、600)は、第1の表現の表示を、1つ以上のカメラの視野のその(the of)第2の表現に置き換え、第2の表現が、第2の持続時間に基づき、第1の表現と視覚的に区別される(例えば、より明るい)(2026)。いくつかの実施形態では、第4の表現の輝度は、第5の表現の輝度とは異なる(2028)。 In some embodiments, the representation of the field of view of one or more cameras (eg, 630) is the first representation (2022). In some embodiments, in response to receiving a request to further adjust the control that adjusts the capture duration from the first capture duration (2024), the electronic device (eg, 600) is the first. Replacing the representation of the representation with its second representation of the field of view of one or more cameras, the second representation is visually distinguished from the first representation based on the second duration. (For example, brighter) (2026). In some embodiments, the luminance of the fourth representation is different from the luminance of the fifth representation (2028).

いくつかの実施形態では、第2のキャプチャ持続時間の第2のインジケーションを表示している間に、電子デバイス(例えば、600)は、メディアをキャプチャする要求を受信する。いくつかの実施形態では、メディアをキャプチャする要求を受信することは、メディアキャプチャアフォーダンスの選択に対応する(例えば、タップ)。いくつかの実施形態では、メディアをキャプチャする要求を受信したことに応答して、及び第2のキャプチャ持続時間が光キャプチャモードを非アクティブ化する所定の持続時間(例えば、ゼロ以下の持続時間(例えば、標準条件又は別の条件でデバイスを動作させる持続時間に対応する持続時間))に対応するという判定に従って、電子デバイス(例えば、600)は、持続時間(例えば、第2のキャプチャ持続時間とは異なる通常持続時間(例えば、電子デバイス上で静止写真をキャプチャするための持続時間に等しい))に基づいて、1つ以上のカメラを介して、メディアのキャプチャを開始する。メディアをキャプチャする要求を受信したことに応答して、及び第2のキャプチャ持続時間が低光キャプチャモードを非アクティブ化する所定の持続時間に対応するという判定に従って、(例えば、第2のキャプチャ持続時間とは異なる)持続時間に基づいて、メディアのキャプチャを開始することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされたときに動作を行い、これにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the electronic device (eg, 600) receives a request to capture the media while displaying the second indication of the second capture duration. In some embodiments, receiving a request to capture media corresponds to a choice of media capture affordance (eg, tap). In some embodiments, a predetermined duration (eg, a duration less than or equal to zero) that in response to receiving a request to capture the media and a second capture duration deactivates the optical capture mode. For example, according to the determination that it corresponds to the duration corresponding to the duration of operating the device under standard conditions or other conditions), the electronic device (eg, 600) has a duration (eg, a second capture duration). Initiates media capture through one or more cameras based on a different normal duration (eg, equal to the duration for capturing a still photo on an electronic device). In response to receiving a request to capture the media, and according to the determination that the second capture duration corresponds to a predetermined duration that deactivates the low light capture mode (eg, the second capture duration). By initiating a media capture based on a duration (different from time), the electronic device behaves when a set of conditions is met without the need for further user input, thereby. Increased device usability and more efficient user-device interface (eg, by assisting the user in providing appropriate input when manipulating / interacting with the device and reducing user error) In addition, by allowing the user to use the device more quickly and efficiently, the power usage of the device is reduced and the battery life is improved.

いくつかの実施形態では、第2のキャプチャ持続時間の第2のインジケーションを表示している間に、電子デバイス(例えば、600)は、メディアをキャプチャする要求を受信する。いくつかの実施形態では、メディアをキャプチャする要求を受信することは、メディアキャプチャアフォーダンス(例えば、610)の選択に対応する(例えば、タップ)。いくつかの実施形態では、メディアをキャプチャする要求を受信したことに応答して、(及び、いくつかの実施形態では、第2のキャプチャ持続時間が低光キャプチャモードを非アクティブ化する所定のものに対応しないという判定に従って、)電子デバイス(例えば、600)は、第2のキャプチャ持続時間に基づいて、1つ以上のカメラを介して、メディアのキャプチャを開始する。いくつかの実施形態では、メディアキャプチャユーザインタフェース(例えば、608)は、メディアがキャプチャされた後のメディアの表現を含む。 In some embodiments, the electronic device (eg, 600) receives a request to capture the media while displaying the second indication of the second capture duration. In some embodiments, receiving a request to capture media corresponds to a selection of media capture affordances (eg, 610) (eg, tap). In some embodiments, in response to receiving a request to capture the media (and in some embodiments, a predetermined capture duration deactivates the low light capture mode. According to the determination that it does not correspond to), the electronic device (eg, 600) initiates the capture of the media through one or more cameras based on the second capture duration. In some embodiments, the media capture user interface (eg, 608) includes a representation of the media after it has been captured.

いくつかの実施形態では、更にメディアをキャプチャする要求を受信したことに応答して、電子デバイス(例えば、600)は、1つ以上のカメラの視野の表現(例えば、630)の表示を停止する。いくつかの実施形態では、表現(例えば、630)(例えば、ライブプレビュー)は、低光条件が満たされているときにメディアをキャプチャする間にまったく表示されない。いくつかの実施形態では、表現(例えば、630)は、低光条件が満たされているときにメディアをキャプチャする間に所定の期間にわたって表示されない。低光条件が満たされているときにメディアをキャプチャする間に表現をまったく表示しないこと、又は低光条件が満たされているときにメディアをキャプチャする間に所定の期間にわたって表現を表示しないことは、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the electronic device (eg, 600) stops displaying a representation of the field of view of one or more cameras (eg, 630) in response to receiving a request to further capture the media. .. In some embodiments, the representation (eg, 630) (eg, live preview) is completely invisible while capturing the media when low light conditions are met. In some embodiments, the representation (eg, 630) is not displayed for a predetermined period of time while capturing the media when low light conditions are met. Not displaying any representation while capturing media when low light conditions are met, or not displaying representations for a given period of time while capturing media when low light conditions are met By allowing users to use the device faster and more efficiently, the device's power usage is reduced and battery life is improved.

いくつかの実施形態では、キャプチャ持続時間を調整するコントロール(例えば、1804)は、第1の色(例えば、黒)で表示される。いくつかの実施形態では、更にメディアをキャプチャする要求を受信したことに応答して、電子デバイス(例えば、600)は、第1の色とは異なる第2の色(例えば、赤)でキャプチャ持続時間を調整するコントロール(例えば、1804)を表示する。 In some embodiments, the control that adjusts the capture duration (eg, 1804) is displayed in a first color (eg, black). In some embodiments, in response to further receiving a request to capture the media, the electronic device (eg, 600) continues to capture in a second color (eg, red) that is different from the first color. Display a control that adjusts the time (eg, 1804).

いくつかの実施形態では、更にメディアをキャプチャする要求を受信したことに応答して、電子デバイス(例えば、600)は、第3のキャプチャ値(例えば、所定の開始値又は巻き出し値(例えば、ゼロ))の第3のインジケーションを、第2のキャプチャ持続時間の第2のインジケーションまで動かす(例えば、スライダにわたってインジケーション(例えば、スライダバー)をスライドする(例えば、ゼロから値への巻き取り))、第1のアニメーション(例えば、エッグタイマーの巻き取り及び設定)を表示する。第1のアニメーションを表示することにより、設定されたキャプチャ値における変化(単数又は複数)の視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。いくつかの実施形態では、第1のアニメーションを表示した後に、電子デバイス(例えば、600)は、第2のキャプチャ持続時間の第2のインジケーションを、第3のキャプチャ値の第3のインジケーションまで動かす(例えば、スライダにわたってインジケーション(例えば、スライダバー)をスライドする)(例えば、巻き出す(例えば、値からゼロへのカウントダウン))、第2のアニメーション(例えば、エッグタイマーのカウントダウン)を表示し、第2のアニメーションの持続時間は、第2のキャプチャ持続時間の持続時間に対応し、第1のアニメーションの持続時間とは異なる。第2のアニメーションを表示することにより、設定されたキャプチャ値における変化(単数又は複数)の視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。いくつかの実施形態では、第1のアニメーションと第2のアニメーションとの間にポーズがある。いくつかの実施形態では、第1及び第2のアニメーションのうちの少なくとも1つは、巻き取り又は巻き出しするエッグタイムの音を有する。いくつかの実施形態では、第2のアニメーションは、第1のアニメーションよりも遅い。 In some embodiments, in response to receiving a request to further capture the media, the electronic device (eg, 600) has a third capture value (eg, a predetermined start value or unwind value (eg, eg)). Move the third indication of (zero)) to the second indication of the second capture duration (eg, slide the indication (eg, slider bar) across the slider (eg, zero-to-value winding). (Capture)), display the first animation (eg, winding and setting of the egg timer). By displaying the first animation, the user is provided with visual feedback of the change (s) at the set capture value. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve. In some embodiments, after displaying the first animation, the electronic device (eg, 600) has a second indication of the second capture duration and a third indication of the third capture value. Move to (eg, slide an indication (eg, slider bar) across a slider) (eg, unwind (eg, count down from value to zero)), show a second animation (eg, egg timer countdown) However, the duration of the second animation corresponds to the duration of the second capture duration and is different from the duration of the first animation. By displaying a second animation, the user is provided with visual feedback of the change (s) at the set capture value. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve. In some embodiments, there is a pose between the first animation and the second animation. In some embodiments, at least one of the first and second animations has an egg-time sound that winds up or unwinds. In some embodiments, the second animation is slower than the first animation.

いくつかの実施形態では、第1のアニメーションを表示している間に、電子デバイス(例えば、600)は、第1の触知出力(例えば、触覚(例えば、振動)出力)を提供する。いくつかの実施形態では、第2のアニメーションを表示している間に、電子デバイス(例えば、600)は、第2の触知出力(例えば、触覚(例えば、振動)出力)を提供する。いくつかの実施形態では、第1の触知出力は、第2の触知出力とは異なるタイプの触知出力であり得る。第1のアニメーションを表示している間に、第1の触知出力を提供すること、及び第2のアニメーションを表示している間に、第2の触知出力を提供することにより、設定されたキャプチャ値における変化(単数又は複数)の更なるフィードバックをユーザに提供する。改良されたフィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the electronic device (eg, 600) provides a first tactile output (eg, tactile (eg, vibration) output) while displaying the first animation. In some embodiments, the electronic device (eg, 600) provides a second tactile output (eg, tactile (eg, vibration) output) while displaying the second animation. In some embodiments, the first tactile output can be a different type of tactile output than the second tactile output. Set by providing a first tactile output while displaying the first animation and by providing a second tactile output while displaying the second animation. Provide users with further feedback on changes (s) in the captured values. By providing improved feedback to the user, it improves the usability of the device (eg, assists the user in providing appropriate input when manipulating / interacting with the device, and user error. Reduces power usage and improves device battery life by making the user-device interface more efficient (by reducing) and, in addition, allowing users to use the device faster and more efficiently. do.

いくつかの実施形態では、メディアのキャプチャを開始した後に、電子デバイス(例えば、600)は、第2のキャプチャ持続時間に基づいてメディアをキャプチャする。 In some embodiments, after initiating the capture of the media, the electronic device (eg, 600) captures the media based on the second capture duration.

いくつかの実施形態では、メディアは、第2のキャプチャ持続時間に基づいてキャプチャされた第1のメディアである。いくつかの実施形態では、第1のメディアをキャプチャした後に、電子デバイス(例えば、600)は、第2のキャプチャ持続時間に基づいて第2のメディア(例えば、メディアをキャプチャする間の、メディアをキャプチャするように要求する第2のアフォーダンスの第2の選択(例えば、タップ))をキャプチャする要求を受信する。いくつかの実施形態では、第2のキャプチャ持続時間に基づいて第2のメディアをキャプチャする要求を受信したことに応答して、電子デバイス(例えば、600)は、第2のキャプチャ持続時間に基づいて第2のメディアのキャプチャを開始する。いくつかの実施形態では、第2のキャプチャ持続時間に基づいて第2のメディアのキャプチャを開始した後に、電子デバイス(例えば、600)は、第2のキャプチャ持続時間が経過する前に、第2のメディアのキャプチャを終了する要求を受信する。いくつかの実施形態では、第2のメディアのキャプチャを終了する要求を受信したことに応答して、電子デバイス(例えば、600)は、第2のキャプチャ持続時間に基づいて、第2のメディアのキャプチャを終了する(例えば、止める、停止する)。いくつかの実施形態では、第2のメディアのキャプチャを終了する要求を受信したことに応答して、電子デバイス(例えば、600)は、終了前にキャプチャされた第2のメディアの表現を表示し、第2のメディアのキャプチャを終了する要求を受信する前に、1つ以上のカメラによってキャプチャされた視覚情報に基づく。いくつかの実施形態では、第2のキャプチャ持続時間が経過する前に、第2のメディアアイテムのキャプチャが終了した場合、キャプチャされたものよりも少ない視覚情報がキャプチャされ、クリアな画像を生成する能力の低減をもたらすため、第2のメディアは、より暗いか、又は第1のメディアアイテムよりもコントラストが小さい。 In some embodiments, the media is the first media captured based on the second capture duration. In some embodiments, after capturing the first media, the electronic device (eg, 600) captures the second media (eg, while capturing the media) based on the second capture duration. Receives a request to capture a second selection (eg, tap) of the second affordance requesting to capture. In some embodiments, the electronic device (eg, 600) is based on the second capture duration in response to receiving a request to capture the second media based on the second capture duration. And start capturing the second media. In some embodiments, after initiating the capture of the second media based on the second capture duration, the electronic device (eg, 600) has a second capture duration before the second capture duration elapses. Receives a request to end the capture of the media. In some embodiments, in response to receiving a request to end the capture of the second media, the electronic device (eg, 600) is of the second media based on the duration of the second capture. End the capture (eg stop, stop). In some embodiments, in response to receiving a request to end the capture of the second media, the electronic device (eg, 600) displays a representation of the second media captured prior to the end. , Based on visual information captured by one or more cameras before receiving a request to end the capture of the second media. In some embodiments, if the capture of the second media item ends before the second capture duration elapses, less visual information is captured than what was captured, producing a clear image. The second media is darker or has less contrast than the first media item to result in reduced capacity.

いくつかの実施形態では、メディアは、第2のキャプチャ持続時間に基づいてキャプチャされた第1のメディアである。いくつかの実施形態では、第1のメディアをキャプチャした後に、電子デバイス(例えば、600)は、第2のキャプチャ持続時間に基づいて第3のメディア(例えば、メディアをキャプチャする間の、メディアをキャプチャするように要求する第2のアフォーダンスの第2の選択(例えば、タップ))をキャプチャする要求を受信する。いくつかの実施形態では、第2のキャプチャ持続時間に基づいて第3のメディアをキャプチャする要求を受信したことに応答して、電子デバイス(例えば、600)は、第2のキャプチャ持続時間に基づいて第3のメディアのキャプチャを開始する。いくつかの実施形態では、第2のキャプチャ持続時間に基づいて第3のメディアのキャプチャを開始した後に、1つ以上のカメラ(例えば、電子デバイスのハウジング内に組み込まれた1つ以上のカメラ)の視野内の検出された変化が移動基準(いくつかの実施形態では、ユーザがキャプチャする間に閾値を上回ってデバイスを動かしている;いくつかの実施形態では、移動が移動基準を超えない場合、電子デバイスは、中断なしでメディアをキャプチャし続ける)を超えるという判定に従って、電子デバイス(例えば、600)は、第3のメディアのキャプチャを終了する(例えば、止める、停止する)。いくつかの実施形態では、第2のキャプチャ持続時間に基づいて第3のメディアのキャプチャを開始した後に、1つ以上のカメラ(例えば、電子デバイスのハウジング内に組み込まれた1つ以上のカメラ)の視野内の検出された変化が移動基準(いくつかの実施形態では、ユーザがキャプチャする間に閾値を上回ってデバイスを動かしている;いくつかの実施形態では、移動が移動基準を超えない場合、電子デバイスは、中断なしでメディアをキャプチャし続ける)を超えるという判定に従って、電子デバイス(例えば、600)は、終了前にキャプチャされた第3のメディアの表現を表示し、第2のメディアのキャプチャを終了する要求を受信する前に、1つ以上のカメラによってキャプチャされた視覚情報に基づく。いくつかの実施形態では、第2のキャプチャ持続時間が経過する前に、第3のメディアアイテムのキャプチャが終了した場合、キャプチャされたものよりも少ない視覚情報がキャプチャされ、クリアな画像を生成する能力の低減をもたらすため、第3のメディアは、より暗いか、又は第1のメディアアイテムよりもコントラストが小さい。 In some embodiments, the media is the first media captured based on the second capture duration. In some embodiments, after capturing the first media, the electronic device (eg, 600) uses the third media (eg, while capturing the media) based on the second capture duration. Receives a request to capture a second selection (eg, tap) of a second affordance requesting to capture. In some embodiments, the electronic device (eg, 600) is based on the second capture duration in response to receiving a request to capture the third medium based on the second capture duration. And start capturing the third media. In some embodiments, one or more cameras (eg, one or more cameras embedded within the housing of the electronic device) after initiating the capture of the third media based on the second capture duration. The detected change in the field of view is moving the device above the threshold while the user is capturing; in some embodiments, if the movement does not exceed the movement criterion. The electronic device (eg, 600) terminates the capture of the third media (eg, stops, stops) according to the determination that the electronic device continues to capture the media without interruption. In some embodiments, one or more cameras (eg, one or more cameras embedded within the housing of the electronic device) after initiating the capture of the third media based on the second capture duration. The detected change in the field of view is moving the device above the threshold while the user is capturing; in some embodiments, if the movement does not exceed the movement criterion. The electronic device (eg, 600) displays a representation of the third media captured prior to the end, according to the determination that the electronic device continues to capture the media without interruption) of the second media. Based on visual information captured by one or more cameras before receiving a request to end the capture. In some embodiments, if the capture of the third media item ends before the second capture duration elapses, less visual information is captured than what was captured, producing a clear image. The third media is darker or has less contrast than the first media item to result in reduced capacity.

いくつかの実施形態では、更にメディアをキャプチャする要求を受信したことに応答して、電子デバイス(例えば、600)は、メディアをキャプチャするように要求するアフォーダンス(例えば、610)の表示を、メディア(例えば、停止アフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト))のキャプチャを終了するアフォーダンス(例えば、図18Kの610)の表示に置き換える。メディアをキャプチャする要求を受信したことに応答して、メディアをキャプチャするように要求するアフォーダンスの表示を、メディアのキャプチャを終了するアフォーダンスの表示に置き換えることは、ユーザが、このようなアフォーダンスが必要とされる可能性があるときに、メディアのキャプチャを終了するアフォーダンスに迅速かつ容易にアクセスすることを可能にする。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、停止アフォーダンスは、カメラ持続時間に基づいて、時間中に表示される。いくつかの実施形態では、停止アフォーダンス(例えば、1806)がカメラ持続時間に基づいて、時間中に表示された後、電子デバイス(例えば、600)は、カメラ持続時間が満了すると、停止アフォーダンスの表示を、メディアをキャプチャする要求のためのアフォーダンス(例えば、610)に置き換える。 In some embodiments, in response to further receiving a request to capture the media, the electronic device (eg, 600) displays an affordance (eg, 610) requesting that the media be captured. Replace the capture of (eg, stop affordance (eg, selectable user interface object)) with the display of the affordance (eg, 610 in FIG. 18K) that ends the capture. Replacing the affordance display requesting to capture media in response to receiving a request to capture media with an affordance display that ends the media capture requires the user to have such an affordance. Allows for quick and easy access to affordances that end media captures when they are likely to be. By providing additional control options without cluttering the UI with the additional controllers displayed, the user-device interface is enhanced (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved. In some embodiments, the stop affordance is displayed in time based on the camera duration. In some embodiments, after the stop affordance (eg, 1806) is displayed during the time based on the camera duration, the electronic device (eg, 600) displays the stop affordance when the camera duration expires. Is replaced with an affordance (eg, 610) for the request to capture the media.

いくつかの実施形態では、メディアのキャプチャを開始した後に(例えば、メディアのキャプチャを要求するアフォーダンスを押下後に)、電子デバイス(例えば、600)は、第1のキャプチャ時間(例えば、キャプチャの時点(例えば、メディアのキャプチャの開始2秒後))でキャプチャされた第1のメディアの第1の表現を表示する。いくつかの実施形態では、第1のメディアの第1の表現を表示した後に、電子デバイス(例えば、600)は、第1のメディアの第1の表現の表示を、第1のキャプチャ時間(例えば、キャプチャの時点(例えば、メディアのキャプチャの開始後3秒))の後の第2のキャプチャ時間でキャプチャされた第1のメディアの第2の表現の表示に置き換え、第2の表現は、第1の表現と視覚的に区別される(例えば、より明るい)(例えば、より多くの画像データが取得され、かつ合成画像を生成するために使用されるため、ますます明るい輪郭のはっきりした.合成画像を表示する)。 In some embodiments, after starting the capture of the media (eg, after pressing the afford to request the capture of the media), the electronic device (eg, 600) has a first capture time (eg, at the time of capture (eg, at the time of capture). For example, 2 seconds after the start of media capture))), the first representation of the first media captured is displayed. In some embodiments, after displaying the first representation of the first media, the electronic device (eg, 600) displays the first representation of the first media for a first capture time (eg, 600). , Replaced with the display of the second representation of the first media captured at the second capture time after the time of capture (eg, 3 seconds after the start of media capture), the second representation is the second. Visually distinguishable from the representation of 1 (eg, brighter) (eg, more image data is acquired and used to generate a composite image, so it is brighter and more contoured. Display image).

いくつかの実施形態では、第1の表現の表示を第2の表現の表示に置き換えることは、所定の期間後に行われる。いくつかの実施形態では、置き換え(例えば、光沢)は、等間隔で(例えば、滑らかな光沢ではない)で行われる。 In some embodiments, replacing the display of the first expression with the display of the second expression takes place after a predetermined period of time. In some embodiments, the replacement (eg, gloss) is performed at equal intervals (eg, not smooth gloss).

いくつかの実施形態では、カメラユーザインタフェース(例えば、608)を表示することは、低光条件が満たされたという判定に従って、電子デバイス(例えば、600)が、キャプチャ持続時間を調整するコントロール(例えば、1804)と同時に、低光キャプチャモードの状態(例えば、602c)がアクティブであることを示す低光キャプチャ状態インジケータを表示することを含む。低光条件が満たされたという判定に従って、キャプチャ持続時間を調整するコントロールと同時に、低光キャプチャ状態インジケータを表示することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされたときに動作を行い、これにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、低光キャプチャ状態インジケータを表示している間に、電子デバイス(例えば、600)は、低光状態インジケータ(例えば、602c)の第1の選択(例えば、タップ)を受信する。いくつかの実施形態では、低光状態インジケータ(例えば、602c)の第1の選択を受信したことに応答して、電子デバイス(例えば、600)は、低光キャプチャ状態インジケータの表示を維持している間に、キャプチャ持続時間を調整するコントロール(例えば、1804)の表示を停止する。いくつかの実施形態では、低光状態インジケータ(例えば、602c)の第1の選択を受信したことに応答して、電子デバイス(例えば、600)は、低光キャプチャモードの状態が非アクティブであることを示すように、低光キャプチャ状態インジケータの外観を更新する。いくつかの実施形態では、低光キャプチャ状態インジケータ(例えば、602c)は、キャプチャ持続時間を調整するコントロールの表示を停止すると(例えば、低光条件が満たされている間)、維持される。 In some embodiments, displaying the camera user interface (eg, 608) is a control (eg, 600) in which the electronic device (eg, 600) adjusts the capture duration according to the determination that the low light condition is met. , 1804), including displaying a low light capture state indicator indicating that the low light capture mode state (eg, 602c) is active. By displaying a low light capture status indicator at the same time as a control that adjusts the capture duration according to the determination that the low light condition has been met, the electronic device can have a set of conditions without further user input. It acts when satisfied, which enhances the usability of the device and assists the user in providing the user-device interface (eg, when manipulating / interacting with the device to provide appropriate input). By making the device more efficient (by reducing user error) and, in addition, allowing the user to use the device faster and more efficiently, the power usage of the device is reduced and battery life is improved. In some embodiments, while displaying the low light capture state indicator, the electronic device (eg, 600) receives a first selection (eg, tap) of the low light state indicator (eg, 602c). do. In some embodiments, the electronic device (eg, 600) maintains the display of the low light capture status indicator in response to receiving the first selection of the low light condition indicator (eg, 602c). While in the meantime, stop displaying the control (eg, 1804) that adjusts the capture duration. In some embodiments, in response to receiving the first selection of the low light condition indicator (eg, 602c), the electronic device (eg, 600) is inactive in the low light capture mode state. Update the appearance of the low light capture status indicator to indicate that. In some embodiments, the low light capture status indicator (eg, 602c) is maintained when the display of the control that adjusts the capture duration is stopped (eg, while the low light condition is met).

いくつかの実施形態では、カメラユーザインタフェース(例えば、608)を表示することは、低光条件が満たされたという判定に従って、低光キャプチャモードが非アクティブであることを示す低光キャプチャ状態を表示している間に、電子デバイス(例えば、600)が、低光状態インジケータ(例えば、602c)の第2の選択(例えば、タップ)を受信することを含む。いくつかの実施形態では、低光状態インジケータ(例えば、602c)の第2の選択を受信したことに応答して、電子デバイス(例えば、600)は、キャプチャ持続時間を調整するコントロール(例えば、1804)を再表示する。いくつかの実施形態では、キャプチャ持続時間を調整するコントロール(例えば、1804)が再表示されると、以前のキャプチャ値のインジケーションをコントロール上に表示する(例えば、コントロールは、以前に設定された最後の値に設定されたままであり続ける)。 In some embodiments, displaying the camera user interface (eg, 608) displays a low light capture state indicating that the low light capture mode is inactive, depending on the determination that the low light condition has been met. While doing so, the electronic device (eg, 600) comprises receiving a second selection (eg, tap) of the low light condition indicator (eg, 602c). In some embodiments, in response to receiving a second selection of low light condition indicators (eg, 602c), the electronic device (eg, 600) adjusts the capture duration (eg, 1804). ) Is displayed again. In some embodiments, when the control that adjusts the capture duration (eg, 1804) is redisplayed, the indication of the previous capture value is displayed on the control (eg, the control was previously set). It remains set to the last value).

いくつかの実施形態では、低光キャプチャ状態インジケータ(例えば、602c)の第1の選択を受信したことに応答して、電子デバイス(例えば、600)は、フラッシュ動作を行わないように電子デバイスを構成する。いくつかの実施形態では、フラッシュ動作の非アクティブ状態を示すフラッシュ状態インジケータ(例えば、602a)は、フラッシュ動作のアクティブ状態を示すフラッシュ状態の表示を置き換える。いくつかの実施形態では、メディアのキャプチャが開始されると、電子デバイス(例えば、600)は、フラッシュ動作を実行するように構成されておらず、フラッシュ動作は、メディアをキャプチャするときに発生しない(例えば、フラッシュがトリガされない)。 In some embodiments, in response to receiving the first selection of the low light capture state indicator (eg, 602c), the electronic device (eg, 600) does not flush the electronic device. Constitute. In some embodiments, the flash state indicator (eg, 602a) indicating the inactive state of the flash operation replaces the flash state display indicating the active state of the flash operation. In some embodiments, when the media capture is initiated, the electronic device (eg, 600) is not configured to perform a flash operation and the flash operation does not occur when capturing the media. (For example, the flash is not triggered).

いくつかの実施形態では、低光条件は、低光状態インジケータが選択されたと満たされる条件を含む。いくつかの実施形態では、キャプチャ持続時間を調整するコントロールが表示される前に、低光キャプチャ状態インジケータが選択される(例えば、電子デバイスが低光状態インジケータに向けられたジェスチャを検出する)。 In some embodiments, the low light condition includes a condition in which the low light condition indicator is selected and satisfied. In some embodiments, the low light capture status indicator is selected before the control that adjusts the capture duration is displayed (eg, the electronic device detects a gesture directed at the low light status indicator).

方法2000に関して上述された処理(例えば、図20A〜図20C)の詳細はまた、上記及び以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2500、2700、2800、3000、3200、3400、3600、及び3800は、方法2000を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。 It should be noted that the details of the processes described above for Method 2000 (eg, FIGS. 20A-20C) are also applicable in a similar manner to the methods described above and below. For example, methods 700, 900, 1100, 1300, 1500, 1700, 1900, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3400, 3600, and 3800 are various as described above with reference to Method 2000. Optionally include one or more of the properties of the method. For the sake of brevity, these details will not be repeated below.

図21A〜図21Cは、いくつかの実施形態による電子デバイスを使用してカメラインジケーションを提供するための方法を示すフロー図である。方法2100は、表示デバイス(例えば、タッチ感知ディスプレイ)及び1つ以上のカメラ(例えば、電子デバイスの異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))、及び任意選択的に、専用の周辺光センサを備えるデバイス(例えば、100、300、500、600)で行われる。方法2100のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 21A-21C are flow diagrams illustrating methods for providing camera indications using electronic devices according to some embodiments. Method 2100 includes a display device (eg, a touch-sensitive display) and one or more cameras (eg, dual cameras, triple cameras) on different sides of the electronic device (eg, front camera, rear camera). , Quad camera, etc.), and optionally with a device (eg, 100, 300, 500, 600) equipped with a dedicated ambient light sensor. Some actions of method 2100 are optionally combined, some actions are arbitrarily modified in order, and some actions are optionally omitted.

後述するように、方法2100は、カメラインジケーションを提供するための直感的な仕方を提供する。この方法は、カメラインジケーションを閲覧する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にカメラインジケーションを閲覧することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, Method 2100 provides an intuitive way to provide camera indications. This method reduces the cognitive burden on the user when viewing the camera indication, thereby creating a more efficient human-machine interface. For battery-powered computing devices, it saves power and prolongs the time between battery charges by enabling users to view camera indications faster and more efficiently.

電子デバイス(例えば、600)は、表示デバイスを介して、カメラユーザインタフェースを表示する(2102)。 The electronic device (eg, 600) displays the camera user interface via the display device (2102).

カメラユーザインタフェースを表示している間に、電子デバイス(例えば、600)は、電子デバイスの1つ以上のセンサ(例えば、1つ又は周辺光センサ、1つ以上のカメラ)を介して、1つ以上のカメラの視野内の光量(例えば、量の輝度(例えば、20ルクス、5ルクス))を検出する(2104)。 While displaying the camera user interface, the electronic device (eg, 600) is one via one or more sensors (eg, one or ambient light sensor, one or more cameras) of the electronic device. The amount of light in the field of view of the above camera (for example, the brightness of the amount (for example, 20 lux, 5 lux)) is detected (2104).

1つ以上のカメラの視野内の光量を検出したことに応答して(2106)、1つ以上のカメラの視野内の光量が、1つ以上のカメラの視野内の光量が所定の閾値(例えば、20ルクス未満)を下回ると満たされる基準を含む、低光環境基準を満たすという判定に従って、電子デバイス(例えば、600)は、カメラユーザインタフェース(いくつかの実施形態では、低光環境基準は、1つ以上のカメラの視野内の光量が所定の範囲(例えば、20〜0ルクス)内にあると満たされる基準を含む)内に、フラッシュ動作の状態(例えば、フラッシュがメディアをキャプチャする際に発生する可能性がある操作性)(いくつかの実施形態では、フラッシュ動作の状態はフラッシュ設定(又はフラッシュモード)に基づく;これらの実施形態のうちのいくつかでは、フラッシュ動作の状態が自動又はオンに設定されているときに、光のフラッシュ(例えば、フラッシュ)は、ミーティングをキャプチャする際に発生する可能性がある;しかしながら、フラッシュ動作がオフに設定されているときに、光のフラッシュは、メディアをキャプチャする際に発生する可能性がない)を示すフラッシュ状態インジケータ(例えば、602a)(2110)(例えば、フラッシュモードアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト))と、低光キャプチャモードの状態を示す低光キャプチャ状態インジケータ(例えば、低光モードアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト))(2112)と、を同時に表示する(2108)。1つ以上のカメラの視野内の光量が低光環境基準を満たすという判定に従って、フラッシュ状態インジケータを表示することにより、検出された光量及び得られたフラッシュ設定についてのフィードバックをユーザに提供する。改善されたフィードバックを提供すれば、ユーザの活動競争への参加が増加し、デバイスの操作性が向上し、(例えば、ユーザが適切な入力を提供することを助け、デバイスとの動作/対話時にユーザの間違いを低減することによって)ユーザとデバイスのインタフェースがより効率的になり、これによって、ユーザがデバイスをより迅速かつ効率的に使用できるようになることにより、更に、電力使用が低減し、デバイスのバッテリ寿命が改善される。いくつかの実施形態では、低光キャプチャ状態インジケータは、電子デバイス(例えば、600)が、モード(例えば、低光環境モード)又はカメラユーザインタフェース(例えば、608)上で以前に選択可能でなかった(例えば、容易に利用できない(例えば、選択するための入力を2つ以上有する)又は表示されない)方法で、動作するオプションに対応する。いくつかの実施形態では、電子デバイス(例えば、600)は、別の画像で検出された光が所定の閾値を下回っても、低光インジケータが表示されると、低光キャプチャ状態インジケータ(例えば、602c)の表示を維持する。いくつかの実施形態では、電子デバイス(例えば、600)は、画像で検出された光が所定の閾値を下回ると、低光キャプチャ状態インジケータ(例えば、602c)の表示を維持しないか、又は低光インジケータの表示を停止する。いくつかの実施形態では、フラッシュ状態インジケータ(例えば、602a)又は低光キャプチャ状態インジケータ(例えば、602c)のうちの1つ以上は、そのそれぞれのモード(例えば、アクティブ(例えば、色(例えば、緑、黄色、青)として表示)又は非アクティブ(例えば、色(グレーアウト、赤、透明)として表示)の状態を示す。 In response to detecting the amount of light in the field of view of one or more cameras (2106), the amount of light in the field of view of one or more cameras is a predetermined threshold (eg, the amount of light in the field of view of one or more cameras). According to the determination that the low light environmental criteria are met, including criteria that are met below (20 lux), the electronic device (eg, 600) is a camera user interface (in some embodiments, the low light environmental criteria are When the state of flash operation (eg, when the flash captures media) within a predetermined range (eg, including criteria where the amount of light in the field of one or more cameras is satisfied to be within a predetermined range (eg, 20-0 lux)). Operability that may occur) (In some embodiments, the flash operating state is based on the flash setting (or flash mode); in some of these embodiments, the flash operating state is automatic or When set to on, a flash of light (eg, flash) can occur when capturing a meeting; however, when the flash operation is set to off, the flash of light is Flash status indicators (eg, 602a) (2110) (eg, flash mode affordance (eg, selectable user interface objects)) that indicate (which cannot occur when capturing media) and low light capture modes. A low light capture state indicator (eg, low light mode affordance (eg, selectable user interface object)) (2112) indicating the state is displayed simultaneously (2108). According to the determination that the amount of light in the field of view of one or more cameras meets the low light environmental standard, the flash status indicator is displayed to provide the user with feedback on the amount of light detected and the flash setting obtained. Providing improved feedback will increase user participation in competition and improve device usability (eg, help users provide proper input and interact with / interact with the device). By reducing user error, the interface between the user and the device becomes more efficient, which allows the user to use the device faster and more efficiently, further reducing power usage. Improves device battery life. In some embodiments, the low light capture status indicator was previously not selectable by the electronic device (eg 600) on the mode (eg low light environment mode) or camera user interface (eg 608). Corresponds to options that operate in ways that are not readily available (eg, have more than one input to select) or are not displayed. In some embodiments, the electronic device (eg, 600) has a low light capture state indicator (eg, eg, 600) when the low light indicator is displayed even though the light detected in another image is below a predetermined threshold. The display of 602c) is maintained. In some embodiments, the electronic device (eg, 600) does not maintain the display of the low light capture state indicator (eg, 602c) or low light when the light detected in the image falls below a predetermined threshold. Stop displaying the indicator. In some embodiments, one or more of the flash state indicators (eg, 602a) or low light capture state indicators (eg, 602c) are in their respective modes (eg, active (eg, color (eg, green)). , Yellow, blue) or inactive (eg, displayed as color (gray out, red, transparent)).

いくつかの実施形態では、1つ以上のカメラの視野内の光量が低光環境基準を満たし、かつフラッシュ動作がアクティブ又は非アクティブに設定されている(例えば、フラッシュ設定が自動に設定されている)かどうかを自動的に判定するようにフラッシュ設定が設定されていると満たされる基準を含む、フラッシュ動作基準が満たされているという判定に従って、フラッシュ状態インジケータ(例えば、602a)は、フラッシュ動作(例えば、メディアをキャプチャする間に、デバイスが光源(例えば、デバイスに含まれる光源)からの追加の光を使用する)の状態がアクティブ(例えば、アクティブ(「オン」)、非アクティブ(「オフ」))であることを示す。フラッシュ動作の状態を示すフラッシュ状態インジケータは、アクティブであり、1つ以上のカメラの視野内の光量が低光環境基準を満たし、かつフラッシュ動作基準が満たされているという判定に従って、フラッシュ動作の現在の設定及び環境内の光量をユーザに知らせる。改良されたフィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。いくつかの実施形態では、1つ以上のカメラの視野内の光量が低光環境基準を満たし、かつフラッシュ動作がアクティブ又は非アクティブに設定されている(例えば、フラッシュ設定が自動に設定されている)かどうかを自動的に判定するようにフラッシュ設定が設定されていると満たされる基準を含む、フラッシュ動作基準が満たされているという判定に従って、低光キャプチャインジケータ(例えば、602c)は、低光キャプチャモードの状態が非アクティブ(例えば、アクティブ(「オン」)、非アクティブ(「オフ」))であることを示す。 In some embodiments, the amount of light in the field of view of one or more cameras meets the low light environmental standard and the flash operation is set to active or inactive (eg, the flash setting is set to automatic). The flash status indicator (eg, 602a) is flash-operated (eg, 602a) according to the determination that the flash operating criteria are met, including criteria that are met if the flash setting is set to automatically determine if. For example, while capturing media, the device is active (eg, active (“on”), inactive (“off”) when the device uses additional light from a light source (eg, the light source contained in the device). )). The flash status indicator, which indicates the status of the flash operation, is active, and the current flash operation is determined according to the determination that the amount of light in the field of view of one or more cameras meets the low light environmental standard and the flash operation standard is met. Notify the user of the settings and the amount of light in the environment. By providing improved feedback to the user, it improves the usability of the device (eg, assists the user in providing appropriate input when manipulating / interacting with the device, and user error. Reduces power usage and improves device battery life by making the user-device interface more efficient (by reducing) and, in addition, allowing users to use the device faster and more efficiently. do. In some embodiments, the amount of light in the field of view of one or more cameras meets the low light environmental standard and the flash operation is set to active or inactive (eg, the flash setting is set to automatic). The low light capture indicator (eg, 602c) is low light according to the determination that the flash operating criteria are met, including criteria that are met if the flash setting is set to automatically determine if. Indicates that the capture mode state is inactive (eg, active (“on”), inactive (“off”)).

いくつかの実施形態では、1つ以上のカメラの視野内の光量が低光環境基準を満たす間に、1つ以上のカメラの視野内の光量が第1の所定の範囲(適度に低光(例えば、20〜10ルクス);フラッシュ範囲の外側)内であり、かつフラッシュ設定(例えば、デバイス上のフラッシュモード設定)がアクティブ(例えば、オン)に設定されているという判定に従って、フラッシュ状態インジケータは、フラッシュ動作(例えば、フラッシュがメディアをキャプチャする際に発生する可能性がない操作性)の状態がアクティブであることを示し、低光キャプチャインジケータ(例えば、602c)は、低光キャプチャモードの状態が非アクティブであることを示す。いくつかの実施形態では、1つ以上のカメラの視野内の光量が低光環境基準を満たす間に、1つ以上のカメラの視野内の光量が第1の所定の範囲(適度に低光(例えば、20〜10ルクス);フラッシュ範囲の外側)内であり、かつフラッシュ設定(例えば、デバイス上のフラッシュモード設定)がアクティブ(例えば、オン)に設定されているという判定に従って、フラッシュ状態インジケータ(例えば、602a)は、フラッシュ動作の状態が非アクティブであることを示し、低光キャプチャインジケータは、低光キャプチャモードの状態がアクティブであることを示す。 In some embodiments, the amount of light in the field of view of one or more cameras is in the first predetermined range (moderately low light (moderately low light), while the amount of light in the field of view of one or more cameras meets the low light environmental criteria. For example, 20-10 lux); according to the determination that the flash setting (eg, the flash mode setting on the device) is set to active (eg, on) and within the flash range), the flash status indicator is , Indicates that the state of flash operation (eg, operability that may not occur when the flash captures media) is active, and the low light capture indicator (eg, 602c) indicates the state of low light capture mode. Indicates that is inactive. In some embodiments, the amount of light in the field of view of one or more cameras is in the first predetermined range (moderately low light (moderately low light), while the amount of light in the field of view of one or more cameras meets the low light environmental criteria. For example, 20-10 lux); within the flash range) and according to the determination that the flash setting (eg, the flash mode setting on the device) is set to active (eg, on), the flash status indicator (eg, on). For example, 602a) indicates that the flash operating state is inactive, and the low light capture indicator indicates that the low light capture mode state is active.

いくつかの実施形態では、1つ以上のカメラの視野内の光量が低光環境基準を満たす間に、1つ以上のカメラの視野内の光量が第1の所定の範囲とは異なる第2の所定の範囲(非常に低光(例えば、10〜0ルクスなどの範囲);フラッシュ範囲内)内であり、(いくつかの実施形態では、第1の所定の範囲(例えば、20〜10ルクスなどの範囲)が、第2の所定の範囲(10〜0ルクス)よりも大きく、かつフラッシュ設定(例えば、デバイス上のフラッシュモード設定)が非アクティブ(例えば、オン)に設定されているという判定に従って、フラッシュ状態インジケータ(例えば、602a)は、フラッシュ動作(例えば、フラッシュがメディアをキャプチャする際に発生する可能性がない操作性)の状態が非アクティブであることを示し、低光キャプチャインジケータ(例えば、602c)は、低光キャプチャモードの状態がアクティブであることを示す。いくつかの実施形態では、1つ以上のカメラの視野内の光量が低光環境基準を満たす間に、1つ以上のカメラの視野内の光量が第1の所定の範囲とは異なる第2の所定の範囲(例えば、非常に低光(例えば、10〜0ルクスなどの範囲);フラッシュ範囲内)内であり、(いくつかの実施形態では、第1の所定の範囲(例えば、20〜10ルクスなどの範囲)が、第2の所定の範囲(10〜0ルクス)よりも大きく、かつフラッシュ設定(例えば、デバイス上のフラッシュモード設定)が非アクティブ(例えば、オン)に設定されていないという判定に従って、フラッシュ状態インジケータ(例えば、602a)は、フラッシュ動作の状態がアクティブであることを示し、低光キャプチャ(例えば、602c)インジケータは、低光キャプチャモードの状態が非アクティブであることを示す。 In some embodiments, the amount of light in the field of one or more cameras is different from the first predetermined range while the amount of light in the field of one or more cameras meets the low light environmental criteria. Within a predetermined range (very low light (eg, range of 10-0 lux, etc.); within the flash range) (in some embodiments, a first predetermined range (eg, 20-10 lux, etc.), etc. According to the determination that the range of A flash status indicator (eg, 602a) indicates that the state of flash operation (eg, operability that the flash may not experience when capturing media) is inactive and a low light capture indicator (eg, eg). , 602c) indicates that the low light capture mode state is active. In some embodiments, one or more while the amount of light in the field of one or more cameras meets the low light environmental criteria. The amount of light in the field of view of the camera is within a second predetermined range (eg, very low light (eg, range of 10-0 lux); within the flash range), which is different from the first predetermined range. In some embodiments, the first predetermined range (eg, a range of 20-10 lux) is greater than the second predetermined range (10-0 lux) and the flash setting (eg, on the device). According to the determination that the flash mode setting) is not set to inactive (eg, on), a flash status indicator (eg, 602a) indicates that the flash operating state is active and a low light capture (eg, eg). 602c) The indicator indicates that the low light capture mode state is inactive.

いくつかの実施形態では、フラッシュインジケータ(例えば、602a)が表示されており、かつフラッシュ動作の状態がアクティブであることを示し、低光キャプチャインジケータ(例えば、602c)が表示されており、かつ低光キャプチャモードの状態が非アクティブであることを示す間に、電子デバイス(例えば、600)は、フラッシュ状態インジケータの選択(例えば、タップ)を受信する(2116)。いくつかの実施形態では、フラッシュ状態インジケータ(例えば、602a)の選択を受信したことに応答して(2118)、電子デバイス(例えば、600)は、フラッシュ動作の状態が非アクティブであることを示すように、フラッシュ状態インジケータを更新する(例えば、フラッシュ状態インジケータをアクティブから非アクティブに変更する)(2120)。いくつかの実施形態では、フラッシュ状態インジケータ(例えば、602a)の選択を受信したことに応答して(2118)、電子デバイス(例えば、600)は、低光キャプチャモードの状態がアクティブであることを示すように、低光キャプチャインジケータ(例えば、602c)を更新する(例えば、低光キャプチャインジケータを非アクティブからアクティブに変更する)(2122)。選択可能フラッシュ状態インジケータを提供することにより、ユーザが、フラッシュ動作の状態を(例えば、アクティブから非アクティブに、又は非アクティブからアクティブに)迅速かつ容易に変更することを可能にする。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、フラッシュ状態インジケータをタップすることにより、フラッシュモードがオンになり、低光モードがオフになる。 In some embodiments, a flash indicator (eg, 602a) is displayed, indicating that the flash operating state is active, and a low light capture indicator (eg, 602c) is displayed and low. While indicating that the state of optical capture mode is inactive, the electronic device (eg, 600) receives a selection (eg, tap) of the flash state indicator (2116). In some embodiments, in response to receiving a selection of a flash status indicator (eg, 602a) (2118), the electronic device (eg, 600) indicates that the flash operating state is inactive. To update the flash status indicator (eg, change the flash status indicator from active to inactive) (2120). In some embodiments, in response to receiving a selection of a flash state indicator (eg, 602a) (2118), the electronic device (eg, 600) indicates that the low light capture mode state is active. As shown, the low light capture indicator (eg, 602c) is updated (eg, the low light capture indicator is changed from inactive to active) (2122). By providing a selectable flash status indicator, the user can quickly and easily change the state of the flash operation (eg, from active to inactive or from inactive to active). By providing additional control options without cluttering the UI with the additional controllers displayed, the user-device interface is enhanced (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved. In some embodiments, tapping the flash status indicator turns on the flash mode and turns off the low light mode.

いくつかの実施形態では、フラッシュインジケータ(例えば、602a)が表示されており、かつフラッシュ動作の状態がアクティブであることを示し、低光キャプチャインジケータ(例えば、602c)が表示されており、かつ低光キャプチャモードの状態が非アクティブであることを示す間に、電子デバイス(例えば、600)は、低光キャプチャ状態インジケータの(例えば、タップ)選択を受信する(2124)。いくつかの実施形態では、低光キャプチャ状態インジケータ(例えば、602c)の選択を受信したことに応答して(2126)、電子デバイス(例えば、600)は、フラッシュ動作の状態が非アクティブであることを示すように、フラッシュ状態インジケータ(例えば、602a)を更新する(例えば、フラッシュ状態インジケータを非アクティブからアクティブに変更する)(2128)。いくつかの実施形態では、低光キャプチャ状態インジケータ(例えば、602c)の選択を受信したことに応答して(2126)、電子デバイス(例えば、600)は、低光キャプチャモードの状態がアクティブであることを示すように、低光キャプチャ状態インジケータを更新する(例えば、低光キャプチャ状態インジケータを非アクティブからアクティブに変更する)(2130)。選択可能低光キャプチャ状態インジケータを提供することにより、ユーザが、低光キャプチャモードを迅速かつ容易に変更することを可能にする。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、低光キャプチャ状態インジケータ(例えば、602c)をタップすることにより、低光モードがオンになり、フラッシュモードがオフになる。 In some embodiments, a flash indicator (eg, 602a) is displayed, indicating that the flash operating state is active, and a low light capture indicator (eg, 602c) is displayed and low. While indicating that the state of light capture mode is inactive, the electronic device (eg, 600) receives a (eg, tap) selection of the low light capture state indicator (eg, tap) (2124). In some embodiments, in response to receiving a selection of the low light capture state indicator (eg, 602c) (2126), the electronic device (eg, 600) has the flashing state inactive. Update the flash status indicator (eg, 602a) (eg, change the flash status indicator from inactive to active) (2128). In some embodiments, in response to receiving a selection of the low light capture state indicator (eg, 602c) (2126), the electronic device (eg, 600) is active in the low light capture mode state. The low light capture status indicator is updated (eg, the low light capture status indicator is changed from inactive to active) (2130) to indicate that. By providing a selectable low light capture status indicator, the user can quickly and easily change the low light capture mode. By providing additional control options without cluttering the UI with the additional controllers displayed, the user-device interface is enhanced (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved. In some embodiments, tapping the low light capture status indicator (eg, 602c) turns the low light mode on and the flash mode off.

いくつかの実施形態では、低光キャプチャモードの状態がアクティブであるという判定に従って、電子デバイス(例えば、600)は、キャプチャ持続時間を調整するコントロール(例えば、1804)(例えば、スライダ)を表示する(2132)(例えば、時間(例えば、合計キャプチャ時間、露出時間)、ピクチャ/フレームの数で測定)。低光キャプチャモードの状態がアクティブであるという判定に従って、キャプチャ持続時間を調整するキャプチャ持続時間を調整するコントロールを表示することにより、ユーザが、このようなコントロールが必要とされる可能性があるときに、キャプチャ持続時間を調整するコントロールに迅速かつ容易にアクセスすることを可能にする。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、調整可能なコントロール(例えば、1804)は、ティックマークを含み、各ティックマークは、調整可能なコントロールの値を表す。 In some embodiments, the electronic device (eg, 600) displays a control (eg, 1804) (eg, slider) that adjusts the capture duration, depending on the determination that the low light capture mode state is active. (2132) (measured, for example, by time (eg, total capture time, exposure time), number of pictures / frames). Adjusting the capture duration according to the determination that the low light capture mode state is active When the user may need such a control by displaying a control that adjusts the capture duration. In addition, it allows quick and easy access to controls that adjust the capture duration. By providing additional control options without cluttering the UI with the additional controllers displayed, the user-device interface is enhanced (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved. In some embodiments, the adjustable control (eg, 1804) includes tick marks, and each tick mark represents the value of the adjustable control.

いくつかの実施形態では、キャプチャ持続時間を調整するコントロール(例えば、1804)を表示している間に、電子デバイス(例えば、600)は、第1のキャプチャ持続時間から第2のキャプチャ持続時間にコントロールを変更する要求を受信する(2134)。いくつかの実施形態では、第1のキャプチャ持続時間から第2のキャプチャ持続時間にコントロールを変更する要求を受信したことに応答して(2136)、第2のキャプチャ持続時間が低光キャプチャモードを非アクティブ化する所定のキャプチャ持続時間(例えば、ゼロ以下の持続時間(例えば、標準条件又は別の条件でデバイスを動作させる持続時間に対応する持続時間))であるという判定に従って、電子デバイス(例えば、600)は、低光キャプチャモードの状態が非アクティブであることを示すように、低光キャプチャ状態インジケータ(例えば、602c)を更新する(2138)。いくつかの実施形態では、キャプチャ持続時間が所定のキャプチャ持続時間でないという判定に従って、電子デバイス(例えば、600)は、低光キャプチャモードの状態がアクティブであることを示すように、低光キャプチャインジケーション(例えば、602c)を維持する。第2のキャプチャ持続時間が低光キャプチャモードを非アクティブ化する所定のキャプチャ持続時間であるか、又はキャプチャ持続時間が所定のキャプチャ持続時間でないかどうかの判定に基づいて、低光キャプチャ状態インジケータを(例えば、自動的に、ユーザ入力なしで)更新することによって、ユーザに、低光キャプチャモードがアクティブ又は非アクティブであるかどうかの視覚的フィードバックを提供し、ユーザが低光キャプチャモードを手動で変更する必要がないことを可能にする。改善された視覚的フィードバックを提供し、操作を行うために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the electronic device (eg, 600) moves from the first capture duration to the second capture duration while displaying a control (eg, 1804) that adjusts the capture duration. Receives a request to change the control (2134). In some embodiments, in response to receiving a request to change the control from the first capture duration to the second capture duration (2136), the second capture duration is set to low light capture mode. An electronic device (eg, a duration corresponding to the duration of operating the device under standard or other conditions) determined to be a predetermined capture duration to be deactivated (eg, a duration below zero (eg, a duration corresponding to the duration of operating the device under standard or different conditions)). , 600) update the low light capture state indicator (eg, 602c) to indicate that the low light capture mode state is inactive (2138). In some embodiments, according to the determination that the capture duration is not a given capture duration, the electronic device (eg, 600) has a low light capture indicator to indicate that the low light capture mode state is active. The capture (eg, 602c) is maintained. The low light capture status indicator is based on determining whether the second capture duration is a given capture duration that deactivates the low light capture mode, or if the capture duration is not a given capture duration. By updating (eg, automatically, without user input), the user is provided with visual feedback as to whether the low light capture mode is active or inactive, and the user manually sets the low light capture mode. Allows you to not have to change. By providing improved visual feedback and reducing the number of inputs required to perform operations, the device is more user-friendly and the user-device interface (eg, interacting with / interacting with the device) is enhanced. By assisting the user in providing proper input at times and reducing user errors), and in addition, by allowing the user to use the device faster and more efficiently. Power usage is reduced and battery life is improved.

いくつかの実施形態では、キャプチャ持続時間を調整するコントロール(例えば、1804)(例えば、スライダ)を表示している間に、電子デバイス(例えば、600)は、低光キャプチャモードの状態の変化を検出する。いくつかの実施形態では、低光キャプチャモードの状態の変化を検出したことに応答して、低光キャプチャモードの状態が非アクティブであるという判定に従って、電子デバイス(例えば、600)は、キャプチャ持続時間を調整するコントロール(例えば、1804)(例えば、スライダ)の表示を停止する(例えば、時間(例えば、合計キャプチャ時間、露出時間)、ピクチャ/フレームの数で測定)。低光キャプチャモードの状態の変化を検出したことに応答して、及び低光キャプチャモードの状態が非アクティブであるという判定に従って、キャプチャ持続時間を調整するコントロールを表示するのをやめることによって、電子デバイスは、現在必要とされる可能性がないコントロールオプションを削除するので、追加の表示されたコントロールによってUIを雑然とさせない。これにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、調整可能なコントロール(例えば、1804)は、ティックマークを含み、各ティックマークは、調整可能なコントロールの値を表す。 In some embodiments, the electronic device (eg, 600) changes the state of the low light capture mode while displaying a control (eg, 1804) (eg, slider) that adjusts the capture duration. To detect. In some embodiments, the electronic device (eg, 600) captures persists according to the determination that the low light capture mode state is inactive in response to detecting a change in the low light capture mode state. Stop displaying a time-adjusting control (eg, 1804) (eg, slider) (eg, time (eg, total capture time, exposure time), measured by number of pictures / frames). Electronic by detecting a change in the state of the low light capture mode and by stopping displaying the control that adjusts the capture duration according to the determination that the state of the low light capture mode is inactive. The device removes control options that may not currently be needed, so additional displayed controls do not clutter the UI. This enhances the usability of the device and provides a user-device interface (eg, by assisting the user in providing appropriate input when manipulating / interacting with the device and reducing user error). By making the device more efficient and, in addition, allowing the user to use the device faster and more efficiently, the power usage of the device is reduced and battery life is improved. In some embodiments, the adjustable control (eg, 1804) includes tick marks, and each tick mark represents the value of the adjustable control.

いくつかの実施形態では、電子デバイス(例えば、600)は、カメラユーザインタフェース(例えば、608)内に、1つ以上のカメラの視野の第1の表現を表示する。いくつかの実施形態では、低光キャプチャモードの状態がアクティブである間に、電子デバイス(例えば、600)は、1つ以上のカメラの視野の第1のメディアをキャプチャする要求を受信する。いくつかの実施形態では、低光キャプチャモードの状態がアクティブである間に、第1のメディア(例えば、写真、ビデオ)をキャプチャする要求(例えば、キャプチャアフォーダンスのアクティブ化(例えば、タップオン))を受信したことに応答して、電子デバイス(例えば、600)は、(例えば、1つ以上のカメラを介して)第1のメディアのキャプチャを開始する。いくつかの実施形態では、低光キャプチャモードの状態がアクティブである間に、第1のメディア(例えば、写真、ビデオ)をキャプチャする要求(例えば、キャプチャアフォーダンスのアクティブ化(例えば、タップオン))を受信したことに応答して、電子デバイス(例えば、600)は、第1のメディアのキャプチャ持続時間について1つ以上のカメラの視野の第1の表現の表示を維持する(例えば、更新又は変更なしで表示し続ける)。 In some embodiments, the electronic device (eg, 600) displays a first representation of the field of view of one or more cameras within the camera user interface (eg, 608). In some embodiments, the electronic device (eg, 600) receives a request to capture the first medium in the field of view of one or more cameras while the low light capture mode state is active. In some embodiments, a request to capture a first medium (eg, photo, video) (eg, capture affordance activation (eg, tap-on)) is made while the low light capture mode state is active. In response to the receipt, the electronic device (eg, 600) initiates the capture of the first media (eg, via one or more cameras). In some embodiments, a request to capture a first medium (eg, photo, video) (eg, capture affordance activation (eg, tap-on)) is made while the low light capture mode state is active. In response to receipt, the electronic device (eg, 600) maintains a display of the first representation of the field of view of one or more cameras for the capture duration of the first media (eg, no updates or changes). Continue to display with).

いくつかの実施形態では、低光キャプチャモードの状態がアクティブである間に、電子デバイス(例えば、600)は、1つ以上のカメラの視野の第2のメディアをキャプチャする要求を受信する。いくつかの実施形態では、低光キャプチャモードの状態がアクティブである間に、第2のメディア(例えば、写真、ビデオ)をキャプチャする要求(例えば、キャプチャアフォーダンスのアクティブ化(例えば、タップオン))を受信したことに応答して、電子デバイス(例えば、600)は、(例えば、1つ以上のカメラを介して)第2のメディアのキャプチャを開始する。いくつかの実施形態では、第2のメディアを(例えば、1つ以上のカメラを介して)キャプチャしている間に、電子デバイス(例えば、600)は、カメラユーザインタフェース内に、第2のメディア(例えば、キャプチャされている写真又はビデオ)の表現を同時に表示する。第2のメディアをキャプチャしている間に、カメラユーザインタフェース内に、第2のメディアの表現を同時に表示することによって、ユーザに、キャプチャされている第2のメディアの視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the electronic device (eg, 600) receives a request to capture a second medium in the field of view of one or more cameras while the low light capture mode state is active. In some embodiments, a request to capture a second medium (eg, photo, video) (eg, capture affordance activation (eg, tap-on)) is made while the low light capture mode state is active. In response to the receipt, the electronic device (eg, 600) initiates the capture of the second media (eg, via one or more cameras). In some embodiments, the electronic device (eg, 600) is in the camera user interface while capturing the second media (eg, through one or more cameras). Display representations (eg, captured photos or videos) at the same time. While capturing the second media, the user is provided with visual feedback of the second media being captured by simultaneously displaying a representation of the second media in the camera user interface. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

いくつかの実施形態では、電子デバイス(例えば、600)は、カメラユーザインタフェース内に、1つ以上のカメラの視野の第2の表現を表示する。いくつかの実施形態では、低光キャプチャモードの状態がアクティブである間に、電子デバイス(例えば、600)は、1つ以上のカメラの視野の第3のメディアをキャプチャする要求を受信する。いくつかの実施形態では、低光キャプチャモードの状態がアクティブである間に、第3のメディア(例えば、写真、ビデオ)をキャプチャする要求(例えば、キャプチャアフォーダンスのアクティブ化(例えば、タップオン))を受信したことに応答して、電子デバイス(例えば、600)は、(例えば、1つ以上のカメラを介して)第3のメディアのキャプチャを開始する。いくつかの実施形態では、第3のメディアをキャプチャしている間に、電子デバイス(例えば、600)は、カメラユーザインタフェース内の1つ以上のカメラの視野から導出された(例えば、それからキャプチャされた、それに基づく)表現(例えば、キャプチャされているメディア)の表示を停止する。第3のメディアをキャプチャしている間に、及び低光キャプチャモードの状態がアクティブである間に、1つ以上のカメラの視野から導出された表現の表示を停止することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされたときに動作を行い、これにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the electronic device (eg, 600) displays a second representation of the field of view of one or more cameras within the camera user interface. In some embodiments, the electronic device (eg, 600) receives a request to capture a third medium in the field of view of one or more cameras while the low light capture mode state is active. In some embodiments, a request to capture a third medium (eg, photo, video) (eg, capture affordance activation (eg, tap-on)) is made while the low light capture mode state is active. In response to the receipt, the electronic device (eg, 600) initiates the capture of the third medium (eg, via one or more cameras). In some embodiments, while capturing the third medium, the electronic device (eg, 600) is derived from the field of view of one or more cameras within the camera user interface (eg, captured from it). Also, stop displaying the representation (eg, the captured media) based on it. By stopping the display of representations derived from the field of view of one or more cameras while capturing a third medium and while the low light capture mode state is active, the electronic device can: It operates when a set of conditions is met without the need for additional user input, which enhances the usability of the device and makes the user-device interface (eg, manipulating the device / interacting with the device). By assisting the user in providing proper input and reducing user errors), and by allowing the user to use the device faster and more efficiently. Power usage is reduced and battery life is improved.

1つ以上のカメラの視野内の光量を検出したことに応答して(2106)、1つ以上のカメラの視野内の光量が低光環境基準を満たしていないという判定に従って、電子デバイス(例えば、600)は、カメラユーザインタフェース(例えば、608)内の低光キャプチャ状態インジケータ(例えば、602c)を表示するのをやめる(例えば、フラッシュ状態インジケータの表示を維持している間に)(2114)。1つ以上のカメラの視野内の光量が低光環境基準を満たしていないという判定に従って、低光キャプチャ状態インジケータを表示するのをやめることにより、(例えば、検出された光量に基づく必要がないため)低光キャプチャモードが非アクティブであることをユーザに知らせる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In response to detecting the amount of light in the field of view of one or more cameras (2106), according to the determination that the amount of light in the field of view of one or more cameras does not meet the low light environmental criteria, an electronic device (eg, eg). 600) ceases to display the low light capture state indicator (eg, 602c) in the camera user interface (eg, 608) (eg, while maintaining the display of the flash state indicator) (2114). By stopping displaying the low light capture status indicator according to the determination that the amount of light in the field of view of one or more cameras does not meet the low light environmental standard (eg, because it does not have to be based on the amount of light detected). ) Inform the user that the low light capture mode is inactive. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

いくつかの実施形態では、更に1つ以上のカメラの視野内の光量が低光環境基準を満たしていないという判定に従って、電子デバイス(例えば、600)は、カメラユーザインタフェース内に、フラッシュ動作の状態を示すフラッシュ状態インジケータ(例えば、602a)を表示する(例えば、フラッシュ状態インジケータは、低光モードで表示されていないときに、維持される)。 In some embodiments, the electronic device (eg, 600) is in a flash operating state within the camera user interface, in accordance with the determination that the amount of light in the field of view of one or more cameras does not meet the low light environmental criteria. Displays a flash status indicator (eg, 602a) that indicates (eg, the flash status indicator is maintained when not displayed in low light mode).

いくつかの実施形態では、フラッシュ動作の状態及び低光キャプチャモードの状態は、互いに排他的である(例えば、フラッシュ動作及び光キャプチャモードは、同時ではない(例えば、フラッシュ動作がアクティブであるとき、低光キャプチャモードは非アクティブであり、低光キャプチャモードがアクティブであるとき、フラッシュ動作は非アクティブである))。互いに排他的であるフラッシュ動作及び低光キャプチャモードは、デバイスのリソースをより効率的な方法で使用しているため、電子デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the flash operation state and the low light capture mode state are mutually exclusive (eg, the flash operation and the light capture mode are not simultaneous (eg, when the flash operation is active). The low light capture mode is inactive, and when the low light capture mode is active, the flash operation is inactive)). The mutually exclusive flash operation and low light capture modes use the device's resources in a more efficient way, thus reducing the power usage of the electronic device and improving battery life.

いくつかの実施形態では、低光キャプチャモードの状態は、アクティブ状態(例えば、図26Hの602c)(例えば、低光キャプチャモードがアクティブであることを示す状態(例えば、デバイスが、メディアをキャプチャする要求に応答して、低光キャプチャモードでメディアキャプチャするように現在構成される状態))、利用可能状態(例えば、低光キャプチャモードが利用可能であることを示す状態(例えば、図26Bの602c)(例えば、デバイスが低光キャプチャモードでメディアキャプチャするように現在構成されていないが、低光モードでメディアをキャプチャするように構成され得る状態)、低光キャプチャモードが利用可能であることを示し、ユーザによってオン又はオフに手動ですることができない状態(例えば、低光キャプチャモードインジケータがまず(最近)表示されるか、又は低光キャプチャモードインジケータを表示する判定を行ったため、デバイスは、低光キャプチャモードでメディアをキャプチャするように構成されていないか、又は低光キャプチャモードでメディアをキャプチャしない))、並びに非アクティブ状態(例えば、図26Aの602cが不存在)(例えば、低光キャプチャモードが非アクティブであることを示す状態(例えば、デバイスが、メディアをキャプチャする要求に応答して、低光キャプチャモードでメディアをキャプチャするように現在構成されていない状態))からなる群から選択される。 In some embodiments, the low light capture mode state is an active state (eg, 602c in FIG. 26H) (eg, a state indicating that the low light capture mode is active (eg, the device captures media). In response to a request, a state currently configured to capture media in low light capture mode), an available state (eg, a state indicating that low light capture mode is available (eg, 602c in FIG. 26B)). ) (For example, the device is not currently configured to capture media in low light capture mode, but can be configured to capture media in low light mode), that low light capture mode is available. The device indicates that the device cannot be manually turned on or off by the user (eg, the low light capture mode indicator is first (recently) displayed, or the device has determined to display the low light capture mode indicator. Not configured to capture media in low light capture mode or do not capture media in low light capture mode), and inactive (eg, 602c in FIG. 26A is absent) (eg, low light Consists of a group of states indicating that the capture mode is inactive (for example, the device is not currently configured to capture the media in low light capture mode in response to a request to capture the media). Be selected.

いくつかの実施形態では、1つ以上のカメラの視野内の光量が低光環境基準を満たす間に、かつ1つ以上のカメラの視野内の光量が第3の所定の範囲(適度に低光(例えば、20〜10ルクス);フラッシュ範囲の外側)内であるという判定に従って、フラッシュ状態インジケータは、フラッシュ動作(例えば、フラッシュがメディアをキャプチャする際に発生する可能性がない操作性)の状態が利用可能であることを示す(例えば、図26Bの602c)。 In some embodiments, the amount of light in the field of view of one or more cameras meets the low light environmental criteria, and the amount of light in the field of view of one or more cameras is in a third predetermined range (moderately low light). According to the determination (eg, 20-10 lux); within the flash range), the flash status indicator indicates the status of the flash operation (eg, operability that the flash may not experience when capturing media). Is available (eg, 602c in FIG. 26B).

いくつかの実施形態では、キャプチャ持続時間を調整するコントロールは、第1のコントロールである。いくつかの実施形態では、フラッシュ状態インジケータが、フラッシュ動作の状態が利用可能であることを示す間に(例えば、図26Bの602c)、電子デバイスは、低光キャプチャ状態インジケータの選択を受信する。いくつかの実施形態では、キャプチャ低光キャプチャ状態インジケータの選択を受信したことに応答して、電子デバイスは、低光キャプチャモードの状態がアクティブであることを示すように、低光キャプチャ状態インジケータを更新する(例えば、図26B〜図26Cの602c)。いくつかの実施形態では、キャプチャ低光キャプチャ状態インジケータの選択を受信したことに応答して、及びフラッシュ状態インジケータが、フラッシュモードの状態が自動であることを示すという判定に従って、電子デバイスは、フラッシュモードの状態が非アクティブであることを示すように、フラッシュ状態インジケータを更新し、かつキャプチャ持続時間を調整する第2のコントロール(例えば、スライダ)を表示する(例えば、時間(例えば、合計キャプチャ時間、露出時間)、ピクチャ/フレームの数で測定)。いくつかの実施形態では、調整可能なコントロールは、ティックマークを含み、各ティックマークは、調整可能なコントロールの値を表す。 In some embodiments, the control that adjusts the capture duration is the first control. In some embodiments, the electronic device receives a selection of low light capture status indicators while the flash status indicator indicates that a flash operating status is available (eg, 602c in FIG. 26B). In some embodiments, in response to receiving a selection of the capture low light capture state indicator, the electronic device uses a low light capture state indicator to indicate that the low light capture mode state is active. Update (eg, 602c in FIGS. 26B-26C). In some embodiments, the electronic device flashes in response to receiving a selection of the capture low light capture status indicator, and according to the determination that the flash status indicator indicates that the flash mode state is automatic. Update the flash status indicator to indicate that the mode state is inactive, and display a second control (eg, slider) that adjusts the capture duration (eg, time (eg, total capture time)). , Exposure time), measured by the number of pictures / frames). In some embodiments, the adjustable control includes tick marks, where each tick mark represents the value of the adjustable control.

いくつかの実施形態では、1つ以上のカメラの視野内の周辺光が第4の所定の範囲(例えば、1ルクス未満などの所定の範囲)内であるという判定に従って、第1の低光キャプチャ状態インジケータ(例えば、図26Hの602c)は、第1のキャプチャ持続時間の第1の視覚表現(例えば、第1のキャプチャ持続時間を示すテキスト)を含む。いくつかの実施形態では、1つ以上のカメラの視野内の周辺光が第4の所定の範囲(例えば、1ルクス超などの所定の範囲)内にないという判定に従って、第1の低光キャプチャ状態インジケータは、第1のキャプチャ持続時間(例えば、図26Eの602c)の第1の視覚表現(例えば、第1のキャプチャ持続時間を示すテキスト)(又はコントロールが第2のキャプチャ持続時間に設定されているというインジケーションを表示する第2のキャプチャ持続時間ホイール)を含まない。いくつかの実施形態では、1つ以上のカメラの視野内の周辺光が変化すると、電子デバイスは、周辺光が第1の所定の範囲又は第2の所定の範囲にあるかどうかに基づいて、第1のキャプチャ持続時間(又は第2のキャプチャ持続時間)の視覚表現を表示するかどうかを自動的に再評価する。 In some embodiments, a first low light capture according to the determination that the peripheral light in the field of view of one or more cameras is within a fourth predetermined range (eg, a predetermined range such as less than 1 lux). The status indicator (eg, 602c in FIG. 26H) includes a first visual representation of the first capture duration (eg, text indicating the first capture duration). In some embodiments, the first low light capture is based on the determination that the peripheral light in the field of view of one or more cameras is not within a fourth predetermined range (eg, a predetermined range, such as over 1 lux). The status indicator is set to the first visual representation (eg, text indicating the first capture duration) (or control is set to the second capture duration) of the first capture duration (eg, 602c in FIG. 26E). Does not include a second capture duration wheel) that displays the indication that it is. In some embodiments, when the peripheral light in the field of view of one or more cameras changes, the electronic device is based on whether the peripheral light is in a first predetermined range or a second predetermined range. Automatically reassess whether to display a visual representation of the first capture duration (or second capture duration).

いくつかの実施形態では、1つ以上のカメラの視野内の光量を検出したことに応答して、及び1つ以上のカメラの視野内の光量が低光環境基準を満たすという判定に従って、電子デバイスは、1つ以上のカメラの視野内の周辺光が第3の所定の範囲内(例えば、1ルクスなどの閾値未満)にあるという判定に従って、低光キャプチャ状態インジケータ(例えば、図26Hの602c)が、低光キャプチャモードの状態がアクティブである(例えば、低光キャプチャモードがアクティブであることを示す状態(例えば、デバイスが、メディアをキャプチャする要求に応答して、低光キャプチャモードでメディアをキャプチャするように現在構成されている状態))ことを示し、第1のキャプチャ持続時間の第2の視覚表現(例えば、「5秒」)を含み;1つ以上のカメラの視野内の周辺光が第4の所定の範囲(例えば、1ルクス〜10ルクスなどの範囲)内にあるという判定に従って、低光キャプチャ状態インジケータ(例えば、図26Eの602c)が、低光キャプチャモードの状態がアクティブであることを示し、第1のキャプチャ持続時間の第2の視覚表現(例えば、「5秒」)を含まず;1つ以上のカメラの視野内の周辺光が第5の所定の範囲(例えば、10〜20ルクスなどの範囲)内にあるという判定に従って、低光キャプチャ状態インジケータが、低光キャプチャモードの状態が利用可能である(例えば、図26Bの602c)ことを示し、低光キャプチャモードの状態がアクティブであることを示し、第1のキャプチャ持続時間の第2の視覚表現を含む低光キャプチャ状態インジケータと、低光キャプチャモードの状態がアクティブであることを示し、第1のキャプチャ持続時間の第2の視覚表現を含まない低光キャプチャ状態インジケータと、低光キャプチャモードの状態が利用可能である(例えば、低光キャプチャモードが利用可能であることを示す状態(例えば、デバイスが、低光キャプチャモードでメディアをキャプチャするように現在構成されていないが、低光モードでメディアをキャプチャするように構成され得る状態)、低光キャプチャモードが利用可能であることを示し、ユーザによってオン又はオフに手動ですることができない状態(例えば、低光キャプチャモードインジケータがまず(最近)表示されるか、又は低光キャプチャモードインジケータを表示する判定を行ったため、デバイスは、低光キャプチャモードでメディアをキャプチャするように構成されていないか、又は低光キャプチャモードでメディアをキャプチャしない))低光キャプチャ状態インジケータとが、互いに視覚的に異なる(例えば、表示された色、質感、太さ、文字、又はマークが異なる(例えば、非アクティブ状態を示すために取り消し線が引かれる)、キャプチャ持続時間の視覚表現を有無)。いくつかの実施形態では、低光モードの状態が利用可能であることを示す低光キャプチャモードは、キャプチャ持続時間(例えば、第3のキャプチャ持続時間)の視覚表現を含まない。所定の条件が満たされているときに低光状態インジケータ内にキャプチャ持続時間の視覚表現を表示することによって、キャプチャ持続時間がキャプチャ持続時間の通常範囲の外側である場合に、電子デバイスを使用して、メディアをキャプチャする、キャプチャ持続時間の現在の状態についてのフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。所定の条件が満たされているときに視覚表現なしで低光状態インジケータを表示することによって、電子デバイスが低光モードの間にメディアをキャプチャするように構成され、ユーザインタフェースを雑然とさせることなく、キャプチャ持続時間の通常範囲であるメディアをキャプチャするためのキャプチャ持続時間を使用するフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。所定の条件が満たされているときに低光状態を示す低光キャプチャ状態インジケータを表示することによって、ユーザが、低光モードであるが、低光モードでメディアをキャプチャするように(例えば、ユーザ入力を介して)構成可能である間に、電子デバイスがメディアをキャプチャするように構成されていないことを迅速に認識できるようにし、ユーザが、メディアをキャプチャする要求を受信したことに応答して、電子デバイスが低光モードに従って動作しないことを迅速に理解できるようにする。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the electronic device responds to the detection of light in the field of view of one or more cameras, and in accordance with the determination that the light in the field of view of one or more cameras meets the low light environmental criteria. Is a low light capture state indicator (eg, 602c in FIG. 26H) according to the determination that the ambient light in the field of view of one or more cameras is within a third predetermined range (eg, less than a threshold such as 1 lux). However, the low light capture mode state is active (for example, a state indicating that the low light capture mode is active (for example, the device responds to a request to capture the media and moves the media in the low light capture mode). Indicates that it is currently configured to capture)) and includes a second visual representation of the first capture duration (eg, "5 seconds"); ambient light within the field of view of one or more cameras. According to the determination that is within a fourth predetermined range (eg, 1 lux to 10 lux, etc.), the low light capture state indicator (eg, 602c in FIG. 26E) is active in the low light capture mode state. Indicates that it does not include a second visual representation of the first capture duration (eg, "5 seconds"); ambient light within the field of view of one or more cameras is in a fifth predetermined range (eg, "eg"). According to the determination that it is within a range of 10 to 20 lux, etc.), the low light capture status indicator indicates that the low light capture mode state is available (eg, 602c in FIG. 26B) and is in the low light capture mode. A low light capture state indicator that indicates that the state is active and includes a second visual representation of the first capture duration, and a low light capture mode state that indicates that the state is active and has a first capture duration. A low-light capture state indicator that does not include a second visual representation of the, and a low-light capture mode state are available (eg, a state that indicates that low-light capture mode is available (eg, the device is low). A state that is not currently configured to capture media in optical capture mode, but can be configured to capture media in low optical mode), indicates that low optical capture mode is available and is turned on or by the user. The device cannot be turned off manually (for example, the low light capture mode indicator is displayed first (recently), or the low light capture mode indicator is displayed because it is determined to be displayed. The low light capture status indicators, which are not configured to capture media in low light capture mode or do not capture media in low light capture mode, are visually different from each other (eg, displayed). Different colors, textures, thicknesses, letters, or marks (eg, with or without a visual representation of the capture duration) that are delineated to indicate inactivity). In some embodiments, the low light capture mode, which indicates that the low light mode state is available, does not include a visual representation of the capture duration (eg, a third capture duration). Use an electronic device when the capture duration is outside the normal range of the capture duration by displaying a visual representation of the capture duration in the low light condition indicator when certain conditions are met. And provide the user with feedback on the current state of the capture duration, which captures the media. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve. By displaying a low light condition indicator without visual representation when certain conditions are met, the electronic device is configured to capture media during low light mode without cluttering the user interface. Provides users with feedback using the capture duration to capture media, which is the normal range of capture duration. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve. By displaying a low light capture status indicator that indicates a low light state when certain conditions are met, the user can capture media in low light mode but in low light mode (eg, user). While configurable (via input), it allows the electronic device to quickly recognize that it is not configured to capture media, in response to a user receiving a request to capture media. , Allows you to quickly understand that electronic devices do not operate according to low light mode. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.

方法2100に関して上述された処理(例えば、図21A〜図21C)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2300、2500、2700、2800、3000、3200、3400、3600、及び3800は、方法2100を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。 It should be noted that the details of the processes described above for method 2100 (eg, FIGS. 21A-21C) are also applicable to the methods described above in a similar manner. For example, methods 700, 900, 1100, 1300, 1500, 1700, 1900, 2300, 2500, 2700, 2800, 3000, 3200, 3400, 3600, and 3800 are of the various methods described above with reference to Method 2100. Includes one or more of the properties optionally. For the sake of brevity, these details will not be repeated below.

図22A〜図22AMは、いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図23A〜図23Bにおける処理を含む、以下で説明される処理を例示するために使用される。 22A-22AM show exemplary user interfaces for editing media captured using electronic devices according to some embodiments. The user interfaces in those figures are used to illustrate the processes described below, including the processes in FIGS. 23A-23B.

図22Aは、メディアビューワユーザインタフェースを表示する電子デバイス600を示す。メディアビューワユーザインタフェースは、編集アフォーダンス644a及びキャプチャされたメディア(例えば、写真)の表現2230aを含む。表現2230aを表示している間に、デバイス600は、ポートレートカメラモード(例えば、ボケ及び/又は照明効果が適用されているモード)が有効化された間に(例えば、シャッターボタン610のアクティブ化により、デバイス600が図8Hに示すように、ポートレートモードで構成されている間に、キャプチャされたメディアが深度情報を含む)、表現2230aによって表されたキャプチャされたメディアが以前にキャプチャされたと判定する。更には、判定に応答して、デバイス600は、ポートレート画像状態インジケータ644gを表示する。換言すれば、ポートレート画像状態インジケータ644gは、表現2230aがポートレート画像の表現であると示す。 FIG. 22A shows an electronic device 600 displaying a media viewer user interface. The media viewer user interface includes an edit affordance 644a and a representation 2230a of the captured media (eg, a photo). While displaying the representation 2230a, the device 600 activates the shutter button 610 while the portrait camera mode (eg, the mode in which the blur and / or lighting effect is applied) is enabled (eg, the activation of the shutter button 610). Because the captured media contains depth information while the device 600 is configured in portrait mode, as shown in FIG. 8H), the captured media represented by representation 2230a was previously captured. judge. Further, in response to the determination, the device 600 displays a portrait image status indicator of 644 g. In other words, the portrait image state indicator 644g indicates that the representation 2230a is a representation of the portrait image.

図22Aでは、デバイス600は、編集アフォーダンス644aに対応する場所でのタップジェスチャ2250aを検出する。タップジェスチャ2250aを検出したことに応答して、図22Bに示すように、デバイス600は、メディアビューワユーザインタフェースを、メディア編集ユーザインタフェースに置き換える。図22Bに示すように、メディア編集ユーザインタフェースは、図22Aにおいて表現2230aに対応する表現2230bを含む。すなわち、表現2230bは、任意の調整なしに、表現2230aとして以前にキャプチャされたメディアと同じ表現を示す。メディア編集ユーザインタフェースはまた、インジケータ領域602及びコントロール領域606を含む。図22Aにおいて、コントロール領域606の一部分は、表現2230b上に重ねられ、任意選択的に着色された(例えば、灰色、半透明)オーバーレイを含む。いくつかの実施形態では、インジケータ領域602は、表現2230b上に重ねられ、任意選択的に着色された(例えば、灰色、半透明)オーバーレイを含む。 In FIG. 22A, the device 600 detects the tap gesture 2250a at a location corresponding to the edit affordance 644a. In response to detecting the tap gesture 2250a, the device 600 replaces the media viewer user interface with a media editing user interface, as shown in FIG. 22B. As shown in FIG. 22B, the media editing user interface includes representation 2230b corresponding to representation 2230a in FIG. 22A. That is, representation 2230b represents the same representation as previously captured media as representation 2230a, without any adjustment. The media editing user interface also includes an indicator area 602 and a control area 606. In FIG. 22A, a portion of control area 606 includes an optionally colored (eg, gray, translucent) overlay overlaid on representation 2230b. In some embodiments, the indicator region 602 includes an optionally overlaid (eg, gray, translucent) overlay overlaid on the representation 2230b.

コントロール領域606は、編集モードアフォーダンス2210を含み、編集モードアフォーダンス2210には、ポートレートメディア編集モードアフォーダンス2210a、視覚特性編集モードアフォーダンス2210b、フィルタ編集モードアフォーダンス2210c、及び画像コンテンツ編集モードアフォーダンス2210dを含む。ポートレートメディア編集モードアフォーダンス2210aは、メディア編集モードアフォーダンスのタイプである。すなわち、ポートレートメディア編集モードアフォーダンス2210aは、編集されている特定のタイプのキャプチャされたメディアに対応する。メディア編集アフォーダンスが選択されると、デバイス600は、特定のタイプのメディアを編集するように設計された特定の1組の編集ツールを表示する。図22Aでは、デバイス600は、ポートレート画像(例えば、深度情報を含むメディアに基づく)に対応する表現2230bを判定し、それに応答して、ポートレートメディア編集モードアフォーダンス2210aを表示する。ポートレートメディア編集モードアフォーダンス2210aの下のモード選択インジケータ2202aによって示されるように、ポートレートメディア編集モードアフォーダンス2210aが選択されるため、デバイス600は、ポートレートメディア編集ツールアフォーダンス2212を表示する。いくつかの実施形態では(例えば、図22AE〜図22AL)、デバイス600がアニメーション化された画像メディア又はビデオメディアなどの異なるタイプのメディアに対応する表現を判定するときに、デバイス600は、(例えば、1つ以上の)異なるタイプのメディア編集アフォーダンス(例えば、図22AIのビデオメディア編集モードアフォーダンス2210f)を表示する。選択されると、異なるタイプのメディア編集アフォーダンスは、デバイス600に、ポートレートメディア編集ツールアフォーダンス2212とは異なる特定の1組のツールアフォーダンス(例えば、ビデオメディアアフォーダンス2222)を表示させる。いくつかの実施形態では、デバイス600は、キャプチャされたメディアが、それぞれのタイプのメディアを編集するための対応する特定の1組の編集ツールを有さないタイプのメディアに対応すると判定する。更には、それに応答して、デバイス600は、それぞれのタイプのメディアを編集するメディア編集アフォーダンスを表示せず、代わりに、それぞれのタイプのメディアに固有の(例えば、対応する)編集ツールを表示せずに、編集モードアフォーダンス2210b〜2210dを表示する。 The control area 606 includes an edit mode affordance 2210, and the edit mode affordance 2210 includes a portrait media edit mode affordance 2210a, a visual characteristic edit mode affordance 2210b, a filter edit mode affordance 2210c, and an image content edit mode affordance 2210d. The portrait media edit mode affordance 2210a is a type of media edit mode affordance. That is, the portrait media edit mode affordance 2210a corresponds to the particular type of captured media being edited. When media editing affordances are selected, the device 600 displays a particular set of editing tools designed to edit a particular type of media. In FIG. 22A, device 600 determines representation 2230b corresponding to a portrait image (eg, based on media containing depth information) and in response displays portrait media edit mode affordance 2210a. As indicated by the mode selection indicator 2202a below the portrait media edit mode affordance 2210a, the portrait media edit mode affordance 2210a is selected so that the device 600 displays the portrait media edit tool affordance 2212. In some embodiments (eg, FIGS. 22AE to 22AL), the device 600 (eg, FIG. 22AE) determines the representation corresponding to a different type of media, such as animated image media or video media. Display one or more different types of media editing affordances (eg, video media editing mode affordances 2210f in FIG. 22AI). When selected, different types of media editing affordances cause the device 600 to display a specific set of tool affordances (eg, video media affordances 2222) that are different from the portrait media editing tool affordances 2212. In some embodiments, the device 600 determines that the captured media corresponds to a type of media that does not have a corresponding particular set of editing tools for editing each type of media. Furthermore, in response, the device 600 does not display media editing affordances for editing each type of media, but instead displays editing tools specific to each type of media (eg, corresponding). Instead, the edit modes affordances 2210b to 2210d are displayed.

図22Bでは、デバイス600は、視覚特性編集モードアフォーダンス2210bに対応する場所でのタップジェスチャ2250bを検出する。図22Cに示すように、タップジェスチャ2250bを検出したことに応答して、デバイス600は、視覚特性編集モードアフォーダンス2210bの下にモード選択インジケータ2202bを表示し、ポートレートメディア編集モードアフォーダンス2210aの下のモード選択インジケータ2202aの表示を停止する。視覚特性編集モードアフォーダンス2210bの下にモード選択インジケータ2202bを表示することにより、デバイス600が、ポートレート編集モードで動作するように構成されていることから、視覚特性編集モードで動作するように構成されていることへと変化したことを示す。更には、タップジェスチャ2250bを検出したことに応答して、デバイス600はまた、ポートレートメディア編集ツールアフォーダンス2212を、視覚特性編集ツールアフォーダンス2214に置き換える。ポートレートメディア編集ツールアフォーダンス2212を置き換えた後、視覚特性編集ツールアフォーダンス2214は、ポートレートメディア編集ツールアフォーダンス2212が図22Aで占有された、メディア編集ユーザインタフェースの一部分を最初に占有する。視覚特性編集ツールアフォーダンス2214は、自動視覚特性編集ツールアフォーダンス2214a、露出編集ツールアフォーダンス2214b、及び輝度編集ツールアフォーダンス2214cを含む。視覚特性編集ツールは、選択されると、デバイス600に、以下の図に示すように、表現の1つ以上の視覚特性を調整するユーザインタフェース要素を表示させる。 In FIG. 22B, the device 600 detects the tap gesture 2250b at a location corresponding to the visual characteristic edit mode affordance 2210b. As shown in FIG. 22C, in response to detecting the tap gesture 2250b, the device 600 displays a mode selection indicator 2202b under the visual characteristic edit mode affordance 2210b and under the portrait media edit mode affordance 2210a. The display of the mode selection indicator 2202a is stopped. By displaying the mode selection indicator 2202b under the visual characteristic edit mode affordance 2210b, the device 600 is configured to operate in the visual characteristic edit mode because it is configured to operate in the portrait edit mode. Indicates that it has changed to what it is. Furthermore, in response to detecting the tap gesture 2250b, the device 600 also replaces the portrait media editing tool affordance 2212 with the visual property editing tool affordance 2214. After replacing the portrait media editing tool Affordance 2212, the visual property editing tool Affordance 2214 first occupies a portion of the media editing user interface in which the portrait media editing tool Affordance 2212 is occupied in FIG. 22A. The visual characteristic editing tool affordance 2214 includes an automatic visual characteristic editing tool affordance 2214a, an exposure editing tool affordance 2214b, and a brightness editing tool affordance 2214c. When selected, the visual trait editing tool causes the device 600 to display a user interface element that adjusts one or more visual traits of the representation, as shown in the figure below.

図22Cに示すように、デバイス600は、輝度編集ツールアフォーダンス2214cに対応する場所でのタップジェスチャ2250cを検出する。図22Dに示すように、タップジェスチャ2250cを検出したことに応答して、デバイス600は、自動的に(追加のユーザ入力なしで)、視覚特性編集ツールアフォーダンス2214a〜2214cを左にスライドして、メディア編集ユーザインタフェースの水平中心に輝度編集ツールアフォーダンス2214cを表示する。その結果、デバイス600は、メディアユーザインタフェースの左縁部に近接した自動視覚特性編集ツールアフォーダンス2214aと、自動視覚特性編集ツールアフォーダンス2214aの右隣の露出編集ツールアフォーダンス2214bと、露出編集ツールアフォーダンス2214bの右隣の輝度編集ツールアフォーダンス2214cと、を表示する。したがって、デバイス600は、輝度編集ツールアフォーダンス2214cが水平中心に表示されているが、視覚特性編集ツールアフォーダンス2214a〜2214cの順番の表示を維持する。視覚特性編集ツールがデバイス600の水平中心に表示されているときに、デバイス600は、特定の編集ツールを介して調整される値に対応する表現の視覚特性を調整するように構成される。したがって、輝度編集ツールアフォーダンス2214cが図22Dのメディア編集ユーザインタフェースの中心にあるため、デバイス600は、表現2230bの輝度を調整するように構成される。更に、輝度編集ツールアフォーダンス2214cが選択されていることを示すために、デバイス600は、ツール選択インジケータ2204cを表示する。視覚特性編集ツールアフォーダンス2214a〜2214cを動かすことに加えて、デバイス600はまた、図22Bに表示されていない2つの追加の視覚特性編集ツールアフォーダンス(それぞれ表示された、ハイライト編集ツールアフォーダンス2214d及び影編集ツールアフォーダンス2214e)を表示する。図22Dに示すように、タップジェスチャ2250cを検出したことに応答して、デバイス600はまた、自動的に(追加のユーザ入力なしで)、調整可能な輝度コントロール2254cを表示する。調整可能な輝度コントロール2254cは、輝度コントロールインジケーション2254c1及び複数のティックマークを含むスライダであり、各ティックマークは、表現2230bの輝度を調整する値に対応する。輝度コントロールインジケーション2254c1は、調整可能な輝度コントロール2254c上の2つの連続した隣接するチケットマークの間にあるスライダ上の位置に表示される。調整可能な輝度コントロール2254c上の輝度コントロールインジケーション2254c1の位置は、表現2230bの現在の輝度値に対応する。図22Dでは、デバイス600は、調整可能な輝度コントロール2254cに向けられたジェスチャ2250d(例えば、左向きドラッグ又はスワイプジェスチャ)を検出する。 As shown in FIG. 22C, the device 600 detects the tap gesture 2250c at a location corresponding to the luminance editing tool affordance 2214c. As shown in FIG. 22D, in response to detecting the tap gesture 2250c, the device 600 automatically (without additional user input) slides the visual property editing tools affordances 2214a-2214c to the left. The brightness editing tool affordance 2214c is displayed in the horizontal center of the media editing user interface. As a result, the device 600 has an automatic visual characteristic editing tool affordance 2214a close to the left edge of the media user interface, an exposure editing tool affordance 2214b to the right of the automatic visual characteristic editing tool affordance 2214a, and an exposure editing tool affordance 2214b. The brightness editing tool affordance 2214c on the right side is displayed. Therefore, the device 600 maintains the display in the order of the visual characteristic editing tools affordances 2214a to 2214c, although the luminance editing tool affordances 2214c are displayed in the horizontal center. When the visual trait editing tool is displayed in the horizontal center of the device 600, the device 600 is configured to adjust the visual trait of the representation corresponding to the value adjusted through the particular editing tool. Therefore, since the luminance editing tool affordance 2214c is at the center of the media editing user interface of FIG. 22D, the device 600 is configured to adjust the luminance of representation 2230b. Further, the device 600 displays a tool selection indicator 2204c to indicate that the luminance editing tool affordance 2214c is selected. In addition to moving the visual trait editing tools affordances 2214a-2214c, the device 600 also has two additional visual trait editing tool affordances (displayed, highlight editing tool affordances 2214d and shadows, respectively) that are not shown in FIG. 22B. The editing tool affordance 2214e) is displayed. As shown in FIG. 22D, in response to detecting the tap gesture 2250c, the device 600 also automatically (without additional user input) displays an adjustable brightness control 2254c. Adjustable Luminance Control 2254c is a Luminance Control Indication 2254c1 and a slider containing a plurality of tick marks, each tick mark corresponding to a value adjusting the brightness of representation 2230b. The brightness control indication 2254c1 is displayed at a position on the slider between two consecutive adjacent ticket marks on the adjustable brightness control 2254c. The position of the luminance control indication 2254c1 on the adjustable luminance control 2254c corresponds to the current luminance value of representation 2230b. In FIG. 22D, device 600 detects a gesture 2250d (eg, left-handed drag or swipe gesture) directed at the adjustable luminance control 2254c.

図22Eに示すように、ジェスチャ2250dを検出したことに応答して、デバイス600は、デバイス600が、デバイス600のタッチ感知ディスプレイ上のジェスチャ2250dの接触を検出し続けている間に(例えば、指の接触がデバイス600のタッチ感知ディスプレイ上に残り続ける間に)、調整可能な輝度コントロール2254cを強調する。具体的には、デバイス600は、調整可能な輝度コントロール2254cの表示を拡大及び暗色化し、これは、調整可能な輝度コントロール2254cのティックマーク及び輝度コントロールインジケーション2254c1を拡大することを含む。いくつかの実施形態では、調整可能な輝度コントロール2254cを強調することは、調整可能な輝度コントロール2254cをメディア編集ユーザインタフェースの残りの部分から更に区別することによって、調整可能な輝度コントロール2254c上の輝度コントロールインジケーション2254c1を介して、デバイス600のユーザが正確な輝度値を設定するのを助けることを試みる。いくつかの実施形態では、デバイス600は、調整可能な輝度コントロール2254cの部分(例えば、ティックマーク又は輝度コントロールインジケーション2254c1)の色(例えば、黒から赤)を変更することにより、調整可能な輝度コントロール2254cを強調する。いくつかの実施形態では、デバイス600は、コントロール領域606内の他のユーザインタフェース要素を強調するのをやめることによって、調整可能な輝度コントロール2254cを強調する。他のユーザインタフェース要素を強調するのをやめることは、焦点から外れたコントロール領域606の他の部分(例えば、調整可能な輝度コントロール2254cの下/上のエリア)を表示することを含む。図22Eでは、デバイス600は、ジェスチャ2250dのリフトオフ(例えば、接触の検出を停止する)を検出する。 As shown in FIG. 22E, in response to detecting the gesture 2250d, the device 600 continues to detect the contact of the gesture 2250d on the touch-sensitive display of the device 600 (eg, a finger). (While the contact remains on the touch-sensitive display of the device 600), it emphasizes the adjustable brightness control 2254c. Specifically, the device 600 enlarges and darkens the display of the adjustable luminance control 2254c, which includes magnifying the tick mark of the adjustable luminance control 2254c and the luminance control indication 2254c1. In some embodiments, emphasizing the adjustable brightness control 2254c further distinguishes the adjustable brightness control 2254c from the rest of the media editing user interface by further distinguishing the brightness on the adjustable brightness control 2254c. Through the control indication 2254c1, it attempts to help the user of the device 600 set the correct brightness value. In some embodiments, the device 600 adjusts the brightness by changing the color (eg, black to red) of a portion of the adjustable brightness control 2254c (eg, tick mark or brightness control indication 2254c1). Emphasize control 2254c. In some embodiments, the device 600 emphasizes the adjustable luminance control 2254c by stopping highlighting other user interface elements within the control area 606. Stopping emphasizing other user interface elements involves displaying other parts of the out-of-focus control area 606 (eg, the area below / above the adjustable luminance control 2254c). In FIG. 22E, device 600 detects lift-off (eg, stopping contact detection) of gesture 2250d.

図22Fに示すように、リフトオフのジェスチャ2250dを検出したことに応答して、デバイス600は、調整可能な輝度コントロール2254cを、強調することなく(例えば、図22Dにおいて強調なしで表示されるように)再表示する。更には、ジェスチャ2250dを検出したことに応答して、デバイス600は、ジェスチャ2250dの大きさ及び方向(例えば、スワイプの速さ、長さ)に基づいて、輝度コントロールインジケーション2254c1を、調整可能な輝度コントロール2254c上の新しい位置に動かす。図22Fでは、ジェスチャ2250dの大きさ及び方向により、デバイス600に、図22Dにおいて輝度コントロールインジケーション2254c1の位置よりも、調整可能な輝度コントロール2254c上の最右端のティックマーク(例えば、輝度の最大値)により近い輝度コントロールインジケーション2254c1の新しい位置を表示させる。輝度コントロールインジケーション2254c1を、調整可能な輝度コントロール2254c上の新しい位置に動かすことは、メディア編集ユーザインタフェースの中心に、輝度コントロールインジケーション2254c1の表示を維持している間に、調整可能な輝度コントロール2254cのティックマークを左(例えば、ジェスチャ2250dの方向)に動かすことを含む。したがって、最右端のティックマークは、図22Dで表示されたところから、図22Fのメディア編集ユーザインタフェースの水平中心により近く表示されており、最右端のティックマークとメディア編集ユーザインタフェースの右縁部との間に追加の空間が残される。 As shown in FIG. 22F, in response to detecting the lift-off gesture 2250d, the device 600 displays the adjustable luminance control 2254c without highlighting (eg, in FIG. 22D without highlighting). ) Redisplay. Furthermore, in response to detecting the gesture 2250d, the device 600 can adjust the brightness control indication 2254c1 based on the size and direction of the gesture 2250d (eg, swipe speed, length). Move to a new position on the brightness control 2254c. In FIG. 22F, depending on the size and orientation of the gesture 2250d, the device 600 may have a tick mark on the rightmost tip (eg, maximum luminance) on the luminance control 2254c that is adjustable from the position of the luminance control indication 2254c1 in FIG. 22D. ) Closer to display the new position of the luminance control gesture 2254c1. Moving the Luminance Control Indication 2254c1 to a new position on the Adjustable Luminance Control 2254c is at the center of the media editing user interface, while maintaining the display of the Luminance Control Indication 2254c1. It involves moving the tick mark of 2254c to the left (eg, in the direction of gesture 2250d). Therefore, the rightmost tick mark is displayed closer to the horizontal center of the media editing user interface of FIG. 22F from the place displayed in FIG. 22D, and the rightmost tick mark and the right edge of the media editing user interface are displayed. Additional space is left between.

加えて、ジェスチャ2250dを検出したことに応答して、デバイス600は、輝度編集ツールアフォーダンス2214cの周囲に輝度値インジケータ2244cを表示する。輝度値インジケータ2244cは、輝度編集ツールアフォーダンス2214cの上方中心(例えば、アナログ時計の12時の位置)で開始し、輝度編集ツールアフォーダンス2214cの周辺部の周りを輝度編集ツールアフォーダンス2214cの周りを半分と少し進んだ位置(例えば、アナログ時計の7時の位置)まで包む、円形ユーザインタフェース要素である。輝度値インジケータ2244cのサイズは、調整可能な輝度コントロール2254cの最大値(例えば、最右端のティックマーク)に対する調整可能な輝度コントロール2254cの現在値を示す。したがって、輝度コントロールインジケーション2254c1が新しい位置に変更されると、輝度値インジケータ2244cを更新して、輝度コントロールインジケーション2254c1の位置に基づいて、輝度編集ツールアフォーダンス2214cの周辺部を多少包含する。いくつかの実施形態では、輝度値インジケータ2244cは、特定の色(例えば、青)として表示される。更に、ジェスチャ2250dを検出したことに応答して、デバイス600は、輝度コントロールインジケーション2254c1の新しい位置に対応する輝度値に基づいて、表現2230bをデジタル的に調整する。輝度コントロールインジケーション2254c1の新しい位置は、図22Dの輝度コントロールインジケーション2254c1上の位置よりも最右端のティックマーク(例えば、輝度の最大値)に近いため、デバイス600は、表現2230bよりも明るい調整された表現2230cを表示する(又は表現2230bを更新する)。調整された表現2230cは、新たに調整された輝度値に基づいて、表示される。 In addition, in response to detecting the gesture 2250d, the device 600 displays a luminance value indicator 2244c around the luminance editing tool affordance 2214c. The brightness value indicator 2244c starts at the upper center of the brightness editing tool affordance 2214c (for example, at the 12 o'clock position of the analog clock), and halves around the periphery of the brightness editing tool affordance 2214c and around the brightness editing tool affordance 2214c. A circular user interface element that wraps up to a slightly advanced position (eg, the 7 o'clock position on an analog clock). The size of the luminance indicator 2244c indicates the current value of the adjustable luminance control 2254c relative to the maximum value of the adjustable luminance control 2254c (eg, the rightmost tick mark). Therefore, when the luminance control indication 2254c1 is changed to a new position, the luminance value indicator 2244c is updated to include some peripheral portion of the luminance editing tool affordance 2214c based on the position of the luminance control indication 2254c1. In some embodiments, the luminance indicator 2244c is displayed as a particular color (eg, blue). Further, in response to detecting the gesture 2250d, the device 600 digitally adjusts the representation 2230b based on the luminance value corresponding to the new position of the luminance control indication 2254c1. Since the new position of the brightness control indication 2254c1 is closer to the rightmost tick mark (for example, the maximum value of the brightness) than the position on the brightness control indication 2254c1 of FIG. 22D, the device 600 is adjusted to be brighter than the expression 2230b. Display the expressed representation 2230c (or update the representation 2230b). The adjusted representation 2230c is displayed based on the newly adjusted luminance value.

図22Fでは、デバイス600は、輝度編集ツールアフォーダンス2214cに対応する場所でのタップジェスチャ2250fを検出する。図22Gに示すように、タップジェスチャ2250fを検出したことに応答して、デバイス600は、調整された表現2230cを、表現2230bに置き換え、図22Eにおいて行われた調整を行わない。換言すれば、調整可能な輝度コントロール2254cの現在値(例えば、図22Eの新たに調整された値)は、メディア編集ユーザインタフェース上に表示されている表現に影響を及ぼさない。調整可能な輝度コントロール2254cがメディア編集ユーザインタフェース上に表示されている表現に影響を及ぼさないことを強調するために、デバイス600は、他の視覚特性編集ツールアフォーダンス2214(例えば、2214a、2214b、2214d、及び2214e)の表示を維持する(例えば、灰色に退色させない)間に、輝度編集ツールアフォーダンス2214c及び調整可能な輝度コントロール2254cを灰色に(例えば、又は半透明に見えるように)退色させる。更に、デバイス600はまた、輝度編集ツールアフォーダンス2214cの周りの輝度値インジケータ2244c、及びツール選択インジケータ2204cの表示を停止する。図22Gに示すように、デバイス600は、輝度編集ツールアフォーダンス2214cをオフにトグルし、新たに調整された輝度値に基づいて調整された(例えば、図22E)、調整された表現2230cを示す代わりに、表現2230bを、元の輝度値とともに示す(例えば、図22B)。図22Gでは、デバイス600は、輝度編集ツールアフォーダンス2214cに対応する場所でのタップジェスチャ2250gを検出する。 In FIG. 22F, the device 600 detects the tap gesture 2250f at a location corresponding to the luminance editing tool affordance 2214c. As shown in FIG. 22G, in response to detecting the tap gesture 2250f, the device 600 replaces the adjusted representation 2230c with the representation 2230b and does not make the adjustments made in FIG. 22E. In other words, the current value of the adjustable luminance control 2254c (eg, the newly adjusted value of FIG. 22E) does not affect the representation displayed on the media editing user interface. To emphasize that the adjustable brightness control 2254c does not affect the representation displayed on the media editing user interface, the device 600 includes other visual property editing tools affordance 2214 (eg, 2214a, 2214b, 2214d). , And 2214e) while maintaining the display (eg, not fading to gray), the brightness editing tool affordance 2214c and the adjustable brightness control 2254c are faded to gray (eg, to appear translucent). Further, the device 600 also stops displaying the luminance value indicator 2244c around the luminance editing tool affordance 2214c and the tool selection indicator 2204c. As shown in FIG. 22G, the device 600 toggles off the brightness editing tool affordance 2214c and instead shows the adjusted representation 2230c adjusted based on the newly adjusted brightness value (eg, FIG. 22E). 2230b is shown with the original luminance value (eg, FIG. 22B). In FIG. 22G, the device 600 detects tap gesture 2250g at a location corresponding to the luminance editing tool affordance 2214c.

図22Hに示すように、タップジェスチャ2250gを検出したことに応答して、デバイス600は、輝度編集ツールアフォーダンス2214cをトグルオンして、調整された表現2230c、輝度編集ツールアフォーダンス2214c、調整可能な輝度コントロール2254c、ツール選択インジケータ2204c、輝度値インジケータ2244c、ツール選択インジケータ2204cを、図22Fに表示されているように再表示する。調整可能な輝度コントロール2254cの現在値(例えば、図22Eの新たに調整された値)は、メディア編集ユーザインタフェース上に表示されている表現に影響を及ぼさない。いくつかの実施形態では、特定の編集ツールアフォーダンスをトグルオン(タップジェスチャ2250gを介して)又はトグルオフ(例えば、タップジェスチャ2250fを介して)することにより、デバイス600のユーザは、特定の編集ツールの特定の調整された値(例えば、調整された輝度値)がどの程度表現に影響するかを見ることができる。図22Hでは、デバイス600は、自動視覚特性編集ツールアフォーダンス2214aに対応する場所でのタップジェスチャ2250hを検出する。 As shown in FIG. 22H, in response to detecting the tap gesture 2250g, the device 600 toggles on the luminance editing tool affordance 2214c to adjust the luminance editing tool affordance 2214c, the luminance editing tool affordance 2214c, and the adjustable luminance control. The 2254c, tool selection indicator 2204c, luminance value indicator 2244c, and tool selection indicator 2204c are redisplayed as shown in FIG. 22F. The current value of the adjustable luminance control 2254c (eg, the newly adjusted value of FIG. 22E) does not affect the representation displayed on the media editing user interface. In some embodiments, the user of the device 600 identifies a particular editing tool by toggle-on (via tap gesture 2250g) or toggle off (eg, via tap gesture 2250f) the particular editing tool affordance. You can see how the adjusted value of (eg, the adjusted brightness value) affects the representation. In FIG. 22H, the device 600 detects the tap gesture 2250h at a location corresponding to the automatic visual property editing tool affordance 2214a.

図22Iに示すように、タップジェスチャ2250hを検出したことに応答して、デバイス600は、調整可能な輝度コントロール2254c及び輝度コントロールインジケーション2254c1の表示を、調整可能な自動視覚特性コントロール2254a及び自動視覚特性コントロールインジケーション2254a1の表示に置き換える。デバイス600はまた、自動視覚特性コントロールインジケーション2254a1の上にツール選択インジケータ2204aを表示する。デバイス600は、調整可能な自動視覚特性2254aを、調整可能な輝度コントロール2254cが図22Hにおいて表示されたのと同一のそれぞれの場所に表示する。置き換えを行うとき、デバイス600は、自動視覚特性コントロールインジケーション2254a1を、調整可能な自動視覚特性コントロール2254a上の、輝度コントロールインジケーション2254c1が図22Hにおいて調整可能な輝度コントロール2254c上に表示された位置とは異なる位置に表示する。図22Iに示すように、デバイス600は、自動視覚特性コントロールインジケーション2254a1を、調整可能な自動視覚特性コントロール2254a値(例えば、50%の自動視覚特性調整値)の中央値に対応する位置に表示し、この位置は、調整可能な輝度コントロール2254c(例えば、75%の輝度値)の最右端のティックマークにより近かった、図22Hにおける輝度コントロールインジケーション2254c1の位置とは異なる。特に、自動視覚特性コントロールインジケーション2254a1の位置は、図22Dにおける調整可能な輝度コントロール2254c上の輝度コントロールインジケーション2254c1の位置に類似している(例えば、ジェスチャ2250dに応答して、調整可能な輝度コントロール2254cが最初に開始されたとき)。 As shown in FIG. 22I, in response to detecting the tap gesture 2250h, the device 600 displays the adjustable luminance control 2254c and the luminance control indication 2254c1 with the adjustable automatic visual characteristic control 2254a and automatic vision. Replace with the display of characteristic control indication 2254a1. The device 600 also displays a tool selection indicator 2204a on top of the automatic visual characteristic control indication 2254a1. The device 600 displays the adjustable automatic visual characteristic 2254a at the same locations as the adjustable luminance control 2254c displayed in FIG. 22H. When making the replacement, the device 600 places the automatic visual characteristic control indication 2254a1 on the adjustable automatic visual characteristic control 2254a, where the brightness control indication 2254c1 is displayed on the adjustable brightness control 2254c in FIG. 22H. Display in a different position from. As shown in FIG. 22I, the device 600 displays the automatic visual characteristic control indication 2254a1 at a position corresponding to the median of the adjustable automatic visual characteristic control 2254a value (eg, 50% automatic visual characteristic adjustment value). However, this position is different from the position of the luminance control indication 2254c1 in FIG. 22H, which was closer to the rightmost tick mark of the adjustable luminance control 2254c (eg, 75% luminance value). In particular, the position of the automatic visual characteristic control indication 2254a1 is similar to the position of the brightness control indication 2254c1 on the adjustable brightness control 2254c in FIG. 22D (eg, the adjustable brightness in response to the gesture 2250d). When control 2254c is first started).

いくつかの実施形態では、調整可能なコントロールが最初に開始されたとき、調整可能なコントロールのインジケーションは、調整可能なコントロールの中央の位置に表示される。いくつかの実施形態では、調整可能なコントロールの中央位置は、表示表現内で検出された値、又は自動調整アルゴリズムを介して計算された値に対応する(例えば、中央位置は、自動調整アルゴリズムに基づいて計算された75%の輝度の値に対応する)。更には、1つの調整可能なコントロール上の中央位置(例えば、75%の輝度値)は、別の調整可能なコントロール上の中央位置(例えば、64%の露出値)とは異なる値と等しくすることができる。いくつかの実施形態では、2つの調整可能なコントロール(例えば、調整可能な自動視覚特性コントロール2254a及び調整可能な輝度コントロール2254c)のスケールは、同一又は一貫している(例えば、同一の最小値及び最大値を有する、並びに/又は連続したティックマーク間を表す値の増分は、各スライダ上で同じである)。 In some embodiments, when the adjustable control is first initiated, the adjustable control indication is displayed in the center position of the adjustable control. In some embodiments, the center position of the adjustable control corresponds to a value detected in the display representation or calculated via an auto-adjust algorithm (eg, the center position corresponds to the auto-adjust algorithm). Corresponds to the 75% brightness value calculated based on). Furthermore, the center position on one adjustable control (eg, 75% brightness value) is equal to a different value than the center position on another adjustable control (eg, 64% exposure value). be able to. In some embodiments, the scales of the two adjustable controls (eg, the adjustable automatic visual property control 2254a and the adjustable brightness control 2254c) are the same or consistent (eg, the same minimum and the same minimum). The increment of the value that has the maximum value and / or represents between consecutive tick marks is the same on each slider).

デバイス600が、調整可能な輝度コントロール2254cの表示を、調整可能な自動視覚特性コントロール2254aの表示に置き換えるときに、デバイス600は、調整可能な自動視覚特性コントロール2254aを表示するときに、調整可能な輝度コントロール2254c(例えば、中心の左にティックマーク)のいくつかの静的な部分の表示を、これらと同じそれぞれの位置に維持する。しかしながら、調整可能な輝度コントロール2254cのいくつかの可変部分(例えば、調整可能な輝度コントロール2254c上の中心の右に見える、インジケーション及び新しいティックマークの位置)は、これらと同じそれぞれの位置に維持されない。図22Iに示すように、デバイス600が、調整可能な輝度コントロール2254cの表示を、調整可能な自動視覚特性コントロール2254aの表示に置き換えるときに、デバイス600は、調整可能なコントロールのいくらかの部分を動かしながら(例えば、デバイス600は、自動視覚特性コントロールインジケーション2254a1を、ディスプレイ上の輝度コントロールインジケーション2254c1とは別の位置に動かす)、それぞれの位置に調整可能な輝度コントロール2254cの中心の左にティックマークを維持する。 When the device 600 replaces the display of the adjustable luminance control 2254c with the display of the adjustable automatic visual characteristic control 2254a, the device 600 is adjustable when displaying the adjustable automatic visual characteristic control 2254a. The display of some static parts of the luminance control 2254c (eg, the tick mark to the left of the center) is maintained in their respective positions. However, some variable parts of the adjustable brightness control 2254c (eg, the position of the indication and the new tick mark, visible to the right of the center on the adjustable brightness control 2254c) remain in their respective positions. Not done. As shown in FIG. 22I, when the device 600 replaces the display of the adjustable brightness control 2254c with the display of the adjustable automatic visual characteristic control 2254a, the device 600 moves some part of the adjustable control. While (for example, the device 600 moves the automatic visual characteristic control indicator 2254a1 to a position different from the luminance control indicator 2254c1 on the display), tick to the left of the center of the luminance control 2254c that can be adjusted to each position. Keep the mark.

図22Iに更に示すように、タップジェスチャ2250hを検出したことに応答して、デバイス600は、メディア編集ユーザインタフェースの中心に、自動視覚特性編集ツールアフォーダンス2214aを表示する(例えば、図22Cに示すように、視覚特性編集モードアフォーダンス2210bが図22Bにおいてまず選択されたとき)。メディア編集ユーザインタフェースの中心に、自動視覚特性編集ツールアフォーダンス2214aを表示するために、デバイス600は、視覚特性編集ツールアフォーダンス2214a〜2214fを左にスライドし、これにより、露出編集ツールアフォーダンス2214bは、メディア編集ユーザインタフェースの左に第2から最後のアフォーダンスとして表示され、輝度編集ツールアフォーダンス2214cは、メディア編集ユーザインタフェースの中心の左に最後のアフォーダンスとして表示される。更には、デバイス600は、メディア編集ユーザインタフェースが、輝度編集ツールアフォーダンス2214cの右隣の任意の追加の視覚特性編集ツールアフォーダンス2214を表示するための任意の追加の空間を有さないため、ハイライト編集ツールアフォーダンス2214d及び影編集ツールアフォーダンス2214eの表示を停止する。メディア編集ユーザインタフェースの中心に、自動視覚特性編集ツールアフォーダンス2214aを表示することは、デバイス600が、調整可能な自動視覚特性コントロール2254aの現在値が、調整可能な自動視覚特性コントロール2254a上の自動視覚特性コントロールインジケーション2254a1の位置に対応する値に対応することに応答して、表示表現を調整するように構成されることを示す。 As further shown in FIG. 22I, in response to detecting the tap gesture 2250h, the device 600 displays the automatic visual property editing tool affordance 2214a at the center of the media editing user interface (eg, as shown in FIG. 22C). In addition, when the visual characteristic editing mode affordance 2210b is first selected in FIG. 22B). To display the automatic visual property editing tool affordance 2214a at the center of the media editing user interface, the device 600 slides the visual property editing tools affordances 2214a-2214f to the left, thereby causing the exposure editing tool affordance 2214b to display the media. The second to last affordances are displayed to the left of the editing user interface, and the brightness editing tool affordances 2214c are displayed as the last affordances to the left of the center of the media editing user interface. Further, the device 600 is highlighted because the media editing user interface does not have any additional space for displaying any additional visual property editing tool affordance 2214 to the right of the brightness editing tool affordance 2214c. The display of the editing tool affordance 2214d and the shadow editing tool affordance 2214e is stopped. Displaying the automatic visual trait editing tool affordance 2214a at the center of the media editing user interface allows the device 600 to automatically view the current value of the adjustable automatic visual trait control 2254a on the adjustable automatic visual trait control 2254a. Indicates that the characteristic control indication 2254a1 is configured to adjust the display representation in response to the corresponding value corresponding to the position.

輝度視覚特性に関連付けられた値のみに影響する(例えば、調整可能な輝度コントロール2254cによって制御された)、図22D〜図22Gで論じられた調整可能な輝度コントロール2254cの現在値とは対照的に、調整可能な自動視覚特性コントロール2254aの現在値は、1つ以上の他の視覚特性の1つ以上の現在値(例えば、輝度及び露出値)に影響する。調整可能な自動視覚特性コントロール2254aの現在値が変化すると、デバイス600は、自動的に(追加のユーザ入力なしで)、1つ以上の他の視覚特性(例えば、他の視覚特性編集ツールアフォーダンス2214に対応する視覚特性)に対応する1つ以上の現在値を更新する。図22Iでは、調整可能な自動視覚特性コントロール2254aの現在値は、デバイス600がタップジェスチャ2250hを検出したことに応答して、変化する。その結果、デバイス600は、輝度値インジケータ2244cを更新して、図22Hにおいて包含された輝度値インジケータ2244cよりも、輝度編集ツールアフォーダンス2214cの周辺部をより少なく包含することによって、現在の調整された輝度値が減少したことを示す。更には、デバイス600は、周辺部露出編集ツールアフォーダンス2214bの周りに露出値インジケータ2244bを表示して、表示表現が現在の露出値(例えば、増加した露出値)によって調整されていることを示す。いくつかの実施形態では、デバイス600は、自動調整アルゴリズムを、表現2230c(例えば、以前に表示表現)及び調整可能な自動視覚特性コントロール2254aの現在値に対応するデータとともに使用することによって、1つ以上の他の視覚特性の現在値(例えば、輝度値又は露出値)を調整する。 In contrast to the current values of the adjustable luminance control 2254c discussed in FIGS. 22D-22G, which affect only the values associated with the luminance visual characteristics (eg, controlled by the adjustable luminance control 2254c). , The current value of the adjustable automatic visual characteristic control 2254a affects one or more current values (eg, brightness and exposure values) of one or more other visual characteristics. When the current value of the adjustable automatic visual trait control 2254a changes, the device 600 automatically (without additional user input) one or more other visual traits (eg, other visual trait editing tools affordance 2214). Update one or more current values corresponding to (visual characteristics corresponding to). In FIG. 22I, the current value of the adjustable automatic visual characteristic control 2254a changes in response to the device 600 detecting the tap gesture 2250h. As a result, the device 600 is currently tuned by updating the luminance indicator 2244c to include less peripheral part of the luminance editing tool affordance 2214c than the luminance indicator 2244c included in FIG. 22H. Indicates that the brightness value has decreased. Further, the device 600 displays an exposure value indicator 2244b around the peripheral exposure editing tool affordance 2214b to indicate that the display representation is adjusted by the current exposure value (eg, increased exposure value). In some embodiments, the device 600 uses an auto-adjustment algorithm with data corresponding to the current values of representation 2230c (eg, previously displayed representation) and adjustable auto-visual property control 2254a. Adjust the current value (eg, brightness value or exposure value) of the above other visual characteristics.

更に、タップジェスチャ2250hを検出したことに応答して、デバイス600は、表現2230cの表示を、調整された表現2230dに置き換える。表現2230dは、表現2230cの調整されたバージョンに対応し、ここで、表現2230cは、1つ以上の他の視覚特性に対応する1つ以上の更新された現在値(例えば、低下した輝度値又は増加した露出値)に基づいて調整された。図22Iに示すように、表現2230dは、視覚的により暗くなり、表現2230cよりも多く露出している。 Further, in response to detecting the tap gesture 2250h, the device 600 replaces the display of representation 2230c with the adjusted representation 2230d. Representation 2230d corresponds to an adjusted version of Representation 2230c, where Representation 2230c corresponds to one or more updated current values (eg, reduced luminance values or) corresponding to one or more other visual characteristics. Adjusted based on the increased exposure value). As shown in FIG. 22I, representation 2230d is visually darker and more exposed than representation 2230c.

図22Bに戻ると、デバイス600がジェスチャ2250bを検出した後、いくつかの実施形態では、デバイス600は、図22Cの代わりに図22Iに表示する。その結果、調整可能な自動視覚特性コントロール2254aは、デバイス600に、1つ以上の他の視覚特性(例えば、露出及び/又は輝度値)の1つ以上の現在値を更新させ、かつ1つ以上の更新された現在値に基づいて、調整された表現(例えば、表現2230d)を表示させる。 Returning to FIG. 22B, after device 600 detects gesture 2250b, in some embodiments, device 600 displays in FIG. 22I instead of FIG. 22C. As a result, the adjustable automatic visual property control 2254a causes the device 600 to update one or more current values of one or more other visual properties (eg, exposure and / or brightness values) and one or more. Display an adjusted representation (eg, representation 2230d) based on the updated current value of.

図22Iに戻ると、デバイス600は、調整可能な自動視覚特性コントロール2254aに向けられたジェスチャ2250i(例えば、右向きドラッグ又はスワイプジェスチャ)を検出する。図22Jに示すように、ジェスチャ2250iを検出したことに応答して、デバイス600は、(例えば、図22Eにおいてジェスチャ2250d及び調整可能な輝度コントロール2254cに関連して上述したような同様の技術を使用して)デバイス600がジェスチャ2250iの接触を検出し続けている間に、調整可能な自動視覚特性コントロール2254aを強調する。図22Jでは、デバイス600は、ジェスチャ2250iのリフトオフ(例えば、接触の検出を停止する)を検出する。 Returning to FIG. 22I, the device 600 detects a gesture 2250i (eg, a rightward drag or swipe gesture) directed at the adjustable automatic visual property control 2254a. As shown in FIG. 22J, in response to detecting the gesture 2250i, the device 600 uses similar techniques as described above in connection with the gesture 2250d and the adjustable brightness control 2254c (eg, in FIG. 22E). The adjustable automatic visual property control 2254a is emphasized while the device 600 continues to detect the contact of the gesture 2250i. In FIG. 22J, device 600 detects lift-off (eg, stopping contact detection) of gesture 2250i.

図22Kに示すように、リフトオフのジェスチャ2250iを検出したことに応答して、デバイス600は、調整可能な自動視覚特性コントロール2254aを、強調することなく(例えば、図22Iにおいて強調なしで表示されるように)再表示し、ジェスチャ2250iの大きさ及び方向(例えば、スワイプの速さ、長さ)に基づいて、自動視覚特性コントロールインジケーション2254a1を、調整可能な自動視覚特性コントロール2254a上の新しい位置に動かす。図22Kでは、ジェスチャ2250iの大きさ及び方向により、デバイス600に、図22Iにおける自動視覚特性コントロールインジケーション2254a1の以前の位置よりも、調整可能な自動視覚特性コントロール2254aの最左端のティックマーク(例えば、自動視覚特性調整の最小値)により近い、調整可能な自動視覚特性コントロール2254a上の新しい位置に、自動視覚特性コントロールインジケーション2254a1を表示させる。自動視覚特性コントロールインジケーション2254a1を、調整可能な自動視覚特性コントロール2254a上の新しい位置に動かすことは、メディア編集ユーザインタフェースの中心に、自動視覚特性コントロールインジケーション2254a1の表示を維持している間に、調整可能な自動視覚特性コントロールのティックマークを右(例えば、ジェスチャ2250iの方向)に動かすことを含む。その結果、最左端のティックマークは、図22Iで表示されたところから、図22Kのメディア編集ユーザインタフェースの中心により近く表示されており、最左端のティックマークとメディア編集ユーザインタフェースの左縁部との間に追加の空間が残される。 As shown in FIG. 22K, in response to detecting the lift-off gesture 2250i, the device 600 displays the adjustable automatic visual characteristic control 2254a without highlighting (eg, in FIG. 22I, without highlighting). Redisplay and based on the size and orientation of the gesture 2250i (eg, swipe speed, length), the automatic visual characteristic control indication 2254a1 is placed in a new position on the adjustable automatic visual characteristic control 2254a. Move to. In FIG. 22K, depending on the size and orientation of the gesture 2250i, the device 600 may have a tick mark on the leftmost edge of the automatic visual characteristic control 2254a that is adjustable from the previous position of the automatic visual characteristic control indication 2254a1 in FIG. 22I (eg, , The minimum value of automatic visual characteristic adjustment), the automatic visual characteristic control indication 2254a1 is displayed at a new position on the adjustable automatic visual characteristic control 2254a. Moving the automatic visual trait control indication 2254a1 to a new position on the adjustable automatic visual trait control 2254a is at the center of the media editing user interface while maintaining the display of the automatic visual trait control indication 2254a1. Includes moving the tick mark of the adjustable automatic visual property control to the right (eg, in the direction of gesture 2250i). As a result, the leftmost tick mark is displayed closer to the center of the media editing user interface of FIG. 22K from the place displayed in FIG. 22I, and the leftmost tick mark and the left edge of the media editing user interface are displayed. Additional space is left between.

自動視覚特性コントロールインジケーション2254a1を、調整可能な自動視覚特性コントロール2254a上の新しい位置に動かした後、デバイス600は、自動視覚特性コントロールインジケーション2254a1の位置に対応する更新された自動視覚特性調整値に対応するように、自動特性値インジケータ2244aを更新する。具体的には、デバイス600は、自動特性値インジケータ2244aを修正して、自動視覚特性編集ツールアフォーダンス2214aの周辺部をより少なく包含し、これは、より高い自動視覚特性調整値からより低い自動視覚特性調整値に対応する位置から動く自動視覚特性コントロールインジケーション2254a1をミラーリングする。更には、デバイス600は、これらのそれぞれのインジケータの周辺部をより少なく包含するように修正することによって、新しいより低い調整された露出及び輝度値に対応するように、露出値インジケータ2244b及び輝度値インジケータ2244cを更新し、これはまた、より高い自動視覚特性調整値からより低い自動視覚特性調整値に対応する位置から動く自動視覚特性コントロールインジケーション2254a1の移動をミラーリングする。いくつかの実施形態では、1つ以上の他の視覚特性の1つ以上の値に対応する1つ以上の値インジケータは、自動視覚特性コントロールインジケーション2254a1の移動の反対方向に、維持又は調整され得る。いくつかの実施形態では、1つ以上の視覚特性の値は、自動調整アルゴリズムに基づいて計算される。図22Kに示すように、ジェスチャ2250iのリフトオフを検出したことに応答して、デバイス600は、表現2230dの表示を、調整された表現2230eの表示に置き換え、表現2230eは、ジェスチャ2250iのリフトオフを検出したことに応答して調整された、更新された自動視覚特性調整値及び1つ以上の他の視覚特性値に基づいて、調整された表現2230dのバージョンである。 After moving the automatic visual characteristic control indication 2254a1 to a new position on the adjustable automatic visual characteristic control 2254a, the device 600 has an updated automatic visual characteristic adjustment value corresponding to the position of the automatic visual characteristic control indication 2254a1. The automatic characteristic value indicator 2244a is updated so as to correspond to. Specifically, the device 600 modifies the automatic characteristic value indicator 2244a to include less peripheral part of the automatic visual characteristic editing tool affordance 2214a, which is from higher automatic visual characteristic adjustment values to lower automatic vision. Mirrors the automatic visual characteristic control indication 2254a1 that moves from the position corresponding to the characteristic adjustment value. Furthermore, the device 600 has the exposure value indicator 2244b and the brightness value to accommodate the new lower adjusted exposure and brightness values by modifying the periphery of each of these indicators to include less. The indicator 2244c is also updated to mirror the movement of the automatic visual characteristic control indication 2254a1 moving from the position corresponding to the lower automatic visual characteristic adjustment value from the higher automatic visual characteristic adjustment value. In some embodiments, one or more value indicators corresponding to one or more values of one or more other visual characteristics are maintained or adjusted in the opposite direction of movement of the automatic visual characteristic control indication 2254a1. obtain. In some embodiments, the values of one or more visual properties are calculated based on an auto-tuning algorithm. As shown in FIG. 22K, in response to detecting the lift-off of the gesture 2250i, the device 600 replaces the display of the representation 2230d with the display of the adjusted representation 2230e, where the representation 2230e detects the lift-off of the gesture 2250i. A version of representation 2230d adjusted based on an updated automatic visual characteristic adjustment value and one or more other visual characteristic values adjusted in response to what has been done.

図22Lに示すように、デバイス600は、視覚特性編集ツールアフォーダンス2214が位置するエリアに向けられたジェスチャ2250l(例えば、ドラッグ又はスワイプジェスチャ)を検出する。ジェスチャ2250lを検出したことに応答して、図22Mに示すように、デバイス600は、デバイス600が、デバイス600のタッチ感知ディスプレイ上の接触を検出し続けている間に(例えば、指の接触がデバイス600のタッチ感知ディスプレイ上に残り続ける間に)、調整可能な自動視覚特性コントロール2254aを強調するのをやめる。具体的には、デバイス600は、ティックマーク及び自動視覚特性コントロールインジケーション2254a1を含む、調整可能な自動視覚特性コントロール2254aのサイズを低減する。いくつかの実施形態では、調整可能な自動視覚特性コントロール2254aを強調するのをやめることは、デバイス600のユーザを、特定の編集ツールアフォーダンスにナビゲートするのを助けることを試みる。いくつかの実施形態では、デバイス600は、調整可能な自動視覚特性コントロール2254aの部分(例えば、ティックマーク又は自動視覚特性コントロールインジケーション2254a1)の色(例えば、黒から灰色)を変更することにより、調整可能な自動視覚特性コントロール2254aを強調するのをやめる。いくつかの実施形態では、デバイス600は、調整可能な自動視覚特性コントロール2254aをぼかすこと、又は焦点から外れて調整可能な自動視覚特性コントロール2254aを表示することにより、調整可能な自動視覚特性コントロール2254aを強調するのをやめる。 As shown in FIG. 22L, the device 600 detects a gesture 2250 liters (eg, a drag or swipe gesture) directed at the area where the visual property editing tool affordance 2214 is located. In response to detecting the gesture 2250l, the device 600, as shown in FIG. 22M, while the device 600 continues to detect contact on the touch-sensitive display of the device 600 (eg, finger contact). Stop highlighting the adjustable automatic visual property control 2254a (while remaining on the touch-sensitive display of device 600). Specifically, the device 600 reduces the size of the adjustable automatic visual characteristic control 2254a, including the tick mark and the automatic visual characteristic control indication 2254a1. In some embodiments, stopping emphasizing the adjustable automatic visual property control 2254a attempts to help the user of device 600 navigate to a particular editing tool affordance. In some embodiments, the device 600 changes the color (eg, black to gray) of an adjustable portion of the automatic visual characteristic control 2254a (eg, tick mark or automatic visual characteristic control indication 2254a1). Stop emphasizing the adjustable automatic visual property control 2254a. In some embodiments, the device 600 adjusts the automatic visual trait control 2254a by blurring the adjustable automatic visual trait control 2254a or displaying an out-of-focus adjustable automatic visual trait control 2254a. Stop emphasizing.

図22Mでは、デバイス600は、ジェスチャ2250lのリフトオフ(例えば、接触の検出を停止する)を検出する。図22Nに示すように、ジェスチャ2250lのリフトオフを検出したことに応答して、デバイス600は、調整可能な自動視覚特性コントロール2254aを強調するのをやめるのを停止する。デバイス600は、図22Lに表示されたように、自動視覚特性コントロール2254aを再表示する。更には、ジェスチャ2250lを検出したことに応答して、デバイス600は、ジェスチャ2250lの大きさ及び方向(例えば、スワイプの速さ、長さ)に基づいて、視覚特性編集ツールアフォーダンス2214を左にシフトする。図22Nでは、ジェスチャ2250lの大きさ及び方向により、デバイス600に、視覚特性編集ツールアフォーダンス2214f〜2214iを表示させ、視覚特性編集ツールアフォーダンス2214a〜2214eの表示を停止させる。特に、視覚特性編集ツールアフォーダンス2214f〜2214iはまた、各それぞれのアフォーダンスの周りに値インジケータ2244f〜2244iを含む。デバイス600は、デバイス600が自動視覚特性コントロールインジケーション2254a1を、調整可能な自動視覚特性コントロール2254a上の新しい位置に動かすことに応答して、図22J〜図22Kにおいて調整された値インジケータ2244f〜2244iを表示する。 In FIG. 22M, device 600 detects lift-off (eg, stopping contact detection) of gesture 2250 liters. As shown in FIG. 22N, in response to detecting the lift-off of the gesture 2250l, the device 600 stops highlighting the adjustable automatic visual characteristic control 2254a. The device 600 redisplays the automatic visual characteristic control 2254a as shown in FIG. 22L. Furthermore, in response to detecting the gesture 2250l, the device 600 shifts the visual property editing tool affordance 2214 to the left based on the size and direction of the gesture 2250l (eg, swipe speed, length). do. In FIG. 22N, depending on the size and direction of the gesture 2250l, the device 600 is made to display the visual characteristic editing tools affordances 2214f to 2214i, and the display of the visual characteristic editing tools affordances 2214a to 2214e is stopped. In particular, the visual property editing tools affordances 2214f-2214i also include value indicators 2244f-2244i around each respective affordance. The device 600 responds to the device 600 moving the automatic visual characteristic control indication 2254a1 to a new position on the adjustable automatic visual characteristic control 2254a, and the value indicators 2244f to 2244i adjusted in FIGS. 22J-22K. Is displayed.

図22Nでは、デバイス600は、ビネット編集ツールアフォーダンス2214iに対応する場所でのタップジェスチャ2250nを検出する。図22Oに示すように、タップジェスチャ2250nを検出したことに応答して、デバイス600は、調整可能な自動視覚特性コントロール2254a及び自動視覚特性コントロールインジケーション2254a1の表示を、調整可能なビネットコントロール2254iの表示に置き換え、調整可能な自動視覚特性コントロール2254aの表示を停止する。図22Oでは、デバイス600は、調整可能な輝度コントロール2254c及び輝度コントロールインジケーション2254c1の表示を、調整可能な自動視覚特性コントロール2254a及び自動視覚特性コントロールインジケーション2254a1の表示に置き換えることに関して図22Iにおいて上述したようなものと同様の技術を使用して、この置き換えを行う。図22Oにおいて、デバイス600は、ビネットコントロールインジケーション2254i1を、調整可能なビネットコントロール2254iの中央に対応する位置に表示する。 In FIG. 22N, the device 600 detects a tap gesture 2250n at a location corresponding to the vignette editing tool affordance 2214i. As shown in FIG. 22O, in response to detecting the tap gesture 2250n, the device 600 displays the adjustable automatic visual characteristic control 2254a and the automatic visual characteristic control indication 2254a1 of the adjustable vignette control 2254i. Replace with the display and stop the display of the adjustable automatic visual characteristic control 2254a. In FIG. 22O, device 600 describes above in FIG. 22I with respect to replacing the display of the adjustable luminance control 2254c and luminance control indication 2254c1 with the display of the adjustable automatic visual characteristic control 2254a and automatic visual characteristic control indication 2254a1. Make this replacement using a technique similar to the one you did. In FIG. 22O, the device 600 displays the vignette control indication 2254i1 at a position corresponding to the center of the adjustable vignette control 2254i.

図22Oでは、デバイス600は、調整可能なビネットコントロール2254iに向けられたジェスチャ2250o(例えば、左向きドラッグ又はスワイプジェスチャ)を検出する。ジェスチャ2250oを検出したことに応答して、図22P〜図22Qに示すように、デバイス600は、ビネットコントロールインジケーション2254i1を、調整可能なビネットコントロール2254i上の新しい位置に動かし、図22D〜図22Fに関連して上述したようなものと類似の技術を使用して、調整された表現2230fを調整する。表現2230fは、調整可能なビネットコントロール2254i上のビネットコントロールインジケーション2254i1の新しい位置での値に対応する新しいビネット値に基づいて調整された。図22Qに示すように、表現2230fは、図22Pに関して表現2230eにおける犬の周りに表示されたビネット効果よりも、犬の周りに表示されたより顕著なビネット効果を含む。 In FIG. 22O, device 600 detects a gesture 2250o (eg, leftward drag or swipe gesture) directed at the adjustable vignette control 2254i. In response to detecting gesture 2250o, device 600 moves the vignette control indication 2254i1 to a new position on the adjustable vignette control 2254i, as shown in FIGS. 22P-22Q, 22D-22F. The adjusted representation 2230f is adjusted using a technique similar to that described above in connection with. Representation 2230f was adjusted based on the new vignette value corresponding to the value at the new position of the vignette control indication 2254i1 on the adjustable vignette control 2254i. As shown in FIG. 22Q, representation 2230f includes a more pronounced vignette effect displayed around the dog than the vignette effect displayed around the dog in representation 2230e with respect to FIG. 22P.

図22Qに示すように、最右端のティックマーク又は最左端のティックマークは、(例えば、図22Fに表示されている最右端のティックマーク及び図22Kに表示されている最左端のティックマークとは対照的に)図22Qに表示されない。したがって、調整可能なビネットコントロール2254i上の新しい位置は、調整可能なビネットコントロール2254i上のビネットコントロールインジケーション2254i1の以前の位置(例えば、図22O〜図22P)に近い。調整可能なビネットコントロール2254i上の新しい位置が、調整可能なビネットコントロール2254i上のビネットコントロールインジケーション2254i1の以前の位置(例えば、図22O〜図22P)に比較的近いため、デバイス600は、調整可能なビネットコントロール2254i上のビネットコントロールインジケーション2254i1の以前の位置に、ビネットリセットインジケーション2252i2を表示する。図22Qでは、ビネットコントロールインジケーション2254i1の以前の位置は、デバイス600が自動視覚特性コントロールインジケーション2254a1を、調整可能な自動視覚特性コントロール2254a上の新しい位置に(ジェスチャ2250iの大きさ及び方向に基づいて)動かした後に計算された値に対応する。いくつかの実施形態では、調整可能な自動視覚特性コントロール2254a上の自動視覚特性コントロールインジケーション2254a1を調整することにより、調整可能なビネットコントロール2254i上のビネットリセットインジケーション2252i2の位置を変更することができる。いくつかの実施形態では、ビネットリセットインジケーション2252i2により、ユーザは、自動調整アルゴリズムに基づいて計算された視覚特性の値をリセットすることができる。いくつかの実施形態では、上述の調整可能なコントロール(例えば、調整可能な自動視覚特性コントロール2254a及び調整可能な輝度コントロール2254c)に関して、リセットインジケーションはまた、ジェスチャ2250d又は2250iを検出している間に表示される。しかしながら、ジェスチャ2250d又は2250iのリフトオフを検出した後に、上述のインジケーションが最左端又は最右端のティックマークに近い位置で終了したため、リセットインジケーションは、図22F及び図22Kには表示されない。 As shown in FIG. 22Q, the rightmost tick mark or the leftmost tick mark is (for example, the rightmost tick mark displayed in FIG. 22F and the leftmost tick mark displayed in FIG. 22K. (In contrast) not displayed in Figure 22Q. Therefore, the new position on the adjustable vignette control 2254i is close to the previous position of the vignette control indication 2254i1 on the adjustable vignette control 2254i (eg, FIGS. 22O-22P). The device 600 is adjustable because the new position on the adjustable vignette control 2254i is relatively close to the previous position on the vignette control indication 2254i1 on the adjustable vignette control 2254i (eg, FIGS. 22O-22P). The vignette reset indication 2252i2 is displayed at the previous position of the vignette control indication 2254i1 on the vignette control 2254i. In FIG. 22Q, the previous position of the vignette control indication 2254i1 is such that the device 600 places the automatic visual characteristic control indication 2254a1 at a new position on the adjustable automatic visual characteristic control 2254a (based on the size and orientation of the gesture 2250i). Corresponds to the value calculated after moving. In some embodiments, the position of the vignette reset indication 2252i2 on the adjustable vignette control 2254i can be changed by adjusting the automatic visual characteristic control indication 2254a1 on the adjustable automatic visual characteristic control 2254a. can. In some embodiments, the vignette reset indication 2252i2 allows the user to reset the value of the visual characteristic calculated based on the auto-tuning algorithm. In some embodiments, with respect to the adjustable controls described above (eg, adjustable automatic visual property control 2254a and adjustable brightness control 2254c), the reset indication is also while detecting gestures 2250d or 2250i. Is displayed in. However, after detecting the lift-off of the gesture 2250d or 2250i, the reset indication is not displayed in FIGS. 22F and 22K because the above-mentioned indication ends at a position close to the leftmost or rightmost tick mark.

図22Qでは、デバイス600は、調整可能なビネットコントロール2254iに向けられたジェスチャ2250q(例えば、ジェスチャ2250oの反対方向のドラッグ又はスワイプジェスチャ)を検出する。図22Rに示すように、2250qの大きさ及び方向に基づいて、デバイス600は、ビネットリセットインジケーション2252i2が図22Qに表示された位置に、ビネットコントロールインジケーション2254i1を表示する。ビネットリセットインジケーション2252i2が表示された位置に、ビネットコントロールインジケーション2254i1が表示されると、デバイス600は、触覚出力2260aを発する。更には、ビネットコントロールインジケーション2254i1が、ビネットリセットインジケーション2252i2が図22Qで表示された位置(又は図22Oにおけるその初期位置)に表示されるため、デバイス600は、調整された表現2230e(ビネットコントロールインジケーション2254i1の現在の位置に対応する値に基づいて調整された)及びビネットコントロールインジケーション2244iを、22Oに当初表示されていたように再表示する。 In FIG. 22Q, the device 600 detects a gesture 2250q (eg, a drag or swipe gesture in the opposite direction of the gesture 2250o) directed at the adjustable vignette control 2254i. As shown in FIG. 22R, based on the magnitude and orientation of 2250q, the device 600 displays the vignette control indication 2254i1 at the position where the vignette reset indication 2252i2 is displayed in FIG. 22Q. When the vignette control indication 2254i1 is displayed at the position where the vignette reset indication 2252i2 is displayed, the device 600 emits a tactile output 2260a. Furthermore, since the vignette control indication 2254i1 is displayed at the position where the vignette reset indication 2252i2 is displayed in FIG. 22Q (or its initial position in FIG. 22O), the device 600 is configured with the adjusted representation 2230e (vignette control). (Adjusted based on the value corresponding to the current position of the indication 2254i1) and the vignette control indication 2244i are redisplayed as originally displayed on the 22O.

図22Rでは、デバイス600は、フィルタ編集モードアフォーダンス2210cに対応する場所でのタップジェスチャ2250rを検出する。図22Sに示すように、タップジェスチャ2250rを検出したことに応答して、デバイス600は、視覚特性編集アフォーダンス2214を、フィルタ編集ツールアフォーダンス2216に置き換える。デバイス600はまた、フィルタ編集モードアフォーダンス2210cの下にモード選択インジケータ2202cを表示し、モード選択インジケータ2202cは、デバイス600が、視覚特性編集モードで動作するように構成されていることから、フィルタリング編集モードで動作するように構成されていることへと変化したことを示す。更には、タップジェスチャ2250rを検出したことに応答して、デバイス600は、ビネットコントロールインジケーション2254i1の表示を停止する。更には、フィルタなし編集ツールアフォーダンス2216aが選択されている(例えば、「NONE」と示される)ため、デバイス600は、調整可能なコントロールの表示を停止する。 In FIG. 22R, the device 600 detects the tap gesture 2250r at a location corresponding to the filter edit mode affordance 2210c. As shown in FIG. 22S, in response to detecting the tap gesture 2250r, the device 600 replaces the visual characteristic editing affordance 2214 with the filter editing tool affordance 2216. The device 600 also displays a mode selection indicator 2202c under the filter edit mode affordance 2210c, which is a filtering edit mode because the device 600 is configured to operate in the visual characteristic edit mode. Indicates that it has changed to be configured to work with. Furthermore, in response to detecting the tap gesture 2250r, the device 600 stops displaying the vignette control indication 2254i1. Furthermore, since the unfiltered editing tool affordance 2216a is selected (eg, indicated as "NONE"), the device 600 stops displaying the adjustable controls.

図22Sでは、デバイス600は、ドラマチックフィルタ編集ツールアフォーダンス2216cに対応する場所でのタップジェスチャ2250sを検出する。図22Tに示すように、タップジェスチャ2250sを検出したことに応答して、デバイス600は、ドラマチックフィルタ編集ツールアフォーダンス2216cが選択されていることを示す(例えば、「NONE」を「DRAMATIC」に置き換える)。更には、デバイス600は、調整可能なドラマチックフィルタコントロール2256c及びドラマチックフィルタコントロールインジケーション2256c1を表示する。デバイス600は、調整可能なコントロール2254a、2254c、及び/又は2254iに関連して上述したような、調整可能なドラマチックフィルタコントロール2256c(及び他の調整可能なフィルタコントロール)に向けられた入力を検出したことに応答して、同様の技術を使用する。更には、タップジェスチャ2250sを検出したことに応答して、デバイス600は、表現2230gを表示し、ここで、図22Uの表現2230eは、調整可能なドラマチックフィルタコントロール2256c上のドラマチックフィルタコントロールインジケーション2256c1の初期位置に対応する値に基づいて調整された。 In FIG. 22S, the device 600 detects the tap gesture 2250s at a location corresponding to the dramatic filter editing tool affordance 2216c. As shown in FIG. 22T, in response to detecting the tap gesture 2250s, the device 600 indicates that the dramatic filter editing tool affordance 2216c is selected (eg, replace "NONE" with "DRAMATIC"). .. Further, the device 600 displays an adjustable dramatic filter control 2256c and a dramatic filter control indication 2256c1. Device 600 has detected inputs directed to the adjustable dramatic filter control 2256c (and other adjustable filter controls) as described above in connection with the adjustable controls 2254a, 2254c, and / or 2254i. In response, a similar technique is used. Further, in response to detecting the tap gesture 2250s, the device 600 displays a representation 2230g, wherein the representation 2230e in FIG. 22U is a dramatic filter control indication 2256c1 on an adjustable dramatic filter control 2256c. Adjusted based on the value corresponding to the initial position of.

図22Tでは、デバイス600は、調整可能なドラマチックフィルタコントロール2256cに向けられたジェスチャ2250t(例えば、右向きドラッグ又はスワイプジェスチャ)を検出する。図22Uに示すように、ジェスチャ2250tを検出したことに応答して、デバイス600は、デバイス600がジェスチャ2250d、2250i、及び/又は2250oを検出したことに応答して、上述したものと同様の技術を行う。デバイス600は、ジェスチャ2250tの大きさ及び方向(例えば、スワイプの速さ、長さ)に基づいて、ドラマチックフィルタコントロールインジケーション2256c1を、調整可能なドラマチックフィルタコントロール2256c上の新しい位置に動かす。ジェスチャ2250tの大きさ及び方向により、デバイス600に、図22Tにおける調整可能なドラマチックフィルタコントロール2256cの以前の位置よりも、調整可能なドラマチックフィルタコントロール2256cの最左端のティックマーク(例えば、最小値)により近い新しい位置に、フィルタコントロールインジケーション2256c1を表示させる。更には、デバイス600は、表現2230gの表示を、調整された表現2230hの表示に置き換え、ここで、表現2230gは、調整可能なドラマチックフィルタコントロール2256c上のフィルタコントロールインジケーション2256c1の新しい位置に対応する値に基づいて調整された。示すように、図22Uにおいて、デバイス600は、(例えば、図22Tにおける)ドラマチックフィルタコントロールインジケーション2256c1の以前の位置よりも、ドラマチックフィルタコントロールインジケーション2256c1の新しい位置がより低い値に関連付けられている(例えば、ドラマチックフィルタの最小値に対応する最左端のティックマークにより近い)ため、図22Tにおける表現2230gのドラマチックフィルタよりも、ドラマチックフィルタが少ない(例えば、水平線の数が少ない)表現2230hを表示する。更には、ドラマチックフィルタ編集ツールアフォーダンス2216cの周りには、値インジケータは表示されない。 In FIG. 22T, the device 600 detects a gesture 2250t (eg, a rightward drag or swipe gesture) directed at the adjustable dramatic filter control 2256c. As shown in FIG. 22U, in response to the detection of the gesture 2250t, the device 600 responds to the device 600's detection of the gestures 2250d, 2250i, and / or 2250o, a technique similar to that described above. I do. The device 600 moves the dramatic filter control indication 2256c1 to a new position on the adjustable dramatic filter control 2256c based on the size and direction of the gesture 2250t (eg, swipe speed, length). Depending on the size and orientation of the gesture 2250t, the device 600 may be fitted with the leftmost tick mark (eg, minimum value) of the adjustable dramatic filter control 2256c than the previous position of the adjustable dramatic filter control 2256c in FIG. 22T. Display the filter control gesture 2256c1 at a new position near. Further, the device 600 replaces the display of the representation 2230g with the display of the adjusted representation 2230h, where the representation 2230g corresponds to the new position of the filter control indication 2256c1 on the adjustable dramatic filter control 2256c. Adjusted based on the value. As shown, in FIG. 22U, device 600 has a new position of dramatic filter control indication 2256c1 associated with a lower value than the previous position of dramatic filter control indication 2256c1 (eg, in FIG. 22T). (For example, it is closer to the leftmost tick mark corresponding to the minimum value of the dramatic filter), so that the expression 2230h with less dramatic filter (for example, fewer horizontal lines) is displayed than the dramatic filter of expression 2230 g in FIG. 22T. .. Furthermore, no value indicator is displayed around the dramatic filter editing tool Affordance 2216c.

図22Uでは、デバイス600は、フィルタなし編集ツールアフォーダンス2216aに対応する場所でのタップジェスチャ2250uを表示する。図22Vに示すように、タップジェスチャ2250uを検出したことに応答して、デバイス600は、フィルタなし編集ツールアフォーダンス2216aが選択されていることを示す(例えば、「DRAMATIC」を「NONE」に置き換える)。図22Sに関連して上述したように、フィルタなし編集ツールアフォーダンス2216aが選択されている(例えば、「NONE」と示される)ため、デバイス600は、調整可能なコントロールの表示を停止する。加えて、デバイス600は、表現2230hの表示を、表現2230eの表示に置き換え、ここで、表現2230eは、任意のフィルタに基づいて調整されない(例えば、図22Vの表現2230eに表示されたフィルタを表す水平線がない)。したがって、表現2230eは、任意のフィルタを使用して、調整可能なフィルタコントロールを介して、表現2230eを調整する前に、図22Sに表示された表現と同じである。 In FIG. 22U, the device 600 displays a tap gesture 2250u at a location corresponding to the unfiltered editing tool affordance 2216a. As shown in FIG. 22V, in response to detecting the tap gesture 2250u, the device 600 indicates that the unfiltered editing tool affordance 2216a is selected (eg, replace "DRAMATIC" with "NONE"). .. As mentioned above in connection with FIG. 22S, the device 600 stops displaying the adjustable controls because the unfiltered editing tool affordance 2216a is selected (eg, indicated as "NONE"). In addition, device 600 replaces the display of representation 2230h with the display of representation 2230e, where representation 2230e represents a filter displayed in representation 2230e of FIG. 22V that is not adjusted based on any filter. There is no horizon). Therefore, the representation 2230e is the same as the representation displayed in FIG. 22S prior to adjusting the representation 2230e via the adjustable filter control using any filter.

図22Vでは、デバイス600は、ポートレートメディアモード編集アフォーダンス2210aに対応する場所でのタップジェスチャ2250vを検出する。図22Wに示すように、タップジェスチャ2250vを検出したことに応答して、デバイス600は、ポートレートメディア編集モードアフォーダンス2210aの下にモード選択インジケータ2202aを表示し、フィルタ編集モードアフォーダンス2210cの下のモード選択インジケータ2202cの表示を停止する。モード選択インジケータ2202aによって示されるように、デバイス600は、ポートレート編集モードで動作するように構成され、これにより、デバイス600はまた、インジケータ領域602内にf値(例えば、数値)のインジケーションを(例えば、図8Hに開示されているのと同様の技術を使用して)提供する、f値インジケータ602eを表示する。更には、タップジェスチャ2250vを検出したことに応答して、デバイス600は、フィルタ編集ツールアフォーダンス2216を、ポートレートメディア編集ツールアフォーダンス2212に置き換える。いくつかの実施形態では、ポートレートメディア編集ツールアフォーダンス2212は、照明効果コントロール628に対応し;したがって、デバイス600は、照明効果コントロール628に関連して図6S〜図6Uにおいて上述したものと同様の技術を使用して、ポートレートメディア編集ツールアフォーダンス2212に関連する機能を実行する。 In FIG. 22V, the device 600 detects a tap gesture 2250v at a location corresponding to the portrait media mode editing affordance 2210a. As shown in FIG. 22W, in response to detecting the tap gesture 2250v, the device 600 displays a mode selection indicator 2202a under the portrait media edit mode affordance 2210a and a mode under the filter edit mode affordance 2210c. The display of the selection indicator 2202c is stopped. As indicated by the mode selection indicator 2202a, the device 600 is configured to operate in portrait edit mode, which also causes the device 600 to inject an f-number (eg, a numerical value) within the indicator area 602. Display the f-number indicator 602e provided (eg, using a technique similar to that disclosed in FIG. 8H). Furthermore, in response to detecting the tap gesture 2250v, the device 600 replaces the filter editing tool affordance 2216 with the portrait media editing tool affordance 2212. In some embodiments, the portrait media editing tool affordance 2212 corresponds to a lighting effect control 628; therefore, the device 600 is similar to that described above in FIGS. 6S-6U in connection with the lighting effect control 628. The technique is used to perform functions related to the portrait media editing tool Affordance 2212.

図22Wに示すように、デバイス600は、自然光編集ツールアフォーダンス2212aの上に照明選択インジケータ2212a1を示し、これは、自然光編集ツールアフォーダンス2212aが選択されていることを示す。図22Sで上述したようなフィルタなし編集ツールアフォーダンス2216aと同様に、自然光編集ツールアフォーダンス2212aが選択されているため、デバイス600は、表現2230eにおいて自然光を使用して動作するように構成される。換言すれば、調整可能な美白効果は、表現2230eを調整するために使用されないため、デバイス600は、(また、図6R〜図6Qの照明効果コントロール628に関連して上述した)自然照明効果を調整するために調整可能に表示しない。図22Wでは、デバイス600は、ジェスチャ2250w(例えば、押下ジェスチャ)を検出する。 As shown in FIG. 22W, the device 600 shows a lighting selection indicator 2212a1 above the natural light editing tool affordance 2212a, which indicates that the natural light editing tool affordance 2212a is selected. Since the natural light editing tool affordance 2212a is selected, as in the unfiltered editing tool affordance 2216a as described above in FIG. 22S, the device 600 is configured to operate using natural light in representation 2230e. In other words, since the adjustable whitening effect is not used to adjust the representation 2230e, the device 600 provides a natural lighting effect (also described above in connection with the lighting effect control 628 of FIGS. 6R-6Q). Do not display adjustable to adjust. In FIG. 22W, the device 600 detects a gesture 2250w (eg, a pressing gesture).

図22Xに示すように、デバイス600は、水平線で表示されているポートレートメディア編集ツールアフォーダンス2212の表示を、弓で表示されているポートレートメディア編集ツールアフォーダンス2212の表示に遷移させる。自然光編集ツールアフォーダンス2212aが選択されているため、自然光編集ツールアフォーダンス2212aは、弓の上部又は上部(例えば、メディア編集ユーザインタフェースの中央)に表示され、ポートレートメディア編集ツールアフォーダンス2212b〜2212eは、自然光編集ツールアフォーダンス2212aの右にカスケードダウンして表示される。図22Xでは、デバイス600は、接触(例えば、タッチ感知ディスプレイとの指接触)の中断なしで、ジェスチャ2250wの移動を検出する。 As shown in FIG. 22X, the device 600 transitions the display of the portrait media editing tool affordance 2212 displayed by the horizontal line to the display of the portrait media editing tool affordance 2212 displayed by the bow. Since the natural light editing tool affordance 2212a is selected, the natural light editing tool affordance 2212a is displayed at the top or top of the bow (eg, in the center of the media editing user interface), and the portrait media editing tools affordances 2212b-2212e are natural light. It is displayed in cascade down to the right of the editing tool affordance 2212a. In FIG. 22X, the device 600 detects the movement of the gesture 2250w without interruption of contact (eg, finger contact with the touch-sensitive display).

図22Yに示すように、ジェスチャ2250wの移動を検出しているデバイス600に応答して、デバイス600は、ポートレートメディア編集ツールアフォーダンス2212を左のある位置に動かす。ポートレートメディア編集ツールアフォーダンス2212を動かした後、スタジオ照明編集ツールアフォーダンス2212bは、弓の上部に表示され、自然光編集ツールアフォーダンス2212aは、スタジオ照明編集ツールアフォーダンス2212bの左に表示され、かつポートレートメディア編集ツールアフォーダンス2212c〜2212eは、スタジオ照明編集ツールアフォーダンス2212bの右にカスケードダウンして表示される。特定の視覚特性編集ツールアフォーダンスが中心にあるかどうかに関係なく、タップジェスチャに基づいて選択された視覚特性編集ツールアフォーダンス2214とは対照的に、ポートレートメディア編集ツールアフォーダンス2212は、デバイス600がタップジェスチャを特定のメディア編集アフォーダンスに対応する場所で検出したかどうかに関係なく、中心に選択される。いくつかの実施形態では、特定のポートレートメディア編集ツールアフォーダンスは、視覚特性編集ツールアフォーダンス2214を選択するための同様の技術を使用して、タップジェスチャを介して選択される。 As shown in FIG. 22Y, in response to the device 600 detecting the movement of the gesture 2250w, the device 600 moves the portrait media editing tool affordance 2212 to a position on the left. After moving the portrait media editing tool Affordance 2212, the studio lighting editing tool Affordance 2212b is displayed at the top of the bow, the natural light editing tool Affordance 2212a is displayed to the left of the studio lighting editing tool Affordance 2212b, and the portrait media. The editing tools affordances 2212c-2212e are cascaded down to the right of the studio lighting editing tools affordances 2212b. The portrait media editing tool Affordance 2212 is tapped on the device 600, in contrast to the visual trait editing tool Affordance 2214, which is selected based on the tap gesture, regardless of whether a particular visual trait editing tool affordance is central. It is centrally selected regardless of whether the gesture was detected in a location that corresponds to a particular media editing affordance. In some embodiments, the particular portrait media editing tool affordance is selected via a tap gesture using a similar technique for selecting the visual property editing tool affordance 2214.

図22Yに示すように、デバイス600は、スタジオ照明編集ツールアフォーダンス2212bの上に照明選択インジケータ2212b1を表示し、これは、スタジオ照明編集ツールアフォーダンス2212bが選択されていることを示す。同時に、デバイス600は、自然光編集ツールアフォーダンス2212aの上に、照明選択インジケータ2212a1の表示を停止する。スタジオ照明編集ツールアフォーダンス2212bが選択されているため、デバイス600は、スタジオ照明コントロールインジケーション2252b1を有する調整可能なスタジオ照明コントロール2252bを表示する。図22Wにおいて自然光編集ツールアフォーダンス2212aが選択された場合とは対照的に、スタジオ照明編集ツールアフォーダンス2212bであるため、デバイス600は、インジケータ領域602内に照明状態インジケータ602fを表示する。照明状態インジケータ602fは、メディアをキャプチャする際に使用/適用される照明効果の現在値のインジケーションを含む。照明状態インジケータ602fは、図6R〜図6Uに関連して上述したようなものと同様の技術を使用して、以下の図で動作する。照明状態インジケータ602fは、充填されている(例えば、黒として示される)照明状態インジケータ602fを作り上げている9つの電球の約半分及び充填されていない(例えば、白として示される)9つの電球の半分で表示される。充填された9つの電球の半分を示すことは、ほぼ50%のスタジオ照明値に等しい位置で表示されているスタジオ照明コントロールインジケーション2252b1の位置に対応する。コントロール領域606において、デバイス600はまた、照明インジケータ2262aを表示し、これは、スタジオ照明編集ツールアフォーダンス2212bが表示されることを示す。照明インジケータ2262aが表示されるとき、デバイス600は、調整可能な照明コントロールを調整することに向けられたジェスチャを受信すると、照明値(例えば、スタジオ照明値)に基づいて、表現2230eを調整するように構成される。 As shown in FIG. 22Y, the device 600 displays a lighting selection indicator 2212b1 above the studio lighting editing tool affordance 2212b, which indicates that the studio lighting editing tool affordance 2212b is selected. At the same time, the device 600 stops displaying the illumination selection indicator 2212a1 on the natural light editing tool affordance 2212a. Since the studio lighting editing tool affordance 2212b is selected, the device 600 displays an adjustable studio lighting control 2252b with a studio lighting control indication 2252b1. In contrast to the case where the natural light editing tool affordance 2212a is selected in FIG. 22W, the device 600 displays the illumination state indicator 602f within the indicator area 602 because it is the studio lighting editing tool affordance 2212b. The illumination status indicator 602f includes an indication of the current value of the illumination effect used / applied when capturing the media. The illumination status indicator 602f operates in the following figure using the same technique as described above in connection with FIGS. 6R-6U. The illumination status indicator 602f is about half of the nine bulbs that make up the illuminated status indicator 602f (eg, shown as black) and half of the nine bulbs that are not filled (eg, shown as white). Is displayed. Showing half of the nine filled bulbs corresponds to the position of Studio Lighting Control Indication 2252b1 displayed at a position equal to approximately 50% Studio Lighting Value. In the control area 606, the device 600 also displays a lighting indicator 2262a, which indicates that the studio lighting editing tool affordance 2212b is displayed. When the illumination indicator 2262a is displayed, the device 600 will adjust the representation 2230e based on the illumination value (eg, the studio illumination value) upon receiving a gesture directed to adjusting the adjustable illumination control. It is composed of.

図22Yでは、デバイス600は、ジェスチャ2250wのリフトオフを検出する。図22Zに示すように、ジェスチャ2250wのリフトオフを検出したことに応答して、デバイス600は、水平線におけるポートレートメディア編集ツールアフォーダンス2212の表示を、ポートレートメディア編集ツールアフォーダンス2212の表示に再表示する。図22Yでは、スタジオ照明編集ツールアフォーダンス2212bが選択されているため、スタジオ照明編集ツールアフォーダンス2212bは、メディア編集ユーザインタフェースの中心に表示される。更には、「STUDIO」は、スタジオ照明編集ツールアフォーダンス2212bが選択されていることを示すために表示される。いくつかの実施形態では、スタジオ照明編集ツールアフォーダンス2212bは、調整可能な照明効果コントロール666として同一の調整可能なコントロールであり、デバイス600は、上の図6S〜図6Uで論じられたように、デバイス600を使用して、調整可能な照明効果コントロール666を介して機能を行う、スタジオ照明編集ツールアフォーダンス2212bを介して、機能を行うために同様の技術を使用する。 In FIG. 22Y, the device 600 detects the lift-off of the gesture 2250w. As shown in FIG. 22Z, in response to detecting the lift-off of the gesture 2250w, the device 600 redisplays the display of the portrait media editing tool affordance 2212 on the horizon on the display of the portrait media editing tool affordance 2212. .. In FIG. 22Y, the studio lighting editing tool affordance 2212b is selected, so that the studio lighting editing tool affordance 2212b is displayed at the center of the media editing user interface. Further, "STUDIO" is displayed to indicate that the studio lighting editing tool affordance 2212b is selected. In some embodiments, the studio lighting editing tool affordance 2212b is the same adjustable control as the adjustable lighting effect control 666, and the device 600 is as discussed in FIGS. 6S-6U above. A similar technique is used to perform the function via the studio lighting editing tool affordance 2212b, which performs the function via the adjustable lighting effect control 666 using the device 600.

図22Zでは、デバイス600は、調整可能なスタジオ照明コントロール2252bに向けられたジェスチャ2250z(例えば、左向きドラッグ又はフリックジェスチャ)を検出する。図22AAに示すように、ジェスチャ2250zを検出したことに応答して、デバイス600は、デバイス600がジェスチャ2250d、2250i、及び/又は2250oを検出したことに応答して、上述したものと同様の技術を行う。図22AAに示すように、デバイス600は、スタジオ照明コントロールインジケーション2252b1を、調整可能なスタジオ照明コントロール2252b上の新しい位置(例えば、最右端のティックマーク)に動かす。新しい位置(例えば、最右端のティックマーク)は、スタジオ照明調整値の最大値に対応する。その結果、デバイス600は、表現2230iを表示し、ここで、表現2230eは、調整可能なスタジオ照明コントロール2252b上のスタジオ照明コントロールインジケーション2252b1の位置に対応する新しい値(例えば、最大スタジオ照明調整)に基づいて調整された。例えば、表現2230iは、表現2230eよりも犬を取り囲む光がより多い。更には、デバイス600はまた、その最大値に設定されている調整可能なスタジオ照明コントロール2252bに対応する、充填されている9つの電球全てを示すように、照明状態インジケータ602fを更新する。特に、デバイス600は、f値インジケータ602eに、値1.4を表示し続ける。図2AAでは、デバイス600は、f値インジケータ602eに対応する場所でのタップジェスチャ2250aaを検出する。図22ABに示すように、タップジェスチャ2250aaを検出したことに応答して、デバイス600は、調整可能なスタジオ照明コントロール2252b及びスタジオ照明コントロールインジケーション2252b1の表示を、調整可能なスタジオ照明深度コントロール2252bb及びスタジオ照明深度コントロールインジケーション2252bb1の表示に置き換える。図22ABでは、スタジオ照明深度コントロールインジケーション2252bb1は、調整可能なスタジオ照明深度コントロール2252bb上の、f値インジケータ602e(例えば、1.4)として表示された深度値に対応する位置に表示される。更には、デバイス600はまた、照明インジケータ2262aの表示を、深度インジケータ2262bの表示に置き換える。照明インジケータ2262aが表示されるとき、デバイス600は、調整可能な深度コントロールに向けられたジェスチャを受信すると、深度値(例えば、スタジオ照明深度値)に基づいて、表現2230iを調整するように構成される。 In FIG. 22Z, device 600 detects a gesture 2250z (eg, leftward drag or flick gesture) directed at the adjustable studio lighting control 2252b. As shown in FIG. 22AA, in response to the detection of the gesture 2250z, the device 600 responds to the device 600's detection of the gestures 2250d, 2250i, and / or 2250o, and has a technique similar to that described above. I do. As shown in FIG. 22AA, the device 600 moves the studio lighting control indication 2252b1 to a new position on the adjustable studio lighting control 2252b (eg, the rightmost tick mark). The new position (eg, the rightmost tick mark) corresponds to the maximum studio lighting adjustment value. As a result, the device 600 displays the representation 2230i, where the representation 2230e is a new value corresponding to the position of the studio lighting control indication 2252b1 on the adjustable studio lighting control 2252b (eg, maximum studio lighting adjustment). Adjusted based on. For example, expression 2230i has more light surrounding the dog than expression 2230e. Further, the device 600 also updates the lighting status indicator 602f to indicate all nine bulbs that are filled, corresponding to the adjustable studio lighting control 2252b set to its maximum value. In particular, the device 600 continues to display the value 1.4 on the f-number indicator 602e. In FIG. 2AA, the device 600 detects the tap gesture 2250aa at the location corresponding to the f-number indicator 602e. As shown in FIG. 22AB, in response to detecting the tap gesture 2250aa, the device 600 displays the adjustable studio lighting control 2252b and the studio lighting control indication 2252b1 with the adjustable studio lighting depth control 2252bb and Replace with the display of Studio Illumination Depth Control Indication 2252bb1. In FIG. 22AB, the studio illumination depth control indication 2252bb1 is displayed on the adjustable studio illumination depth control 2252bb at a position corresponding to the depth value displayed as the f-number indicator 602e (eg, 1.4). Furthermore, the device 600 also replaces the display of the illumination indicator 2262a with the display of the depth indicator 2262b. When the illumination indicator 2262a is displayed, the device 600 is configured to adjust the representation 2230i based on the depth value (eg, studio illumination depth value) upon receiving a gesture directed to the adjustable depth control. NS.

図22ABでは、デバイス600は、調整可能なスタジオ照明深度コントロール2252bbに向けられたジェスチャ2250ab(例えば、左向きドラッグ又はフリックジェスチャ)を検出する。図22ACに示すように、ジェスチャ2250abを検出したことに応答して、デバイス600は、デバイス600がジェスチャ2250d、2250i、及び/又は2250oを検出したことに応答して、上述したものと同様の技術を行う。図22ACに示すように、デバイス600は、スタジオ照明深度コントロールインジケーション2252bb1を、調整可能なスタジオ照明深度コントロール2252bb上の新しい位置(例えば、最右端のティックマークに向かって)に動かす。その結果、デバイス600は、表現2230jを表示し、ここで、図22ABの表現2230iは、調整可能なスタジオ照明深度コントロール2252bb上のスタジオ照明深度コントロールインジケーション2252bb1の位置に対応する新しい値に基づいて調整された。例えば、表現2230jは、表現2230iよりも視覚的により深度が高い(例えば、暗色化すされた木及びテーブル)。更には、デバイス600はまた、f値インジケータ602eを、スタジオ照明深度コントロールインジケーション2252bb1の位置に対応する新しい値(例えば、3.4)に更新する。特に、デバイス600は、図22ABに表示されたように、照明状態インジケータ602fを表示し続ける。図22ACでは、デバイス600は、完了アフォーダンス1036cに対応する場所でのタップジェスチャ2250acを検出する。図22ADに示すように、タップジェスチャ2250acを検出したことに応答して、デバイス600は、表現2230jとともにメディアビューワインタフェースを表示する。デバイス600は、表現2230jを保存することによって、以前に表示表現2230aに作成された修正を保存する。図22AE〜図22ALは、アニメーション化された画像メディア(例えば、図22AE〜図22AH)及びビデオメディア(例えば、図22AI〜図22AL)を編集するように構成されているデバイス600を示す。具体的には、図22AE〜図22ALは、デバイス600がアニメーション化された画像メディア及びビデオ画像メディアを編集するように構成されるときに、メディア編集ユーザインタフェースが類似のユーザインタフェース要素を表示することを示す。 In FIG. 22AB, device 600 detects a gesture 2250ab (eg, leftward drag or flick gesture) directed at the adjustable studio illumination depth control 2252bb. As shown in FIG. 22AC, in response to the detection of the gesture 2250ab, the device 600 responds to the device 600's detection of the gestures 2250d, 2250i, and / or 2250o, a technique similar to that described above. I do. As shown in FIG. 22AC, the device 600 moves the studio illumination depth control indication 2252bb1 to a new position on the adjustable studio illumination depth control 2252bb (eg, towards the rightmost tick mark). As a result, device 600 displays representation 2230j, where representation 2230i in FIG. 22AB is based on a new value corresponding to the position of studio lighting depth control indication 2252bb1 on adjustable studio lighting depth control 2252bb. Adjusted. For example, representation 2230j is visually deeper than representation 2230i (eg, darkened trees and tables). Further, the device 600 also updates the f-number indicator 602e to a new value (eg, 3.4) corresponding to the position of the studio illumination depth control indication 2252bb1. In particular, the device 600 continues to display the illumination status indicator 602f, as shown in FIG. 22AB. In FIG. 22AC, device 600 detects tap gesture 2250ac at a location corresponding to completion affordance 1036c. As shown in FIG. 22AD, in response to detecting the tap gesture 2250ac, the device 600 displays the media viewer interface with the representation 2230j. The device 600 saves the modifications previously created in the display representation 2230a by saving the representation 2230j. 22AE to 22AL show a device 600 configured to edit animated image media (eg, FIGS. 22AE to 22AH) and video media (eg, FIGS. 22AI to 22AL). Specifically, FIGS. 22AE to 22AL show that the media editing user interface displays similar user interface elements when the device 600 is configured to edit animated image media and video image media. Is shown.

図22AEに示すように、デバイス600は、キャプチャされたアニメーション化された画像メディアの表現2230kを表示する。表現2280kがアニメーション化された画像メディアの表現であるため、デバイス600は、アニメーション化された画像メディア編集モードアフォーダンス2210eを表示する。アニメーション化された画像メディア編集モードアフォーダンス2210eの下のモード選択インジケータ2202aによって示されるように、アニメーション化された画像メディア編集モードアフォーダンス2210eが選択されるため、デバイス600は、アニメーション化された画像メディアアフォーダンス2220を表示する。アニメーション化された画像メディアアフォーダンス2220は、アニメーション化された画像メディア内の異なる時間に対応するコンテンツのフレームのサムネイル表現(例えば、サムネイル表現2220k)を含む。図22AEでは、サムネイル表現2220kが選択されているため、サムネイル表現2220kは、表現2280kに対応し、ここで、表現2280kは、サムネイル表現2220kの拡大バージョンである。図22AEでは、デバイス600は、視覚特性編集モードアフォーダンス2210bに対応する場所でのタップジェスチャ2250aeを検出する。図22AFに示すように、タップジェスチャ2250aeを検出したことに応答して、デバイス600は、アニメーション化された画像メディア内の表現2280k(又はサムネイル表現2220k)の場所に対応する位置に、スクラバインジケーションコントロール2240aとともにスクラバ2240を表示する。更には、デバイス600は、アニメーション化された画像メディアアフォーダンス2220を、視覚特性編集ツールアフォーダンス2214に置き換え、視覚特性編集モードアフォーダンス2210bの下にモード選択インジケータ2202bを、図22Cに関連して論じられるものと同様の技術を使用して表示する。図22AFでは、デバイス600は、自動視覚特性編集ツールアフォーダンス2214aに対応する場所でのタップジェスチャ2250afを検出する。 As shown in FIG. 22AE, the device 600 displays a representation 2230k of the captured animated image media. Since the representation 2280k is a representation of the animated image media, the device 600 displays the animated image media edit mode affordance 2210e. As indicated by the mode selection indicator 2202a under the animated image media edit mode affordance 2210e, the animated image media edit mode affordance 2210e is selected so that the device 600 has an animated image media affordance. Display 2220. The animated image media affordance 2220 includes a thumbnail representation (eg, thumbnail representation 2220k) of frames of content corresponding to different times in the animated image media. In FIG. 22AE, since the thumbnail representation 2220k is selected, the thumbnail representation 2220k corresponds to the representation 2280k, where the representation 2280k is an enlarged version of the thumbnail representation 2220k. In FIG. 22AE, the device 600 detects a tap gesture 2250ae at a location corresponding to the visual characteristic edit mode affordance 2210b. As shown in FIG. 22AF, in response to the detection of the tap gesture 2250ae, the device 600 scrubbed in a position corresponding to the location of the representation 2280k (or thumbnail representation 2220k) in the animated image media. The scrubber 2240 is displayed together with the control 2240a. Further, the device 600 replaces the animated image media affordance 2220 with the visual characteristic editing tool affordance 2214, and the mode selection indicator 2202b under the visual characteristic editing mode affordance 2210b is discussed in connection with FIG. 22C. Display using the same technique as. In FIG. 22AF, the device 600 detects a tap gesture 2250af at a location corresponding to the automatic visual property editing tool affordance 2214a.

図22AGでは、タップジェスチャ2250afを検出したことに応答して、デバイス600は、メディア編集ユーザインタフェースの中心に、自動視覚特性編集ツールアフォーダンス2214aを表示する(図22Iに示すように)。デバイス600は、調整可能な自動視覚特性コントロール2254a及び自動視覚特性コントロールインジケーション2254a1を更に表示する。更には、タップジェスチャ2250afを検出したことに応答して、デバイス600は、(例えば、露出値インジケータ2244bが周辺部露出編集ツールアフォーダンス2214bの周囲に表示されることによって示されるように)図22Iに関連して上述したようなものと類似の技術を使用して、他の視覚特性編集ツールアフォーダンス2214の1つ以上の現在値を調整する。更に、タップジェスチャ2250agを検出したことに応答して、デバイス600は、表現2280kを、表現2280lに置き換える。デバイス600は、視覚特性編集ツールアフォーダンス2214に対応する調整された現在値に基づいて、表現2280lを表示する。図22AGでは、デバイス600は、スクラバ2240に向けられたジェスチャ2250ag(例えば、右向きドラッグジェスチャ)を検出する。 In FIG. 22AG, in response to detecting the tap gesture 2250af, the device 600 displays the automatic visual property editing tool affordance 2214a at the center of the media editing user interface (as shown in FIG. 22I). The device 600 further displays the adjustable automatic visual characteristic control 2254a and the automatic visual characteristic control indication 2254a1. Further, in response to detecting the tap gesture 2250af, the device 600 is shown in FIG. 22I (eg, as indicated by the exposure value indicator 2244b being displayed around the peripheral exposure editing tool affordance 2214b). A technique similar to that described above is used in connection with adjusting the current value of one or more of the other visual property editing tools affordance 2214. Further, in response to detecting the tap gesture 2250ag, the device 600 replaces the representation 2280k with the representation 2280l. The device 600 displays the representation 2280 liters based on the adjusted current value corresponding to the visual characteristic editing tool affordance 2214. In FIG. 22AG, the device 600 detects a gesture 2250ag directed at the scrubber 2240 (eg, a rightward drag gesture).

図22AHに示すように、ジェスチャ2250agを検出したことに応答して、デバイス600は、スクラバインジケーションコントロール2240aを、スクラバ2240上の新しい位置に動かす。具体的には、デバイス600は、スクラバインジケーションコントロール2240aを、図22AGのスクラバインジケーションコントロール2240aの位置の右にある新しい位置に動かす。更に、ジェスチャ2250agを検出したことに応答して、デバイス600は、表現2280lを、表現2280lに置き換える。表現2280lは、スクラバ2240上のスクラバインジケーションコントロール2240aの新しい位置に対応する時点のアニメーション化された画像のうちの1つを示す。したがって、表現2280mは、図22AGにおいて表現2280lが対応するアニメーション化された画像メディア内の時間とは異なる、アニメーション化された画像メディア内の時間に対応する。図22AFに示すように、表現2280kを表示している間に、デバイス600が視覚特性編集ツールアフォーダンス2214の1つ以上の現在値を調整して、表現2280lを表示したが、表現2280mはまた、視覚特性編集ツールアフォーダンス2214の調整された1つ以上の現在値に基づいて調整された。したがって、アニメーション化された画像メディア内の特定の時点での表現のうちの1つを調整することはまた、アニメーション化された画像メディア内の異なる時点での他の表現を調整する。そのため、デバイス600が1つ以上の視覚特性に関連付けられた1つ以上の現在値を調整している間に、アニメーション化された画像メディアの表現が表示されない場合であっても、ユーザがスクラバ2240を使用して、1つ以上の現在値を調整した後の表現への変化を閲覧できる。 As shown in FIG. 22AH, in response to detecting the gesture 2250ag, the device 600 moves the scrubbing indication control 2240a to a new position on the scrubber 2240. Specifically, the device 600 moves the scrubbing control 2240a to a new position to the right of the scrubbing control 2240a in FIG. 22AG. Further, in response to detecting the gesture 2250ag, the device 600 replaces the representation 2280l with the representation 2280l. Representation 2280l represents one of the animated images at the time corresponding to the new position of the scrubbing indication control 2240a on the scrubber 2240. Therefore, the representation 2280m corresponds to a time in the animated image media that is different from the time in the animated image media with which the representation 2280l corresponds in FIG. 22AG. As shown in FIG. 22AF, while displaying the representation 2280k, the device 600 adjusted one or more current values of the visual property editing tool affordance 2214 to display the representation 2280l, but the representation 2280m also Adjusted based on one or more adjusted current values of the visual property editing tool Affordance 2214. Therefore, adjusting one of the representations at a particular point in time in the animated image media also adjusts the other representations at different times in the animated image media. Thus, the user scrubber 2240, even if the animated image media representation is not displayed while the device 600 is adjusting one or more current values associated with one or more visual characteristics. You can use to view the changes to the representation after adjusting for one or more current values.

上述のように、図22AI〜図22ALは、ビデオメディアを編集するように構成されたデバイス600を示す。図22AIに示すように、デバイス600は、キャプチャされたビデオメディアの表現2282nを表示する。表現2282nがビデオメディアの表現であるため、デバイス600は、ビデオメディア編集モードアフォーダンス2210fを表示する。ビデオメディア編集モードアフォーダンス2210fの下のモード選択インジケータ2202aによって示されるように、アニメーション化された画像メディア編集モードアフォーダンス2210eが選択されるため、デバイス600は、ビデオメディアアフォーダンス2222を表示する。ビデオメディアアフォーダンス2222は、ビデオメディア内の異なる時間に対応するコンテンツのフレームのサムネイル表現(例えば、表現2222n)を含む。したがって、ビデオメディアアフォーダンス2222は、アニメーション化された画像メディアアフォーダンス2220と同様である。サムネイル表現2220nが選択されているため、サムネイル表現2220nは、サムネイル表現2220nの拡大バージョンである、表現2282nに対応する。図22AIでは、デバイス600は、視覚特性編集モードアフォーダンス2210bに対応する場所でのタップジェスチャ2250aiを検出する。 As mentioned above, FIGS. 22AI to 22AL show a device 600 configured to edit video media. As shown in FIG. 22AI, the device 600 displays a representation of the captured video media 2282n. Since the representation 2282n is a representation of the video media, the device 600 displays the video media edit mode affordance 2210f. As indicated by the mode selection indicator 2202a below the video media edit mode affordance 2210f, the animated image media edit mode affordance 2210e is selected so that the device 600 displays the video media affordance 2222. The video media affordance 2222 includes thumbnail representations of frames of content corresponding to different times in the video media (eg, representation 2222n). Therefore, the video media affordance 2222 is similar to the animated image media affordance 2220. Since the thumbnail representation 2220n is selected, the thumbnail representation 2220n corresponds to the representation 2282n, which is an expanded version of the thumbnail representation 2220n. In FIG. 22AI, the device 600 detects a tap gesture 2250ai at a location corresponding to the visual characteristic edit mode affordance 2210b.

図22AJに示すように、タップジェスチャ2250aiを検出したことに応答して、デバイス600は、ビデオメディア内の表現2282n(又はサムネイル表現2220n)の場所に対応する位置に、スクラバインジケーションコントロール2240aとともにスクラバ2240を表示する。特に、デバイス600は、デバイスがビデオ編集モードで動作するように構成されるとき、及びデバイスがアニメーション化された画像メディアモードで動作するように構成される(例えば、図22AF)とき、スクラバ2240を表示する。図22AJでは、デバイス600は、輝度編集ツールアフォーダンス2214cに対応する場所でのタップジェスチャ2250ajを検出する。図22AKでは、タップジェスチャ2250ajを検出したことに応答して、デバイス600は、自動的に(追加のユーザ入力なしで)動き、図22Cにおいて上述のように、同様の技術を使用して、視覚特性編集ツールアフォーダンス2214a〜2214cを左にスライドして、メディア編集ユーザインタフェースの水平中心に輝度編集ツールアフォーダンス2214cを表示する。デバイス600はまた、自動的に(追加のユーザ入力なしで)(例えば、調整可能な輝度コントロール2254cに向けられたジェスチャなしで)、調整可能な輝度コントロール2254c上の位置に輝度コントロールインジケーション2254c1を表示する。更に、タップジェスチャ2250ajを検出したことに応答して、デバイス600は、表現2282nを、表現2282oに置き換える。デバイス600は、(例えば、輝度コントロールインジケーション2254c1の位置に対応する)調整可能な輝度コントロール2254cの現在値に基づいて、表現2282oを表示する。図22AKでは、デバイス600は、スクラバ2240に向けられたジェスチャ2250ak(例えば、右向きドラッグジェスチャ)を検出する。 As shown in FIG. 22AJ, in response to the detection of the tap gesture 2250ai, the device 600 scrubbers with the scrubbing indication control 2240a at a position corresponding to the location of representation 2482n (or thumbnail representation 2220n) in the video media. 2240 is displayed. In particular, the device 600 can be configured to operate the scrubber 2240 when the device is configured to operate in video editing mode and when the device is configured to operate in animated image media mode (eg, FIG. 22AF). indicate. In FIG. 22AJ, the device 600 detects a tap gesture 2250aj at a location corresponding to the luminance editing tool affordance 2214c. In FIG. 22AK, in response to the detection of tap gesture 2250aj, the device 600 automatically moves (without additional user input) and visually, using a similar technique as described above in FIG. 22C. Slide the characteristic editing tools affordances 2214a to 2214c to the left to display the brightness editing tools affordances 2214c in the horizontal center of the media editing user interface. The device 600 also automatically (without additional user input) (eg, without gestures directed at the adjustable brightness control 2254c), position the brightness control indication 2254c1 on the adjustable brightness control 2254c. indicate. Further, in response to detecting the tap gesture 2250aj, the device 600 replaces the representation 2282n with the representation 2282o. The device 600 displays representation 2282o based on the current value of the adjustable luminance control 2254c (eg, corresponding to the position of the luminance control indication 2254c1). In FIG. 22AK, the device 600 detects a gesture 2250 ak (eg, a rightward drag gesture) directed at the scrubber 2240.

図22ALに示すように、ジェスチャ2250akを検出したことに応答して、デバイス600は、スクラバインジケーションコントロール2240aを、スクラバ2240上の新しい位置に動かす。具体的には、デバイス600は、スクラバインジケーションコントロール2240aを、図22AKのスクラバインジケーションコントロール2240aの位置の右にある新しい位置に動かす。更に、ジェスチャ2250akを検出したことに応答して、デバイス600は、表現2282oを、表現2282pに置き換える。表現2282pは、スクラバ2240上のスクラバインジケーションコントロール2240aの新しい位置に対応する時点のビデオメディアのフレームのうちの1つを示す。したがって、表現2282pは、図22AKにおいて表現2282oが対応するビデオメディア内の時間とは異なる、ビデオメディア内の時間に対応する。図22ALに示すように、表現2282nを表示している間に、デバイス600が現在の輝度値を調整して、表現2282oを表示したが、表現2282pはまた、調整された輝度値に基づいて調整された。したがって、(アニメーション化された画像メディアのように)ビデオメディア内の特定の時点での表現のうちの1つを調整することはまた、ビデオメディア内の異なる時間に対応する他の表現を調整する。特に、図22AKにおいて、デバイス600は、デバイス600の底縁部付近に、編集モードアフォーダンス2210、調整可能な輝度コントロール2254c、及び視覚特性編集ツールアフォーダンス2214を表示する。いくつかの実施形態では、デバイス600の底縁部付近に、これらのユーザインタフェース要素を表示することにより、これらのユーザインタフェース要素が、デバイス600の一部のユーザの親指が届く範囲(例えば、デバイスがその手のみで保持されているときのデバイスを保持している手の親指が届く範囲)内にあることができる。 As shown in FIG. 22AL, in response to detecting the gesture 2250ak, the device 600 moves the scrubbing indication control 2240a to a new position on the scrubber 2240. Specifically, the device 600 moves the scrubbing control 2240a to a new position to the right of the scrubbing control 2240a position in FIG. 22AK. Further, in response to detecting the gesture 2250ak, the device 600 replaces the representation 2482o with the representation 2282p. Representation 2482p represents one of the frames of the video media at the time corresponding to the new position of the scrubbing indication control 2240a on the scrubber 2240. Therefore, the representation 2482p corresponds to a time in the video media that is different from the time in the video media that the representation 2282o corresponds to in FIG. 22AK. As shown in FIG. 22AL, while displaying the representation 2482n, the device 600 adjusted the current luminance value to display the representation 2282o, but the representation 2482p is also adjusted based on the adjusted luminance value. Was done. Therefore, adjusting one of the representations at a particular point in time in the video media (like animated image media) also adjusts the other representations in the video media that correspond to different times. .. In particular, in FIG. 22AK, the device 600 displays an edit mode affordance 2210, an adjustable luminance control 2254c, and a visual characteristic editing tool affordance 2214 near the bottom edge of the device 600. In some embodiments, by displaying these user interface elements near the bottom edge of the device 600, these user interface elements are within reach of some users of the device 600 (eg, the device). Can be within reach of the thumb of the hand holding the device when is held only by that hand.

図22ALでは、デバイス600は、デバイス600の時計方向回転を検出する。図22AMに示すように、時計方向回転2250alを検出したことに応答して、デバイス600は、縦向きのメディア編集ユーザインタフェースの表示を、横向きのメディア編集ユーザインタフェースの表示に遷移させる。図22AMに示すように、メディア編集ユーザインタフェースを横向きに表示するときに、デバイス600は、デバイス600の右縁部付近に、編集モードアフォーダンス2210、調整可能な輝度コントロール2254c、及び視覚特性編集ツールアフォーダンス2214を表示する。いくつかの実施形態では、メディアユーザインタフェースが横向きにある間に、デバイス600の右縁部付近に、これらのユーザインタフェース要素を表示することにより、メディア編集ユーザインタフェースを回転するときに、デバイス600のいくらかのユーザの親指が届く範囲内に、ユーザ要素を維持する。 In FIG. 22AL, the device 600 detects a clockwise rotation of the device 600. As shown in FIG. 22AM, in response to detecting the clockwise rotation 2250al, the device 600 transitions the display of the vertical media editing user interface to the display of the horizontal media editing user interface. As shown in FIG. 22AM, when displaying the media editing user interface sideways, the device 600 has an edit mode affordance 2210, an adjustable brightness control 2254c, and a visual characteristic editing tool affordance near the right edge of the device 600. 2214 is displayed. In some embodiments, the device 600 is rotated when the media editing user interface is rotated by displaying these user interface elements near the right edge of the device 600 while the media user interface is in landscape orientation. Keep the user element within reach of some user's thumbs.

図23A〜図23Bは、いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。方法2300は、表示デバイス(例えば、タッチ感知ディスプレイ;112)を備えたデバイス(例えば、100、300、500、600)にて行われる。方法2300のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 23A-23B are flow diagrams illustrating a method for editing media captured using an electronic device according to some embodiments. Method 2300 is performed on a device (eg, 100, 300, 500, 600) equipped with a display device (eg, touch-sensitive display; 112). Some actions of Method 2300 are optionally combined, some actions are arbitrarily modified in order, and some actions are optionally omitted.

後述するように、方法2300は、キャプチャされたメディアを編集するための直感的な仕方を提供する。この方法は、メディアを編集する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアを編集することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, Method 2300 provides an intuitive way to edit the captured media. This method reduces the user's cognitive burden when editing media, thereby creating a more efficient human-machine interface. For battery-powered computing devices, it saves power and prolongs the time between battery charges by enabling users to edit media faster and more efficiently.

電子デバイス(例えば、600)は、表示デバイスを介して、視覚メディア(例えば、画像、ビデオのフレーム)の表現(例えば、2230a〜2230p)と、視覚メディアの表現(例えば、2230a〜p)を編集する第1の編集可能パラメータ(例えば、メディア編集パラメータ(例えば、2214)(例えば、自動(例えば、2214a)、露出(例えば、2214b)、ブリリアンス、ハイライト、影、コントラスト、輝度(例えば、2214c)、ブラックポイント、彩度、自然な彩度、温度、色合い、鮮明度、明瞭度、ノイズ低減、ビネット、色、白黒、照明パラメータ(例えば、2212)(例えば、自然光、スタジオ光、輪郭光、舞台光、モノ舞台光)、フィルタリング(例えば、2216)パラメータ(例えば、オリジナル(例えば、2216a)、ビビッド、ビビッドウォーム、ビビッドクール、ドラマチック(例えば、2216c)、ドラマチックウォーム、ドラマチッククール、モノ、シルバートーン、ノワール)、クロッピングパラメータ(例えば、2218)、補正パラメータ(例えば、水平視点補正、垂直視点補正、水平線補正)))に対応する(例えば、表す、示す、制御する)第1のアフォーダンス(例えば、2210〜2216、2252〜2256)と、視覚メディアの表現(例えば、2230a〜2230p)を編集する第2の編集可能パラメータ(例えば、メディア編集パラメータ(例えば、2214)(例えば、自動(例えば、2214a)、露出(例えば、2214b)、ブリリアンス、ハイライト、影、コントラスト、輝度(例えば、2214c)、ブラックポイント、彩度、自然な彩度、温度、色合い、鮮明度、明瞭度、ノイズ低減、ビネット、色、白黒、照明パラメータ(例えば、2212)(例えば、自然光、スタジオ光、輪郭光、舞台光、モノ舞台光)、フィルタリング(例えば、2216)パラメータ(例えば、オリジナル(例えば、2216a)、ビビッド、ビビッドウォーム、ビビッドクール、ドラマチック(例えば、2216c)、ドラマチックウォーム、ドラマチッククール、モノ、シルバートーン、ノワール)、クロッピングパラメータ(例えば、2218)、補正パラメータ(例えば、水平視点補正、垂直視点補正、水平線補正)))に対応する(例えば、表す、示す、制御する、一部である)第2のアフォーダンス(例えば、2210〜2216)と、を含む、メディア(例えば、画像、ビデオ)編集ユーザインタフェースを表示する(2302)。 The electronic device (eg, 600) edits the representation (eg, 2230a-2230p) of the visual media (eg, image, video frame) and the representation of the visual media (eg, 2230a-p) via the display device. First editable parameters (eg, media edit parameters (eg, 2214)) (eg, automatic (eg, 2214a), exposure (eg, 2214b), brilliance, highlights, shadows, contrast, brightness (eg, 2214c)). , Black point, saturation, natural saturation, temperature, tint, sharpness, clarity, noise reduction, vignette, color, black and white, lighting parameters (eg 2212) (eg natural light, studio light, contour light, stage Light, mono stage light), filtering (eg 2216) parameters (eg original (eg 2216a), vivid, vivid warm, vivid cool, dramatic (eg 2216c), dramatic warm, dramatic cool, mono, silver tone, Noir), cropping parameters (eg 2218), correction parameters (eg horizontal viewpoint correction, vertical viewpoint correction, horizontal line correction))) corresponding (eg, represent, show, control) first affordance (eg 2210) ~ 2216, 2252 to 2256) and a second editable parameter (eg, media editing parameter (eg, 2214)) (eg, automatic (eg, 2214a)) that edits the representation of the visual media (eg, 2230a to 2230p). Exposure (eg 2214b), Brilliance, Highlights, Shadows, Contrast, Brightness (eg 2214c), Black Point, Saturation, Natural Saturation, Temperature, Tint, Sharpness, Clarity, Noise Reduction, Vignette, Color , Black and white, lighting parameters (eg 2212) (eg natural light, studio light, contour light, stage light, mono stage light), filtering (eg 2216) parameters (eg original (eg 2216a), vivid, vivid worm , Vivid cool, dramatic (eg 2216c), dramatic warm, dramatic cool, mono, silver tone, noir), cropping parameters (eg 2218), correction parameters (eg horizontal perspective correction, vertical perspective correction, horizontal line correction)) ) Corresponds to (eg, represents, shows, controls, is part of) a second affordance (eg, 222-1022). 16) and display a media (eg, image, video) editing user interface, including (2302).

メディア編集ユーザインタフェースを表示している間に、電子デバイスは、第1のアフォーダンス(例えば、2250c、2250h)の選択に対応する第1のユーザ入力(例えば、アフォーダンス上でのタップ入力)を検出する(2304)。 While displaying the media editing user interface, the electronic device detects a first user input (eg, tap input on the affordance) corresponding to the selection of the first affordance (eg, 2250c, 2250h). (2304).

いくつかの実施形態では、第1のユーザ入力(例えば、2250c、2250h、2250n)は、第1のアフォーダンス(2214a、2214c、2214n)上でのタップ入力である。 In some embodiments, the first user input (eg, 2250c, 2250h, 2250n) is a tap input on the first affordance (2214a, 2214c, 2214n).

第1のアフォーダンスの選択に対応する第1のユーザ入力を検出したことに応答して、電子デバイスは、表示デバイス上に、メディア編集ユーザインタフェース内のそれぞれの場所(例えば、第1及び第2のアフォーダンスに隣接する場所(第1及び第2のアフォーダンスの下の場所))に、第1の編集可能パラメータを調整する調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)(例えば、グラフィカル制御要素(例えば、スライダ))を表示する(2306)。いくつかの実施形態では、調整可能なコントロールは、第1及び第2のアフォーダンスから、又は表示デバイスの左側/右側からそれぞれの場所にスライドする(例えば、図22C〜図22D)。 In response to detecting the first user input corresponding to the first affordance selection, the electronic device is placed on the display device at its respective location within the media editing user interface (eg, first and second). Adjustable controls (eg, 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) that adjust the first editable parameters to locations adjacent to the affordances (locations below the first and second affordances) (eg, 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c). For example, a graphical control element (eg, a slider)) is displayed (2306). In some embodiments, the adjustable control slides from the first and second affordances or from the left / right side of the display device to their respective locations (eg, FIGS. 22C-22D).

第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、及び第1の編集可能パラメータが選択されている間に(例えば、2204)(例えば、図22C〜図22D)(例えば、メディアユーザインタフェースの中央の中心に押圧されて表示されるか、又は異なる色(例えば、グレーアウトされていない)で表示される)、電子デバイスは、第1の編集可能パラメータを調整する調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)に向けられた第1のジェスチャ(例えば、2250d、2250i、2250o、2250t、2250z、2250ab)(例えば、ドラッグジェスチャ(例えば、調整可能なコントロール上のある対応する場所(例えば、ティックマーク)から調整可能なコントロール上の別の対応する(respectable)場所へとインジケーション(例えば、スライダバー)をドラッグする))を検出する(2308)。いくつかの実施形態では、複数の条件が満たされていると、複数のアフォーダンスが表示される。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプション(例えば、スライダ)を提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 Adjusting the First Editable Parameter While displaying the adjustable control and while the first editable parameter is selected (eg, 2204) (eg, FIGS. 22C-22D) (eg, FIGS. 22C-22D). For example, the electronic device may be pressed to the center center of the media user interface or displayed in a different color (eg, not grayed out), the electronic device may be adjustable to adjust the first editable parameter. First gestures (eg, 2250d, 2250i, 2250o, 2250t, 2250z, 2250ab) directed at various controls (eg, 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) (eg, drag gestures (eg, adjustable). Detects an indication (eg, dragging a slider bar) from one corresponding location on a control (eg, a tick mark) to another (eg, a slider bar) on an adjustable control (2308). .. In some embodiments, multiple affordances are displayed when multiple conditions are met. By providing additional control options (eg, sliders) without cluttering the UI with the additional controllers displayed, device usability is enhanced and the user-device interface (eg, manipulating the device / device) is enhanced. By assisting the user in providing proper input when interacting with and reducing user errors), and by allowing the user to use the device faster and more efficiently. , Reduces device power usage and improves battery life.

第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)に向けられた第1のジェスチャ(例えば、2250d、2250i、2250o、2250t、2250z、2250ab)を検出したことに応答して(2310)、電子デバイスは、第1のジェスチャに従って(例えば、第1のジェスチャの大きさに従って)第1の編集可能パラメータの現在値を調整する(例えば、新しい位置でスライダ上にスライダバー表示する)(例えば、図22E〜図22F)(2312)。 A first gesture directed at an adjustable control (eg, 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) that adjusts the first editable parameter while the first editable parameter is selected. In response to detecting (eg, 2250d, 2250i, 2250o, 2250t, 2250z, 2250ab) (2310), the electronic device follows the first gesture (eg, according to the size of the first gesture). Adjust the current value of the editable parameter of (eg, display a slider bar on the slider at a new position) (eg, FIGS. 22E-22F) (2312).

いくつかの実施形態では、第1の編集可能パラメータが選択されている間に(2204a、2204c、2204i)、第1の編集可能パラメータを調整する調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)に向けられた第1のジェスチャ(例えば、2250d、2250i、2250o、2250t、2250z、2250ab)を検出したことに応答して(2310)、電子デバイスは、視覚メディアの表現の表示を、第1の編集可能パラメータの調整された現在値に基づいて調整される視覚メディアの調整された表現(例えば、2230b、2230e)に置き換える(2314)(例えば、編集可能パラメータがコントラストである場合、(例えば、第1のジェスチャの大きさによって現在調整された)第1の編集可能パラメータの現在値に基づいて調整される表現は、最初に表示される視覚メディアの表現よりも、より多くの又は少ないコントラストを有する)。調整可能なコントロールの値を変更したことに応答して、調整された表現を表示することによって、キャプチャされたメディアの表現に対するパラメータの現在の効果についてのフィードバックをユーザに提供し、ユーザが調整を受け入れると決定する場合に、調整可能なコントロールに関連付けられた動作が行われることを示す視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, adjustable controls (eg, 2252b, 2252bb, 2254a) that adjust the first editable parameter while the first editable parameter is selected (2204a, 2204c, 2204i). In response to detecting the first gesture (eg, 2250d, 2250i, 2250o, 2250t, 2250z, 2250ab) directed at 2254c, 2254f, 2256c) (2310), the electronic device is a representation of the visual media. Replace the display with an adjusted representation of the visual media (eg, 2230b, 2230e) adjusted based on the adjusted current value of the first editable parameter (2314) (eg, the editable parameter is contrast). If, the representation adjusted based on the current value of the first editable parameter (for example, currently adjusted by the magnitude of the first gesture) is more than the representation of the visual media initially displayed. Or has less contrast). By displaying the adjusted representation in response to changing the value of the adjustable control, it provides the user with feedback on the current effect of the parameter on the captured media representation, allowing the user to make adjustments. When deciding to accept, it provides the user with visual feedback that the action associated with the adjustable control is taking place. Providing improved visual feedback to the user enhances the usability of the device and allows the user to provide a user-device interface (eg, to provide appropriate input when manipulating / interacting with the device). By assisting and reducing user error), and in addition, by allowing users to use the device faster and more efficiently, the device's power usage is reduced and battery life is improved. NS.

いくつかの実施形態では、第1の編集可能パラメータは、自動調整編集可能パラメータである(例えば、電子デバイスが自動調整アフォーダンス(例えば、第1の編集可能パラメータアフォーダンス(例えば、2214a))の選択、又は自動調整編集可能パラメータを調整する調整可能なコントロール(例えば、2254a)の値の変化を検出するとき、電子デバイスは、他の編集可能(edible)パラメータ(例えば、コントラスト、色合い、彩度)の値を計算し、他の編集可能パラメータの現在値を自動的に更新する)(例えば、22H〜22K)。いくつかの実施形態では、電子デバイスが第1のジェスチャに従って第1の編集可能パラメータの現在値を調整することは、第2の編集可能パラメータ(例えば、図22H〜図22Kの2244a、2244b、2244c)を含む複数の編集可能パラメータの現在値を調整することを含む。操作を行うために必要な入力の数(例えば、画像の複数の編集可能パラメータを調整する)が減ることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the first editable parameter is an auto-adjustable editable parameter (eg, the electronic device selects an auto-adjustable affordance (eg, a first editable parameter affordance (eg, 2214a)), Alternatively, when detecting a change in the value of an adjustable control (eg, 2254a) that adjusts an auto-adjustable editable parameter, the electronic device may have other editable parameters (eg, contrast, tint, saturation). Calculate the value and automatically update the current values of other editable parameters) (eg 22H-22K). In some embodiments, the electronic device adjusting the current value of the first editable parameter according to the first gesture may cause the second editable parameter (eg, 2244a, 2244b, 2244c of FIGS. 22H-22K). ) Includes adjusting the current values of multiple editable parameters. By reducing the number of inputs required to perform an operation (eg, adjusting multiple editable parameters of an image), the device is more user-friendly and the user-device interface (eg, manipulating the device /) To be more efficient (by assisting the user in providing proper input when interacting with the device and reducing user error), and in addition to allowing the user to use the device faster and more efficiently. Reduces device power usage and improves battery life.

いくつかの実施形態では、メディア編集ユーザインタフェースは、複数の編集可能パラメータ現在値インジケータ(例えば、2244a〜2244i)(例えば、パラメータの値に基づいて更新される編集可能パラメータに対応するアフォーダンスの周囲のグラフィカル境界)を含み、複数の編集可能パラメータ現在値インジケータは、視覚メディアの表現の第2の編集可能パラメータに対応する値インジケータ(例えば、第2の編集可能パラメータに対応する値インジケータは、選択されると、第2の編集可能パラメータを調整するコントロールを表示するアフォーダンスの一部として、又はアフォーダンスに隣接して表示される)と、視覚メディアの表現の第3の編集可能パラメータに対応する値インジケータ(例えば、第3の編集可能パラメータに対応する値インジケータは、選択されると、第2の編集可能パラメータを調整するコントロールを表示するアフォーダンスの一部として、又はアフォーダンスに隣接して表示される)と、を含む。いくつかの実施形態では、電子デバイスが複数の編集可能パラメータの現在値を調整することは、電子デバイスが第3の編集可能パラメータの現在値を調整することと、第2の編集可能パラメータの調整された現在値に基づいて、第2の編集可能パラメータ(例えば、図22H〜図22Kの2244a、2244b、2244c)に対応する値インジケータを更新することと、第3の編集可能パラメータの調整された現在値に基づいて、第3の編集可能パラメータ(例えば、図22H〜図22Kの2244a、2244b、2244c)に対応する値インジケータを更新することと、を含む。いくつかの実施形態では、現在値インジケータは、アフォーダンスの周囲にある(例えば、第1の進度インジケータは、第1のアフォーダンスの周囲にあり、第2の進度インジケータは、第2のアフォーダンスの周囲にある)。いくつかの実施形態では、第1の編集可能パラメータのアフォーダンスの一部として、又はアフォーダンスに隣接して表示される第1の編集可能パラメータの調整された現在値に基づいて更新される第1の編集可能パラメータに対応する値インジケータが存在する。(例えば、図22K)。編集可能パラメータが更新される(又は変化する)ときに値インジケータを提供することにより、ユーザは、調整可能な表現を表示するように変化した編集可能パラメータの現在値を判定することができる。更には、自動調整アルゴリズムにおける変化に基づいて値インジケータを自動的に更新することにより、ユーザは、自動調整アルゴリズムが特定の編集可能パラメータの特定の値をどのように変化したかを迅速に判定することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the media editing user interface is around multiple editable parameter current value indicators (eg, 2244a-2244i) (eg, around the affordance corresponding to editable parameters that are updated based on the value of the parameter. Multiple editable parameter current value indicators, including graphical boundaries), are selected value indicators that correspond to the second editable parameter of the visual media representation (eg, the value indicator that corresponds to the second editable parameter). (Displayed as part of the affordance that displays the control that adjusts the second editable parameter, or adjacent to the affordance) and the value indicator that corresponds to the third editable parameter of the visual media representation. (For example, the value indicator corresponding to the third editable parameter, when selected, is displayed as part of the affordance that displays the control that adjusts the second editable parameter, or adjacent to the affordance). And, including. In some embodiments, the electronic device adjusting the current values of the plurality of editable parameters means that the electronic device adjusts the current values of the third editable parameter and adjusts the second editable parameter. The value indicators corresponding to the second editable parameter (eg, 2244a, 2244b, 2244c in FIGS. 22H-22K) were updated and the third editable parameter was adjusted based on the current value. It includes updating the value indicators corresponding to the third editable parameter (eg, 2244a, 2244b, 2244c in FIGS. 22H-22K) based on the current value. In some embodiments, the current value indicator is around the affordance (eg, the first progress indicator is around the first affordance and the second progress indicator is around the second affordance. be). In some embodiments, the first editable parameter is updated based on the adjusted current value of the first editable parameter, which is displayed as part of the affordance of the first editable parameter or adjacent to the affordance. There is a value indicator corresponding to the editable parameter. (For example, FIG. 22K). By providing a value indicator when the editable parameter is updated (or changed), the user can determine the current value of the editable parameter that has changed to display an adjustable representation. Furthermore, by automatically updating the value indicator based on changes in the auto-tuning algorithm, the user can quickly determine how the auto-tuning algorithm has changed a particular value for a particular editable parameter. be able to. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

いくつかの実施形態では、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出している間に、電子デバイスは、第1の編集可能パラメータを調整する調整可能なコントロール(例えば、図22E、図22J、図22Pの2254a、2254c、及び2254i)を視覚的に強調する(例えば、グレーアウトされずに表示する、調整可能な入力コントロールが、焦点が当たって表示されている間に焦点から外れたものとしてユーザインタフェースの一部を表示する、異なる色で表示する又は拡大する)。いくつかの実施形態では、電子デバイスは、第1のジェスチャ(例えば、2250d、2250i、2250o)のリフトオフを検出するまでに、調整可能なコントロールを視覚的に強調する。入力を調整可能なコントロールに提供している間に調整可能なコントロールを強調することにより、ユーザは、動作の現在の状態が調整可能なコントロールに影響を与えることを判定することができ、かつユーザが調整可能なコントロールの値を正確に設定する変更を増加させることによって、ユーザが調整可能なコントロールを特定の値に設定することによって、誤りを低減する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the electronic device adjusts the first editable parameter while detecting the first gesture directed at the adjustable control that adjusts the first editable parameter. Adjustable input controls that visually emphasize possible controls (eg, 2254a, 2254c, and 2254i in FIGS. 22E, 22J, 22P) (eg, display without graying out) are focused and displayed. Show parts of the user interface as out of focus while being displayed, displayed in different colors, or magnified). In some embodiments, the electronic device visually emphasizes the adjustable control before detecting the lift-off of the first gesture (eg, 2250d, 2250i, 2250o). By emphasizing the adjustable control while providing the input to the adjustable control, the user can determine that the current state of operation affects the adjustable control, and the user Accurately sets the value of the adjustable control By increasing the change, the user sets the adjustable control to a specific value, thereby reducing errors. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

いくつかの実施形態では、第1の編集可能パラメータは、視覚フィルタ効果強度(例えば、フィルタ効果の強度(例えば、クール、ビビッド、ドラマチック))(例えば、図22T〜図22Vの2216a〜2216d)である。いくつかの実施形態では、電子デバイスが第1のジェスチャに従って第1の編集可能パラメータの現在値を調整することは、電子デバイスが視覚メディアの表現(例えば、2230g及び2230h)の表示を、フィルタ効果強度の現在値に基づいて調整されている視覚メディアの表現(例えば、フィルタされた表現)に置き換えることを更に含む。 In some embodiments, the first editable parameter is the visual filter effect intensity (eg, filter effect intensity (eg, cool, vivid, dramatic)) (eg, FIGS. 22T-22V 2216a-2216d). be. In some embodiments, the electronic device adjusting the current value of the first editable parameter according to the first gesture filters the display of the visual media representation (eg, 2230 g and 2230 h). It further includes replacing with a visual media representation (eg, a filtered representation) that is adjusted based on the current intensity value.

いくつかの実施形態では、アスペクト比アフォーダンス(例えば、上部のボタン)は、スライダを有する。いくつかの実施形態では、電子デバイスは、ユーザインタフェース要素(例えば、スライダ及びオプション)を、親指が届くように異なるデバイス上で異なるように表示する。いくつかの実施形態では、視覚メディアのフレームとアニメーション化された画像メディアとの間をナビゲーションするキーフレームは、同じである。 In some embodiments, the aspect ratio affordance (eg, top button) has a slider. In some embodiments, the electronic device displays user interface elements (eg, sliders and options) differently on different devices so that the thumb can reach them. In some embodiments, the keyframes that navigate between the frames of the visual media and the animated image media are the same.

表示デバイス上に、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、電子デバイスは、第2のアフォーダンス(例えば、2250c、2250h)(例えば、図22N)の選択に対応する第2のユーザ入力(例えば、アフォーダンス上でのタップ入力)を検出する(2316)。 While displaying an adjustable control that adjusts the first editable parameter on the display device, the electronic device selects a second affordance (eg, 2250c, 2250h) (eg, FIG. 22N). Detect the corresponding second user input (eg, tap input on affordances) (2316).

いくつかの実施形態では、第2のユーザ入力は、第2のアフォーダンス(2214a、2214c、2214n)上でのタップ入力(例えば、2250c、2250h、2250n)である。 In some embodiments, the second user input is a tap input (eg, 2250c, 2250h, 2250n) on the second affordance (2214a, 2214c, 2214n).

第2のアフォーダンス(2214a、2214c、2214n)の選択に対応する第2のユーザ入力(例えば、タップ)入力(例えば、2250c、2250h、2250n)を検出したことに応答して、電子デバイスは、メディア編集ユーザインタフェース内のそれぞれの場所(例えば、第1の及び第2のアフォーダンスに隣接する場所(第1の及び第2のアフォーダンスの下の場所))に、第2の編集可能パラメータ(例えば、グラフィカル制御要素(例えば、スライダ))を調整する調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)を表示する(2318)。いくつかの実施形態では、調整可能なコントロールは、第1及び第2のアフォーダンスから、又は表示デバイスの左側/右側からそれぞれの場所にスライドする。いくつかの実施形態では、複数の条件が満たされていると、複数のアフォーダンスが表示される。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプション(例えば、スライダ)を提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In response to detecting a second user input (eg, tap) input (eg, 2250c, 2250h, 2250n) corresponding to the selection of the second affordance (2214a, 2214c, 2214n), the electronic device media. A second editable parameter (eg, graphically) at each location in the edit user interface (eg, where it is adjacent to the first and second affordances (where it is below the first and second affordances)). Adjustable controls (eg, 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) that adjust control elements (eg, sliders) are displayed (2318). In some embodiments, the adjustable control slides from the first and second affordances or from the left / right side of the display device to their respective locations. In some embodiments, multiple affordances are displayed when multiple conditions are met. By providing additional control options (eg, sliders) without cluttering the UI with the additional controllers displayed, device usability is enhanced and the user-device interface (eg, manipulating the device / device) is enhanced. By assisting the user in providing proper input when interacting with and reducing user errors), and by allowing the user to use the device faster and more efficiently. , Reduces device power usage and improves battery life.

いくつかの実施形態では、第1の編集可能パラメータを調整する調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)は、第1の静的部分(例えば、スライダのティックマーク(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)(例えば、スライダのフレーム(例えば、ティックマーク、スライダ範囲、色))と、第1の可変部分(例えば、現在値のインジケーション(例えば、スライダバー))(例えば、インジケーション2252b1、2252bb1、2254a1−i1、2256c1)と、を含む。いくつかの実施形態では、第2の編集可能パラメータを調整する調整可能なコントロール(例えば、2254)は、第1の静的部分(例えば、スライダのフレーム(例えば、ティックマーク、スライダの範囲、色))と、第2の可変部分(例えば、インジケーション2252b1、2252bb1、2254a1−i1、2256c1)(例えば、現在値のインジケーション(例えば、スライダバー))と、を含む。いくつかの実施形態では、第2の可変部分は、第1の可変部分とは異なる。いくつかの実施形態では、電子デバイスは、メディア編集ユーザインタフェース内のそれぞれの場所に表示され、第2の編集可能パラメータを調整する調整可能なコントロールは、電子デバイスが、表示デバイス上に、メディア編集ユーザインタフェース内のそれぞれの場所での第1の静的部分の表示を維持すること(例えば、調整可能なコントロールの1つ以上の他の部分が維持及び/又は更新される(例えば、値インジケータが新しい値を反映するように更新される)間、調整可能なコントロールの1つ以上の部分を維持すること(例えば、スライダの表示された位置及びフレーム(例えば、ティックマーク)は、表示され続ける))(例えば、スライダの表示は、複数の編集動作の間に維持される)(例えば、図22H〜図22I、図22N〜図22Oのインジケーション2252b1、2252bb1、2254a1〜i1、2256c1)を含む。いくつかの実施形態では、第2の可変部分が表示されると、第1の可変部分は、表示を停止されるか、又は第2のインジケーションの表示を、第1のインジケーションの表示に置き換える。いくつかの実施形態では、第1及び第2の可変位置は、スライダ上の異なる位置にある。いくつかの実施形態では、第1及び第2の可変部分は、スライダ上で同じ位置にある。いくつかの実施形態では、第1及び第2の可変部分は、第1及び第2の値(例えば、第1のタイプ(例えば、スズ(tin))の値は、第2のタイプ(例えば、コントラスト)の値とは異なる)である間、スライダ上の同じ位置に表示される。いくつかの実施形態では、第1の値及び第2の値は、異なるタイプの値である。いくつかの実施形態では、電子デバイスは、第1の編集パラメータに対応する第1の値の第1の可変部分の表示を置き換え、調整可能なコントロール上の第2の編集パラメータに対応する第2の値の第2の可変部分を表示する。2つの調整可能なコントロールの間で切り替えるとき、調整可能なコントロールの静的部分を維持することにより、UI上に表示される要素の変化を同時に最小化しながら、ユーザが異なる編集可能パラメータを設定できるようにすることにより、デバイスの更なるコントロールをユーザに提供する。表示される追加コントローラによってUIを雑然とさせることなく、追加制御できるようにすることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the adjustable controls that adjust the first editable parameter (eg, 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) are the first static part (eg, the tick mark on the slider). (For example, 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) (eg, slider frame (eg, tick mark, slider range, color)) and a first variable portion (eg, current value indication (eg, eg). , Slider bar)) (eg, indications 2252b1, 2252bb1, 2254a1-i1, 2256c1), and in some embodiments, adjustable controls that adjust the second editable parameter (eg, 2254). A first static part (eg, slider frame (eg, tick mark, slider range, color)) and a second variable part (eg, indications 2252b1, 2252bb1, 2254a1-i1, 2256c1) ( For example, it includes an indication of the current value (eg, a slider bar). In some embodiments, the second variable portion is different from the first variable portion. In some embodiments, the electron. The device is displayed at each location within the media editing user interface, and the adjustable control that adjusts the second editable parameter is the electronic device on the display device at each location within the media editing user interface. Maintaining the display of the first static part of (eg, one or more other parts of the adjustable control are maintained and / or updated (eg, the value indicator is updated to reflect the new value) While maintaining one or more parts of the adjustable control (eg, the displayed position and frame of the slider (eg, tick marks) will continue to be displayed)) (eg, the display of the slider (For example, the indications 2252b1, 2252bb1, 2254a1 to i1, 2256c1 of FIGS. 22H-22I, 22N-22O). When the second variable portion is displayed, the first variable portion either stops displaying or replaces the display of the second indication with the display of the first indication. In some embodiments. , 1st and 2nd variable positions are on the slider It is in a different position. In some embodiments, the first and second variable portions are in the same position on the slider. In some embodiments, the first and second variable portions have first and second values (eg, first type (eg, tin) values) of the second type (eg, tin). It is displayed in the same position on the slider while it is different from the value of Contrast). In some embodiments, the first value and the second value are different types of values. In some embodiments, the electronic device replaces the display of the first variable portion of the first value corresponding to the first editing parameter and corresponds to the second editing parameter on the adjustable control. Display the second variable part of the value of. When switching between two adjustable controls, keeping the static part of the adjustable control allows the user to set different editable parameters while simultaneously minimizing changes in the elements displayed on the UI. By doing so, it provides the user with more control over the device. The additional controller displayed allows additional control without cluttering the UI, which enhances the usability of the device and makes the user-device interface (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.

いくつかの実施形態では、第1の編集可能パラメータを調整する調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)及び第2の編集可能パラメータを調整する調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)は、同じ相対位置に調整されると(例えば、第1の編集可能パラメータを調整する調整可能なコントロール及び第2の編集可能パラメータを調整する調整可能なコントロールは、中央値、最大値及び/又は最小値を調整すると、同じ外観を有する)(例えば、図22H〜図22I;図22N〜図22O)、1つ以上の視覚的特徴(例えば、スライダ上のティックマーク)を共有する。同じ相対位置で視覚的特徴を共有する調整可能なコントロールを提供することにより、UI上に表示される要素の変化(例えば、要素及び/又は要素の表現の位置の変化)を同時に最小化しながら、ユーザが異なる編集可能パラメータを設定できるようにすることにより、デバイスの更なるコントロールをユーザに提供する。表示される追加コントローラによってUIを雑然とさせることなく、追加制御できるようにすることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, adjustable controls that adjust the first editable parameters (eg, 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) and adjustable controls that adjust the second editable parameters (eg, 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c). For example, 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) adjust to the same relative position (eg, adjust the adjustable control that adjusts the first editable parameter and the second editable parameter). Adjustable controls have the same appearance when adjusted for median, maximum and / or minimum values (eg, FIGS. 22H-22I; 22N-22O) and one or more visual features (eg, FIG. 22N-22O). , Tick marks on the slider) to share. By providing adjustable controls that share visual features in the same relative position, while simultaneously minimizing changes in the elements displayed on the UI (eg, changes in the position of the element and / or the representation of the element). It provides the user with additional control of the device by allowing the user to set different editable parameters. The additional controller displayed allows additional control without cluttering the UI, which enhances the usability of the device and makes the user-device interface (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.

第2の編集可能パラメータを調整する調整可能なコントロールを表示している間に、及び第2の編集可能パラメータが選択されている間に(例えば、メディアユーザインタフェースの中央の中心に押圧されて表示されるか、又は異なる色(例えば、グレーアウトされていない)で表示される)、電子デバイスは、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャ(例えば、2250d、2250i、2250o)(例えば、ドラッグジェスチャ(例えば、調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)上のある対応する場所(例えば、ティックマーク)から調整可能なコントロール上の別の対応する(respectable)場所へとインジケーション(例えば、スライダバー)をドラッグする))を検出する(2320)。 Adjusting the Second Editable Parameter While displaying the adjustable control and while the second editable parameter is selected (eg, pressed to the center center of the media user interface) A second gesture (eg, 2250d) directed at an adjustable control that adjusts the second editable parameter, either done or displayed in a different color (eg, not grayed out). , 2250i, 2250o) (eg, on a control that can be adjusted from a corresponding location (eg, tick mark) on a drag gesture (eg, an adjustable control (eg, 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c)). (Drag an indication (eg, a slider bar) to another respectable location in the)) (2320).

第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)に向けられた第2のジェスチャ(例えば、2250d、2250i、2250o)を検出したことに応答して(2322)、電子デバイスは、第2のジェスチャに従って(例えば、第2のジェスチャの大きさに従って)第2の編集可能パラメータの現在値を調整する(例えば、新しい位置でスライダ上にスライダバー表示する)(例えば、図22J〜図22K)(2324)。異なる編集可能パラメータを調整する異なる調整可能なコントロールを提供することにより、ユーザが望ましくない方法で意図せずに表現を変更することを回避すること、及び同時に、調整可能なコントロールへの入力が入力に基づいて表現を変更することをユーザが認識できるようにすることにより、デバイスの更なるコントロールをユーザに提供する。表示される追加コントローラによってUIを雑然とさせることなく、追加制御できるようにすることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 A second gesture directed at an adjustable control (eg, 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) that adjusts the second editable parameter while the second editable parameter is selected. In response to detecting (eg, 2250d, 2250i, 2250o) (2322), the electronic device now follows the second gesture (eg, according to the magnitude of the second gesture) of the second editable parameter. Adjust the value (eg, display a slider bar on the slider at a new position) (eg, FIGS. 22J-22K) (2324). Adjusting different editable parameters By providing different adjustable controls to prevent the user from unintentionally changing the representation in an undesired way, and at the same time inputting input to the adjustable controls It provides the user with additional control of the device by allowing the user to recognize that the expression is changed based on. The additional controller displayed allows additional control without cluttering the UI, which enhances the usability of the device and makes the user-device interface (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.

いくつかの実施形態では、第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャ(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)を検出したことに応答して(2322)、電子デバイスは、視覚メディアの表現(2230a〜2230p)の表示を、第2の編集可能パラメータの調整された現在値に基づいて調整される視覚メディアの調整された表現(2230a〜2230p)に置き換える(2326)(例えば、編集可能パラメータが色合いである場合、(例えば、第2のジェスチャの大きさによって現在調整された)第2の編集可能パラメータの現在値に基づいて調整される表現は、最初に表示される視覚メディアの表現よりも、より多くの又は少ない色合いを有する)(例えば、図22J〜図22K)。調整可能なコントロールの値を変更したことに応答して、調整された表現を表示することによって、キャプチャされたメディアの表現に対するパラメータの現在の効果についてのフィードバックをユーザに提供し、ユーザが調整を受け入れると決定する場合に、調整可能なコントロールに関連付けられた動作が行われることを示す視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, a second gesture directed at an adjustable control that adjusts the second editable parameter while the second editable parameter is selected (eg, 2252b, 2252bb, 2254a). , 2254c, 2254f, 2256c) (2322), the electronic device displays the representation of the visual media (2230a-2230p) based on the adjusted current value of the second editable parameter. Replace with the adjusted representation of the visual media (2230a-2230p) adjusted by (2326) (eg, if the editable parameter is a tint (eg, currently adjusted by the size of the second gesture). The representation adjusted based on the current value of the editable parameter of 2 has more or less shade than the representation of the initially displayed visual media) (eg, FIGS. 22J-22K). By displaying the adjusted representation in response to changing the value of the adjustable control, it provides the user with feedback on the current effect of the parameter on the captured media representation, allowing the user to make adjustments. When deciding to accept, it provides the user with visual feedback that the action associated with the adjustable control is taking place. Providing improved visual feedback to the user enhances the usability of the device and allows the user to provide a user-device interface (eg, to provide appropriate input when manipulating / interacting with the device). By assisting and reducing user error), and in addition, by allowing users to use the device faster and more efficiently, the device's power usage is reduced and battery life is improved. NS.

いくつかの実施形態では、メディア編集ユーザインタフェースが視覚メディアの表現を編集する第4の編集可能パラメータに対応する第3のアフォーダンス(例えば、2214f〜i)を含まない間に、電子デバイスは、第3のユーザ入力(例えば、2250l)(例えば、スワイプジェスチャ(例えば、メディア編集ユーザインタフェースのコントロール領域に対応する場所で、アフォーダンス上でのタップ(例えば、中央にあるディスプレイの縁部に向かうアフォーダンス))を検出する。いくつかの実施形態では、第3のユーザ入力(例えば、2250l)を検出したことに応答して、電子デバイスは、第3のアフォーダンス(例えば、2214f〜i)を表示する(例えば、ディスプレイにスライドオンする第3のアフォーダンスのアニメーションを表示する)。いくつかの実施形態では、電子デバイスはまた、第3のアフォーダンス(例えば、2214f〜i)を表示するときに、第1のアフォーダンス(2214a)及び/又は第2のアフォーダンス(2214c)の表示を停止する。いくつかの実施形態では、対応するパラメータのための複数のアフォーダンスを、第3のユーザ入力を検出する前に表示されず、第3のユーザ入力を検出したことに応答して、表示される多くのアフォーダンスは、第3のユーザ入力(例えば、スワイプ又はドラッグジェスチャの接触の移動の速さ及び/又は方向)(例えば、図22L〜図22N)の大きさ(例えば、速さ及び/又は距離)及び/又は方向に基づいて選択される。 In some embodiments, while the media editing user interface does not include a third affordance (eg, 2214f-i) corresponding to a fourth editable parameter that edits the representation of the visual media, the electronic device is 3 user inputs (eg, 2250 liters) (eg, swipe gestures (eg, taps on affordances (eg, affordances towards the edge of the central display) in a location corresponding to the control area of the media editing user interface)). In some embodiments, in response to detecting a third user input (eg, 2250 l), the electronic device displays a third affordance (eg, 2214f-i) (eg, 2214f-i). In some embodiments, the electronic device also displays the first affordance when displaying the third affordance (eg, 2214f-i). Stop displaying (2214a) and / or the second affordance (2214c). In some embodiments, multiple affordances for the corresponding parameters are not displayed before the third user input is detected. Many affordances displayed in response to detecting a third user input are the third user input (eg, the speed and / or direction of movement of the swipe or drag gesture contact) (eg, the speed and / or direction of the swipe or drag gesture contact). It is selected based on the size (eg, speed and / or distance) and / or direction of FIGS. 22L-22N).

いくつかの実施形態では、電子デバイスが第1のジェスチャに従って第1の編集可能パラメータの現在値を調整することは、第1の編集可能パラメータの現在値(例えば、調整された現在値)が第1の編集可能パラメータに対する所定のリセット値(例えば、2252i2)(例えば、自動調整アルゴリズムによって計算された値)に対応するという判定に従って、電子デバイスが触知出力(例えば、2260a)(例えば、振動)を生成することを更に含む。いくつかの実施形態では、電子デバイスが第1のジェスチャに従って第1の編集可能パラメータの現在値を調整することは、第1の編集可能パラメータの現在値(例えば、調整された現在値)が第1の編集可能パラメータに対する所定のリセット値(例えば、自動調整アルゴリズムによって計算された値)に対応しないという判定に従って、電子デバイスが触知出力(例えば、振動)を生成するのをやめることを更に含む。いくつかの実施形態では、インジケータ(例えば、スライダ上の着色された又は太字化されたティックマーク又はスライダ上の別の識別ユーザインタフェース要素)は、スライダ上に表示されて、所定のリセット値を示す。(例えば、図22Q〜図22R)。その元の条件に表現をリセットする追加の制御オプションを提供することにより、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、複数の条件が満たされていると、複数のアフォーダンスが表示される。 In some embodiments, the electronic device adjusts the current value of the first editable parameter according to the first gesture so that the current value of the first editable parameter (eg, the adjusted current value) is the first. The electronic device has a tactile output (eg, 2260a) (eg, vibration) according to the determination that it corresponds to a predetermined reset value (eg, 2252i2) (eg, a value calculated by an auto-tuning algorithm) for one editable parameter. Further includes producing. In some embodiments, the electronic device adjusts the current value of the first editable parameter according to the first gesture so that the current value of the first editable parameter (eg, the adjusted current value) is the first. Further comprising stopping the electronic device from producing a tactile output (eg, vibration) according to a determination that it does not correspond to a predetermined reset value (eg, a value calculated by an auto-tuning algorithm) for one editable parameter. .. In some embodiments, an indicator (eg, a colored or bolded tick mark on the slider or another identifying user interface element on the slider) is displayed on the slider to indicate a given reset value. .. (For example, FIGS. 22Q to 22R). By providing additional control options that reset the representation to its original condition, the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, By making it more efficient (by reducing user error) and, in addition, allowing users to use the device faster and more efficiently, the device's power usage is reduced and battery life is improved. In some embodiments, multiple affordances are displayed when multiple conditions are met.

いくつかの実施形態では、第1の編集可能パラメータを調整する調整可能なコントロールを表示しており、かつ第3の入力(例えば、2250l)を検出している間に、電子デバイスは、第1の編集可能パラメータを調整する調整可能なコントロールを視覚的に強調するのをやめる(例えば、図22Mの2254a1)(例えば、グレーアウトされ、より小さく、焦点から外れて、暗色で表示する)。いくつかの実施形態では、電子デバイスは、第3の入力のリフトオフを検出するまでに、調整可能なコントロールを視覚的に強調するのをやめる(例えば、図22L〜図22N)。編集可能パラメータを通じてナビゲーションしている間に調整可能なコントロールを強調するのをやめることにより、調整可能なコントロールの現在の状態についてのフィードバックをユーザに提供し、ユーザは、動作の現在の状態が調整可能なコントロールに影響を与えないことを判定することができ、特定のユーザインタフェース要素の顕著な表示を減少させることによって、ユーザが特定の編集可能パラメータにナビゲーションすることによって、誤りを低減する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, while displaying an adjustable control that adjusts the first editable parameter and detecting a third input (eg, 2250 liters), the electronic device is the first. Adjust the editable parameters of the adjustable control to stop visually emphasizing (eg, 2254a1 in FIG. 22M) (eg, grayed out, smaller, out of focus, displayed in dark color). In some embodiments, the electronic device ceases to visually emphasize the adjustable control by the time it detects a lift-off of the third input (eg, FIGS. 22L-22N). By stopping highlighting the adjustable control while navigating through the editable parameters, it provides the user with feedback on the current state of the adjustable control, and the user adjusts the current state of the behavior. It can be determined that it does not affect the possible controls, reducing errors by allowing the user to navigate to specific editable parameters by reducing the prominent display of specific user interface elements. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

いくつかの実施形態では、第1の編集可能パラメータを調整する調整可能なコントロールが表示されている間に(例えば、2254a1)、第3の入力(例えば、2250l)が電子デバイスによって受信される。いくつかの実施形態では、電子デバイスが第3のアフォーダンスを表示することは、第4の編集可能パラメータが第1のタイプのパラメータ(例えば、2212a〜2212d)(例えば、所定の場所(例えば、メディア編集ユーザインタフェースの中心)に表示される場合に調整のために自動的に選択されるパラメータ)であると満たされる基準を含む、第1の1組の基準が満たされているという判定に従って、電子デバイスは、メディア編集ユーザインタフェース内のそれぞれの場所に、第4の編集可能パラメータを調整する調整可能なコントロール(例えば、図22Yの2252b1)を表示することを含む。いくつかの実施形態では、第1の1組の基準は、第3のアフォーダンスが第2のそれぞれの場所(例えば、編集可能パラメータに対応するアフォーダンスを表示する制御リボンの中心)(例えば、このような回転、コントラスト、輝度、明度、彩度などを調整するために選択される前に選択入力を必要としない編集可能パラメータは、編集可能パラメータのデフォルト状態が、視覚メディアの表現の現在の状態に対応する)で表示されると満たされる基準を含む。いくつかの実施形態では、電子デバイスが第3のアフォーダンス(例えば、2214a〜2214i)を表示することはまた、第1の1組の基準が満たされていないという判定に従って、電子デバイスは、メディア編集ユーザインタフェース内のそれぞれの場所に、第4の編集可能パラメータを調整する調整可能なコントロール(例えば、2214h)を表示するのをやめることを含む。いくつかの実施形態では、電子デバイスはまた、第1の編集可能パラメータを調整する調整可能なコントロールの表示を維持する。いくつかの実施形態では、第1の1組の基準は、第4の編集可能パラメータが第2のタイプのパラメータ(例えば、所定の場所に表示される場合に調整のために自動的に選択されないパラメータ(例えば、フィルタ又は編集ツールなどを調整するために選択される前に選択入力を必要とする編集可能パラメータは、フィルタ又は編集ツールのデフォルト用途が、フィルタ又は編集ツールを視覚メディアの表現に適用することによって、視覚メディアの表現を変更する))(例えば、図22H〜図22I及び図22W〜図22Z)であると満たされない。 In some embodiments, a third input (eg, 2250 liters) is received by the electronic device while the adjustable control that adjusts the first editable parameter is displayed (eg, 2254a1). In some embodiments, the electronic device displays a third affordance when the fourth editable parameter is a first type of parameter (eg, 2212a-2212d) (eg, a predetermined location (eg, media). According to the determination that a first set of criteria is met, including criteria that are met as a parameter that is automatically selected for adjustment when displayed in the center of the edit user interface). The device comprises displaying an adjustable control (eg, 2252b1 in FIG. 22Y) that adjusts a fourth editable parameter at each location within the media editing user interface. In some embodiments, the first set of criteria is that the third affordance is in its second location (eg, the center of the control ribbon that displays the affordance corresponding to the editable parameter) (eg, such as this. For editable parameters that do not require select input before being selected to adjust rotation, contrast, brightness, brightness, saturation, etc., the default state of the editable parameter is the current state of the visual media representation. Includes criteria that are met when displayed in (corresponding). In some embodiments, the electronic device displays a third affordance (eg, 2214a to 2214i), and the electronic device also edits the media according to the determination that the first set of criteria is not met. Each location within the user interface includes stopping the display of adjustable controls (eg, 2214h) that adjust the fourth editable parameter. In some embodiments, the electronic device also maintains a display of adjustable controls that adjust the first editable parameter. In some embodiments, the first set of criteria is not automatically selected for adjustment when the fourth editable parameter is displayed in a second type of parameter (eg, in place). For editable parameters that require selective input before being selected to adjust a parameter (eg, a filter or editing tool, etc., the default use of the filter or editing tool applies the filter or editing tool to the representation of visual media. (By doing so, the representation of the visual media is changed)) (for example, FIGS. 22H to 22I and 22W to 22Z).

いくつかの実施形態では、視覚メディアの表現及び第1のアフォーダンス(例えば、2214c)を表示している間に、電子デバイスは、視覚メディアの表現が第1の編集可能パラメータに基づいて現在調整されているかどうかの状態(例えば、図22F〜図22Gの2204c)を示す、第1の編集可能パラメータ状態インジケータ(例えば、2214c)(例えば、編集可能パラメータのオン/オフをトグルする選択可能ユーザインタフェースオブジェクト)を表示する。いくつかの実施形態では、電子デバイスは、第1のアフォーダンスの選択に対応する第4のユーザ入力を検出する。いくつかの実施形態では、第4のユーザ入力(例えば、2250f及び/又は2250g)を検出したことに応答して、及び視覚メディアの表現が第1の編集可能パラメータに基づいて現在調整されているという判定に従って(例えば、第1の編集可能パラメータ状態インジケータがアクティブである又は選択されているものとして表示されるとき(例えば、押圧されて及び/又は異なる色で(例えば、飽和していない及び/又は暗色化又はグレーアウトされていない)表示されているなどの、第1の編集可能パラメータがアクティブであるという視覚インジケーションを表示する)、電子デバイスは、視覚メディアの表現が第1の編集可能パラメータに基づいて現在調整されていないことを示すように、第1の編集可能パラメータ状態インジケータを更新し(例えば、第1の編集可能パラメータ状態インジケータが非アクティブ又は選択されていないものとして表示されるとき(例えば、押圧されていない及び/又は異なる色で(例えば、暗色化された及び/又は飽和されていない若しくはグレーアウトされている)あるなどの、第1の編集可能パラメータが非アクティブであるという視覚インジケーションを表示する)、視覚メディアの表現の表示を、第1の編集可能パラメータに基づいて調整されなかった視覚メディアの表現に置き換える(例えば、表現は、第1の編集可能パラメータ(例えば、コントラスト)に対応する元のキャプチャされた値(例えば、メディアがキャプチャされたときの元のコントラスト値)を有する)。いくつかの実施形態では、第4のユーザ入力を検出したことに応答して、及び視覚メディアの表現が第1の編集可能パラメータに基づいて現在調整されていないという判定に従って(例えば、第1の編集可能パラメータ状態インジケータが非アクティブである又は選択されていないものとして表示されるとき(例えば、押圧されていない及び/又は異なる色で(例えば、暗色化された及び/又は飽和されていない若しくはグレーアウトされている)あるなどの、第1の編集可能パラメータが非アクティブであるという視覚インジケーションを表示する)、電子デバイスは、視覚メディアの表現が第1の編集可能パラメータの現在値に基づいて現在調整されていることを示すように、状態インジケータを更新し(例えば、第1の編集可能パラメータ状態インジケータがアクティブ又は選択されているものとして表示されるとき(例えば、押圧されている及び/又は異なる色で(例えば、飽和された及び/又は暗色化されていない若しくはグレーアウトされている)表示されているものなどの、第1の編集可能パラメータがアクティブであるという視覚インジケーションを表示する)、視覚メディアの表現の表示を、第1の編集可能パラメータに基づいて調整された視覚メディアの表現に置き換える(例えば、第1の編集可能パラメータの現在値(例えば、第1の編集可能パラメータを調整する調整可能なコントロール上に表示された現在値)に基づいて調整された表現)(例えば、図22F〜図22H)。 In some embodiments, while displaying the representation of the visual media and the first affordance (eg, 2214c), the electronic device is currently adjusting the representation of the visual media based on the first editable parameter. A first editable parameter status indicator (eg 2214c) (eg, a selectable user interface object that toggles on / off editable parameters) that indicates whether or not it is (eg, 2204c in FIGS. 22F-22G). ) Is displayed. In some embodiments, the electronic device detects a fourth user input corresponding to a first affordance selection. In some embodiments, in response to the detection of a fourth user input (eg, 2250f and / or 2250g), and the representation of the visual media is currently adjusted based on the first editable parameter. (For example, when the first editable parameter status indicator is displayed as active or selected (eg, pressed and / or in a different color (eg, not saturated and / /) Or display a visual indication that the first editable parameter is active, such as (not darkened or grayed out)), the electronic device has a representation of the visual media as the first editable parameter. Update the first editable parameter status indicator to indicate that it is not currently adjusted based on (for example, when the first editable parameter status indicator is displayed as inactive or not selected. The visual sense that the first editable parameter is inactive (eg, not pressed and / or in a different color (eg, darkened and / or unsaturated or grayed out)). Display the indication), replace the display of the visual media representation with a visual media representation that was not adjusted based on the first editable parameter (eg, the representation is the first editable parameter (eg, contrast). ) Corresponding to the original captured value (eg, the original contrast value when the media was captured). In some embodiments, in response to detecting a fourth user input, And according to the determination that the representation of the visual media is not currently adjusted based on the first editable parameter (eg, when the first editable parameter status indicator is displayed as inactive or not selected). The visual sense that the first editable parameter is inactive (eg, not pressed and / or in a different color (eg, darkened and / or unsaturated or grayed out)). Displaying the indication), the electronic device updates the status indicator (eg, the first) to indicate that the representation of the visual media is currently being adjusted based on the current value of the first editable parameter. Editable parameter status indicator is active or selected When displayed as being (eg, pressed and / or displayed in a different color (eg, saturated and / or not darkened or grayed out), etc. Replacing the display of the visual media representation with a visual media representation adjusted based on the first editable parameter (eg, displaying a visual indication that the first editable parameter is active). A representation adjusted based on the current value of the editable parameter of (eg, the current value displayed on the adjustable control that adjusts the first editable parameter) (eg, FIGS. 22F-22H).

いくつかの実施形態では、第3の編集可能パラメータ現在値インジケータ(例えば、2244a〜2244i)は、第1のアフォーダンス(例えば、2214a〜2214i)の少なくとも一部分を視覚的に包囲し(例えば、周囲に円形に包まれた、包含する)、第4の編集可能パラメータ現在値(例えば、2244a〜2244i)インジケータは、第2のアフォーダンス(例えば、2214a〜2214i)を視覚的に包囲する(例えば、周囲に円形に包まれた、包含する)。いくつかの実施形態では、進度インジケータは、現在値の関係に基づいて、第1の編集可能パラメータが設定され得る最大値に、色(例えば、青色)で満たす円形状態バーを含む)。編集可能パラメータが更新される(又は変化する)ときに値インジケータを提供することにより、ユーザは、調整可能な表現を表示するように変化した編集可能パラメータの現在値を判定することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the third editable parameter current value indicator (eg, 2244a-2244i) visually surrounds (eg, surrounds) at least a portion of the first affordance (eg, 2214a-2214i). The fourth editable parameter current value (eg, 2244a to 2244i) indicator, wrapped in a circle, visually surrounds (eg, surrounds) the second affordance (eg, 2214a to 2214i). Wrapped in a circle, including). In some embodiments, the progress indicator includes a circular state bar filled with a color (eg, blue) to the maximum value at which the first editable parameter can be set, based on the relationship between the current values. By providing a value indicator when the editable parameter is updated (or changed), the user can determine the current value of the editable parameter that has changed to display an adjustable representation. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

いくつかの実施形態では、電子デバイスは、1つ以上のカメラを含む。いくつかの実施形態では、視覚メディアの表現は、1つ又はカメラの視野の表現である。いくつかの実施形態では、メディア編集ユーザインタフェースは、電子デバイスが、照明効果及び深度効果の適用を可能にする、第1のキャプチャモード(例えば、カメラモード(例えば、ポートレートモード(例えば、メディア照明キャプチャコントロール(例えば、ポートレート照明効果コントロール(例えば、スタジオ照明、輪郭照明、舞台照明))))で視覚メディアをキャプチャ(又は編集)するように構成されている間に表示される。いくつかの実施形態では、第1の編集可能パラメータは、照明効果強度(例えば、602f)(例えば、シミュレートされた光量(例えば、光度))である。いくつかの実施形態では、第2の編集可能パラメータは、深度効果強度(例えば、602e)(例えば、ボケ効果強度、シミュレートされたf値)(例えば、図22W〜図22AC)である。 In some embodiments, the electronic device comprises one or more cameras. In some embodiments, the representation of the visual media is one or a representation of the field of view of the camera. In some embodiments, the media editing user interface provides a first capture mode (eg, camera mode (eg, portrait mode (eg, media lighting)) that allows the electronic device to apply lighting and depth effects. Displayed while a capture control (eg, portrait lighting effect control (eg, studio lighting, contour lighting, stage lighting))) is configured to capture (or edit) visual media. In embodiments, the first editable parameter is the illumination effect intensity (eg, 602f) (eg, simulated light intensity (eg, light intensity)). In some embodiments, the second editable parameter. Is the depth effect intensity (eg, 602e) (eg, blur effect intensity, simulated f value) (eg, FIGS. 22W-22AC).

いくつかの実施形態では、第1の編集可能パラメータは、照明効果パラメータ(例えば、602f)(例えば、図22W〜図22AC)に対応する。いくつかの実施形態では、メディア編集ユーザインタフェースは、照明効果パラメータに対する値インジケータ(例えば、602f)(例えば、パラメータの値に基づいて更新される編集可能パラメータに対応するアフォーダンスの周囲のグラフィカル境界)を含む。いくつかの実施形態では、電子デバイスが第1のジェスチャに従って第1の編集可能パラメータの現在値を調整することは、電子デバイスが、第1の編集可能パラメータの調整された現在値に基づいて、光有効状態インジケータを調整すること(例えば、現在値の部分から照明効果の最大可能値に基づいて、より多くの又は少ない光をアクティブ(例えば、グレーアウトしない)として表示すること)を含む。動作を実行している間にアクティブ化状態を反映するようにアイコンの視覚特性を更新することにより、アイコンの現在の状態についてのフィードバックをユーザに提供し、調整可能なコントロールの値が変化していることを示す視覚的フィードバックをユーザに提供する。いくつかの実施形態では、深度インジケータは、照明インジケータとは異なる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the first editable parameter corresponds to a lighting effect parameter (eg, 602f) (eg, FIGS. 22W-22AC). In some embodiments, the media editing user interface provides a value indicator for the lighting effect parameter (eg, 602f) (eg, a graphical boundary around the affordance corresponding to the editable parameter that is updated based on the value of the parameter). include. In some embodiments, the electronic device adjusts the current value of the first editable parameter according to the first gesture, which means that the electronic device adjusts the current value of the first editable parameter based on the adjusted current value of the first editable parameter. Includes adjusting the light enable state indicator (eg, displaying more or less light as active (eg, not grayed out) based on the maximum possible value of the lighting effect from the current value portion). By updating the visual characteristics of the icon to reflect the activation state while performing the action, it provides the user with feedback on the current state of the icon and changes the value of the adjustable control. Provide users with visual feedback to indicate that they are. In some embodiments, the depth indicator is different from the lighting indicator. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

方法2300に関して上述された処理(例えば、図23A〜図23B)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2500、2700、2800、3000、3200、3400、3600、及び3800は、方法2300を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。 It should be noted that the details of the processes described above for method 2300 (eg, FIGS. 23A-23B) are also applicable to the methods described above in a similar manner. For example, methods 700, 900, 1100, 1300, 1500, 1700, 1900, 2100, 2500, 2700, 2800, 3000, 3200, 3400, 3600, and 3800 are of the various methods described above with reference to Method 2300. Includes one or more of the properties optionally. For the sake of brevity, these details will not be repeated below.

図24A〜図24ABは、いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図25A〜図25Bにおける処理を含む、以下で説明される処理を例示するために使用される。 24A-24AB show exemplary user interfaces for editing media captured using electronic devices according to some embodiments. The user interfaces in those figures are used to illustrate the processes described below, including the processes in FIGS. 25A-25B.

理解を向上させるために、図24A〜図24Jは、後処理技術により(例えば、メディアがキャプチャされた後に)、以前にキャプチャされたメディアの表現の水平線、垂直遠近歪、及び水平遠近歪の位置を補正する(例えば、低減する及び/又は変更する)ユーザインタフェースの例を提供するために、以下で論じられる。いくつかの実施形態では、表現の水平線、垂直遠近歪、及び水平遠近歪の位置は、カメラの位置(例えば、傾斜、角度)、又はメディアをキャプチャしている間のカメラレンズの形状及び/若しくは位置によって影響を受ける。 To improve understanding, FIGS. 24A-24J show the horizontal lines, vertical perspective distortion, and horizontal perspective distortion positions of previously captured media representations by post-processing techniques (eg, after the media has been captured). Is discussed below to provide an example of a user interface that corrects (eg, reduces and / or modifies). In some embodiments, the horizontal lines, vertical perspective distortion, and horizontal perspective distortion position of the representation are the position of the camera (eg, tilt, angle), or the shape and / or shape of the camera lens while capturing the media. Affected by position.

図24Aにおいて、電子デバイス600は、以前にキャプチャされたメディア(例えば、写真)の表現2430aを含むメディアビューワユーザインタフェースを表示する。表現2430aは、矩形プリズム2432の横方向面2432bで足をぶらぶらさせながら矩形プリズム2432の上に座っている人を示す。横方向面2432bの他に、図示される矩形プリズム2432の唯一の他の面は、端面2432aである。表現2430aは、水平線が表現2430aにおいて対角線であるため、補正されていない水平線2438を含む(例えば、水平線2438の一部の点が異なるy値を有する場合)。図24Eに示すように(以下に詳細に論じられる)、デバイス600は、水平線2438が表現のx軸に沿ってのみ進むように見えるように、表現2430aを調整することによって(例えば、水平線の各点が同一のy値を有する場合)、水平線2438の位置を補正する。更には、図24Aにおいて、表現2430aは、補正されていない垂直遠近歪を含む。垂直線2434a〜2434cが表現2430a内で平行であるべきだが(例えば、実際の垂直線(例えば、自然又は実世界環境内)プリズムは平行であるため)、垂直線2434a〜2434cは、表現2430aの底部に向かって、それぞれの点で視覚的に収束するように見える。図24Hに示すように、デバイス600は、垂直線2434a〜2434cが平行(例えば、収束していない)であるように見えるように、表現2430aを調整することによって、垂直視点を補正する。更に、図24Aにおいて、表現2430aは、補正されていない水平遠近歪を含む。例えば、水平線2436a〜2436bが表現2430a内で平行であるべきだが(例えば、実際のプリズムの水平線(例えば、自然又は実世界環境内)、水平線2436a〜2436bは、表現2430a内で右から左へ動いて収束するように見える。図24Jに示すように、デバイス600は、水平線2436a〜2436bが平行(例えば、収束していない)であるように見えるように、表現2430aを調整することによって、水平視点を補正する。図24Aに示すように、メディアビューワユーザインタフェースはまた、編集アフォーダンス644aを含む。 In FIG. 24A, electronic device 600 displays a media viewer user interface that includes a representation 2430a of previously captured media (eg, a photo). Representation 2430a refers to a person sitting on the rectangular prism 2432 with his legs hanging on the lateral surface 2432b of the rectangular prism 2432. In addition to the lateral surface 2432b, the only other surface of the rectangular prism 2432 shown is the end surface 2432a. Representation 2430a includes uncorrected horizon 2438 because the horizon is diagonal in representation 2430a (eg, if some points on horizon 2438 have different y values). As shown in FIG. 24E (discussed in detail below), the device 600 adjusts the representation 2430a so that the horizon 2438 appears to travel only along the x-axis of the representation (eg, each of the horizon). If the points have the same y value), the position of the horizontal line 2438 is corrected. Furthermore, in FIG. 24A, representation 2430a includes uncorrected vertical perspective distortion. The vertical lines 2434a-2434c should be parallel within the representation 2430a (eg, because the actual vertical lines (eg, in the natural or real-world environment) prisms are parallel), while the vertical lines 2434a-2434c are of the representation 2430a. It appears to converge visually at each point towards the bottom. As shown in FIG. 24H, the device 600 corrects the vertical viewpoint by adjusting the representation 2430a so that the vertical lines 2434a-2434c appear to be parallel (eg, not convergent). Further, in FIG. 24A, representation 2430a includes uncorrected horizontal perspective distortion. For example, the horizontal lines 2436a-2436b should be parallel within the representation 2430a (eg, the horizontal lines of the actual prism (eg, in a natural or real-world environment), but the horizontal lines 2436a-2436b move from right to left within the representation 2430a. As shown in FIG. 24J, the device 600 adjusts the representation 2430a so that the horizontal lines 2436a-2436b appear to be parallel (eg, not convergent). As shown in FIG. 24A, the media viewer user interface also includes an edit affordance 644a.

図24Aでは、デバイス600は、編集アフォーダンス644aに対応する場所でのタップジェスチャ2450aを検出する。図24Bに示すように、タップジェスチャ2450aを検出したことに応答して、デバイス600は、メディアビューワユーザインタフェースを、メディア編集ユーザインタフェースに置き換える(例えば、図22A〜図22Bに関連して上述したように)。メディア編集ユーザインタフェースは、図24Aにおいて表現2430aに対応する表現2430bを含む。すなわち、表現2430bは、キャプチャされたメディアの同一の表現を示し、表現2430aに関連して上述したように、水平線、垂直遠近歪、及び水平遠近歪と同一の位置を有する。メディア編集ユーザインタフェースはまた、図22Aにおいて上述されたメディア編集ユーザインタフェースと同様の構成要素を含む。しかしながら、図22Aにおいて上述されたメディア編集ユーザインタフェースとは対照的に、デバイス600は、表現2430bによって表されたキャプチャされたメディアが写真メディアであることを判定する。その結果、デバイス600は、写真メディアが写真を編集する特定の1組の編集ツールを有さないことを判定する。また、この判定に従って、デバイス600は、写真メディアを編集するメディア編集モードアフォーダンスを表示せずに、編集モードアフォーダンス2210b〜2210d(例えば、ポートレートモードメディア編集モードアフォーダンス2210aなどの第4のメディア編集アフォーダンスの代わりに)編集モードアフォーダンス2210b〜2210dを表示する。具体的には、編集モードアフォーダンス2210b〜2210dは、視覚特性編集モードアフォーダンス2210b、フィルタ編集モードアフォーダンス2210c、及び画像コンテンツ編集モードアフォーダンス2210dを含む。図24Bに示すように、視覚特性編集モードアフォーダンス2210bは、モード選択インジケータ2202bによって示すように、選択される。その結果、デバイス600は、図22B〜図22Cで論じられた同様の技術を使用して、視覚特性編集ツールアフォーダンス2214を表示する。 In FIG. 24A, the device 600 detects a tap gesture 2450a at a location corresponding to the edit affordance 644a. As shown in FIG. 24B, in response to detecting the tap gesture 2450a, the device 600 replaces the media viewer user interface with a media editing user interface (eg, as described above in connection with FIGS. 22A-22B). NS). The media editing user interface includes representation 2430b corresponding to representation 2430a in FIG. 24A. That is, representation 2430b represents the same representation of the captured media and has the same positions as the horizontal line, vertical perspective distortion, and horizontal perspective distortion, as described above in relation to representation 2430a. The media editing user interface also includes components similar to the media editing user interface described above in FIG. 22A. However, in contrast to the media editing user interface described above in FIG. 22A, device 600 determines that the captured media represented by representation 2430b is photographic media. As a result, the device 600 determines that the photographic media does not have a particular set of editing tools for editing the photo. Further, according to this determination, the device 600 does not display the media edit mode affordance for editing the photographic media, and the device 600 does not display the edit mode affordance 2210b to 2210d (for example, the fourth media editing affordance such as the portrait mode media edit mode affordance 2210a). (Instead of) the edit mode affordances 2210b-2210d are displayed. Specifically, the edit mode affordances 2210b to 2210d include a visual characteristic edit mode affordance 2210b, a filter edit mode affordance 2210c, and an image content edit mode affordance 2210d. As shown in FIG. 24B, the visual characteristic editing mode affordance 2210b is selected as indicated by the mode selection indicator 2202b. As a result, the device 600 displays the visual property editing tool affordance 2214 using similar techniques discussed in FIGS. 22B-22C.

図24Bでは、デバイス600は、画像コンテンツ編集モードアフォーダンス2210dに対応する場所でのタップジェスチャ2450bを検出する。図24Cに示すように、タップジェスチャ2450bを検出したことに応答して、デバイス600は、デバイスが画像コンテンツ編集モードで表現を編集するように構成されることを示すように、画像コンテンツ編集モードアフォーダンス2210dの下にモード選択インジケータ2202dを表示する。更には、デバイス600は、視覚特性編集ツールアフォーダンス2214を、画像コンテンツ編集ツールアフォーダンス2218に置き換える。画像コンテンツ編集ツールアフォーダンス2218を表示することは、(表現の水平線の位置を補正するための)歪み矯正編集ツールアフォーダンス2218aと、(表現の垂直遠近歪を補正するための)垂直視点編集ツールアフォーダンス2218bと、(表現の水平遠近歪を補正するための)水平視点編集ツールアフォーダンス2218cと、を同時に表示することを含む。デバイス600は、歪み矯正編集ツールアフォーダンス2218aを選択されたものとして表示し、これは、歪み矯正編集ツールアフォーダンス2218aの上部に隣接して表示されるツール選択インジケータ2204aによって示される。歪み矯正編集ツールアフォーダンス2218aを選択されたものとして表示することに加えて、デバイス600はまた、調整可能なストレート化コントロール2258aの中心付近の位置にストレート化コントロールインジケーション2258a1を表示する。 In FIG. 24B, the device 600 detects a tap gesture 2450b at a location corresponding to the image content edit mode affordance 2210d. As shown in FIG. 24C, in response to detecting the tap gesture 2450b, the device 600 affords the image content edit mode to indicate that the device is configured to edit the representation in the image content edit mode. A mode selection indicator 2202d is displayed below 2210d. Further, the device 600 replaces the visual characteristic editing tool affordance 2214 with the image content editing tool affordance 2218. Displaying the image content editing tool Affordance 2218 is a distortion correction editing tool Affordance 2218a (to correct the position of the horizontal line of the expression) and a vertical viewpoint editing tool Affordance 2218b (to correct the vertical perspective distortion of the expression). And, the horizontal viewpoint editing tool affordance 2218c (for correcting the horizontal perspective distortion of the expression), and the display are included at the same time. The device 600 displays the distortion correction editing tool affordance 2218a as selected, which is indicated by the tool selection indicator 2204a displayed adjacent to the top of the distortion correction editing tool affordance 2218a. In addition to displaying the distortion correction editing tool affordance 2218a as selected, the device 600 also displays the straightening control indication 2258a1 at a position near the center of the adjustable straightening control 2258a.

図24Cでは、デバイス600は、表現2430bに向けられたデピンチジェスチャ2450cを検出する。図24Dに示すように、デピンチジェスチャ2450cを検出したことに応答して、デバイス600は、表現2430bのズームイン表現(例えば、2×ズーム)に対応する表現2430cを表示することにより、表現2430bのズームレベル(例えば、1×ズーム)を変更する。ズームインの結果として、表現2430cは、矩形プリズム2432及び水平線2438の一部分を示し、一方、矩形プリズム2432及び水平線2438の別の部分の表示を停止される。水平線2438の表示された部分は、対角線であり、水平線2438の一部の点は、異なるy値である。表現2430cはまた、鳥2440を含み続け、これは、表現2430bの左上に表示された。 In FIG. 24C, device 600 detects a depinch gesture 2450c directed at representation 2430b. As shown in FIG. 24D, in response to detecting the depinch gesture 2450c, the device 600 displays the representation 2430c corresponding to the zoomed-in representation of the representation 2430b (eg, 2x zoom), thereby displaying the representation 2430b. Change the zoom level (eg 1x zoom). As a result of zooming in, representation 2430c shows one portion of the rectangular prism 2432 and the horizontal line 2438, while the display of another portion of the rectangular prism 2432 and the horizontal line 2438 is stopped. The displayed portion of the horizon 2438 is a diagonal, and some points of the horizon 2438 have different y values. Expression 2430c also continued to include bird 2440, which was displayed in the upper left of expression 2430b.

更には、図24Dに示すように、デバイス600は、表現2430cによって表されたキャプチャされたメディアが、方法1100に関連して記載されるものと同様の技術を使用してキャプチャされたと判定した。したがって、キャプチャされたメディアは、表現2430cとして表示される視覚コンテンツ(例えば、図10E〜図10Gにおいてメディアをキャプチャするときに、ライブプレビュー630内に表示されるようにキャプチャされた視覚コンテンツ)と、表現2430cとして表示されない追加の視覚コンテンツ(例えば、図10E〜図10Gにおいてメディアをキャプチャするときに、インジケータ領域602及びコントロール領域606内に表示されるようにキャプチャされた視覚コンテンツ、過剰にキャプチャされたコンテンツ)と、を含む。いくつかの実施形態では、追加の視覚コンテンツは、視覚コンテンツの所定の空間的境界の外側(例えば、当初キャプチャされたフレームの外側、又は図10E〜図10Gにおけるライブプレビュー630の外側)にある視覚コンテンツを含むことができる。いくつかの実施形態では、キャプチャされたメディアに対応するデータファイルは、表現2430cとして表示される視覚コンテンツと、表現2430cとして表示されない追加の視覚コンテンツと、を含む。デバイス600が表現2430cによって表されたキャプチャされたメディアが追加のデータを含むと判定した結果として、デバイス600は、(キャプチャされたメディアの表現を自動的に編集する)自動調整アフォーダンス1036bを表示する。いくつかの実施形態では、デバイス600が、表現2430cによって表されたキャプチャされたメディアが追加の視覚コンテンツを含まないと判定する場合、デバイス600は、自動調整アフォーダンス1036bを表示しない。 Furthermore, as shown in FIG. 24D, device 600 determined that the captured media represented by representation 2430c was captured using a technique similar to that described in connection with Method 1100. Therefore, the captured media is the visual content displayed as representation 2430c (eg, the visual content captured to be displayed in the live preview 630 when capturing the media in FIGS. 10E-10G). Additional visual content not displayed as representation 2430c (eg, visual content captured to be displayed within indicator area 602 and control area 606 when capturing media in FIGS. 10E-10G, overcaptured. Content) and, including. In some embodiments, the additional visual content is visual outside a predetermined spatial boundary of the visual content (eg, outside the originally captured frame, or outside the live preview 630 in FIGS. 10E-10G). Can include content. In some embodiments, the data file corresponding to the captured media includes visual content displayed as representation 2430c and additional visual content not displayed as representation 2430c. As a result of the device 600 determining that the captured media represented by the representation 2430c contains additional data, the device 600 displays an auto-adjust affordance 1036b (which automatically edits the representation of the captured media). .. In some embodiments, the device 600 does not display the auto-adjustment affordance 1036b if the device 600 determines that the captured media represented by the representation 2430c does not contain additional visual content.

図24Dでは、デバイス600は、調整可能なストレート化コントロール2258aに向けられたジェスチャ2450d(左向きフリック、又はドラッグジェスチャ)を検出する。図24Eに示すように、ジェスチャ2450dを検出したことに応答して、デバイス600は、デバイス600がジェスチャ2250d、2250i、及び/又は2250oを検出したことに応答して、上述したものと同様の技術を行う。デバイス600は、ジェスチャ2450dの大きさ及び方向(例えば、スワイプの速さ、長さ)に基づいて、ストレート化コントロールインジケーション2258a1を、調整可能なストレート化コントロール2258a上の新しい位置に動かし、値インジケータ2248aを表示する。ジェスチャ2450dの大きさ及び方向により、デバイス600に、調整可能なストレート化コントロール2258aの最右端のティックマーク(例えば、最大値)により近い新しい位置に、ストレート化コントロールインジケーション2258a1を表示させる。更には、デバイス600は、表現2430dを表示し、ここで、表現2430dは、調整可能なストレート化コントロール2258a上のストレート化コントロールインジケーション2258a1の新しい位置に対応する値に基づいて調整された表現2430cのバージョンである。表現2430dによって示されるように、デバイス600は、水平線2438が表現のx軸に沿ってのみ進むように見えるまで(例えば、水平線の各点が同一のy値を有する場合)、表現2430cを時計方向に回転する。キャプチャされたメディアが表現2430dに表示されなかった追加のコンテンツを含むため、デバイス600は、鳥2440が表現2430dに表示され続けるように、表現2430cを回転している間に追加の視覚コンテンツを利用する(例えば、持ち込む)。表現2430cに表示されない追加の視覚コンテンツ(例えば、画像がキャプチャされたときに、インジケータ領域602内に表示されない視覚コンテンツ)を利用することにより、デバイス600は、表現2430d内の視覚コンテンツの表示を維持することができる。対照的に、いくつかの実施形態では、鳥2440は、表現2430dに表示され続けない。例えば、キャプチャされたメディアが、表示されていない追加の視覚コンテンツを含まないとき、デバイス600は、ジェスチャ2450dを検出したことに応答して、表現2404cを回転するときに点線2466より上の領域をクロップアウトする。明確にするために図24D〜図24Eに示すように、デバイス600は、点線2466より上の領域をクロップアウトして、調整された表現を矩形に見えるようにする(例えば、クロップされない場合、点線2466より上の領域の一部分は、メディア編集ユーザインタフェースの外側にある)。したがって、点線2466でクロッピング後、デバイス600は、図24Eの点線2466より上の領域の表示を停止する。いくつかの実施形態では、垂直遠近歪を補正することは、表現の視点を垂直方向(例えば、下から上)に傾けることを含む。いくつかの実施形態では、垂直視点を補正することは、表現内の水平線を調整することを含み、これにより、表現が、垂直視点が表現内で変更したかのように視覚的に表示される。 In FIG. 24D, device 600 detects a gesture 2450d (leftward flick or drag gesture) directed at the adjustable straightening control 2258a. As shown in FIG. 24E, in response to the detection of the gesture 2450d, the device 600 responds to the device 600's detection of the gestures 2250d, 2250i, and / or 2250o, and has a technique similar to that described above. I do. The device 600 moves the straightening control indication 2258a1 to a new position on the adjustable straightening control 2258a based on the size and direction of the gesture 2450d (eg, swipe speed, length) and a value indicator. 2248a is displayed. Depending on the size and orientation of the gesture 2450d, the device 600 may display the straightening control indication 2258a1 at a new position closer to the rightmost tick mark (eg, maximum) of the adjustable straightening control 2258a. Furthermore, device 600 displays representation 2430d, where representation 2430d is adjusted based on the value corresponding to the new position of straightening control indication 2258a1 on adjustable straightening control 2258a. Version of. As indicated by representation 2430d, device 600 clockwise represents representation 2430c until the horizon 2438 appears to travel only along the x-axis of the representation (eg, if each point on the horizon has the same y value). Rotate to. Because the captured media contains additional content that was not displayed in representation 2430d, device 600 utilizes the additional visual content while rotating representation 2430c so that bird 2440 continues to be displayed in representation 2430d. (For example, bring it in). By utilizing additional visual content that does not appear in representation 2430c (eg, visual content that does not appear in indicator area 602 when the image is captured), device 600 maintains the display of visual content in representation 2430d. can do. In contrast, in some embodiments, the bird 2440 does not continue to appear in representation 2430d. For example, when the captured media does not contain additional visual content that is not displayed, the device 600 covers the area above the dotted line 2466 as it rotates the representation 2404c in response to detecting gesture 2450d. Crop out. As shown in FIGS. 24D-24E for clarity, device 600 crops out the area above the dotted line 2466 to make the adjusted representation look rectangular (eg, dotted line if not cropped). A portion of the area above 2466 is outside the media editing user interface). Therefore, after cropping along the dotted line 2466, the device 600 stops displaying the area above the dotted line 2466 in FIG. 24E. In some embodiments, correcting vertical perspective distortion involves tilting the viewpoint of expression in the vertical direction (eg, from bottom to top). In some embodiments, correcting the vertical viewpoint involves adjusting the horizontal lines in the representation so that the representation is visually displayed as if the vertical viewpoint had changed in the representation. ..

図24Eでは、デバイス600は、表現2430dに向けられたピンチングジェスチャ2450eを検出する。図24Fに示すように、ピンチングジェスチャ2450eを検出したことに応答して、デバイス600は、表現2430bが図24Cに表示された以前のズームレベルまで、表現2430dをズームアウトすることによって、表現2430eを表示する。表現2430eに示すように、デバイス600は、表現2430dに調整とともに表示された、水平線2438の部分を表示し続ける。特に、デバイス600はまた、水平線2438の全体が表現のx軸に沿ってのみ進むように見えるように(例えば、水平線の各点が同一のy値を有する場合)調整しながら、表現2430dに表示されなかった水平線2438の部分を表示する。したがって、デバイス600(図24E〜図24Dによって示されるように)は、表現のズームレベルとは無関係に、表現への調整を行い及び維持することができる。 In FIG. 24E, device 600 detects a pinching gesture 2450e directed at representation 2430d. As shown in FIG. 24F, in response to detecting the pinching gesture 2450e, the device 600 zooms out the representation 2430e to the previous zoom level where the representation 2430b was displayed in FIG. 24C to display the representation 2430e. indicate. As shown in Representation 2430e, the device 600 continues to display the portion of the horizon 2438 displayed with the adjustment in Representation 2430d. In particular, the device 600 also displays in representation 2430d, adjusting so that the entire horizon 2438 appears to travel only along the x-axis of the representation (eg, if each point on the horizon has the same y value). The part of the horizontal line 2438 that was not displayed is displayed. Thus, device 600 (as shown by FIGS. 24E-24D) can make and maintain representation adjustments regardless of the zoom level of the representation.

図24Fでは、デバイス600は、垂直視点編集ツールアフォーダンス2218bに対応する場所でのタップジェスチャ2450fを検出する。図24Gに示すように、タップジェスチャ2450fを検出したことに応答して、デバイス600は、デバイス600がタップジェスチャ2250h及び/又は2250nを検出したことに応答して、上述したものと同様の技術を行う。図24Gでは、デバイス600は、調整可能なストレート化コントロール2258a及びストレート化コントロールインジケーション2258a1の表示を、調整可能な垂直遠近歪コントロール2258b及び垂直遠近歪コントロールインジケーション2258b1の表示に置き換える。更には、デバイス600は、ツール選択インジケータ2204bを表示し、かつツール選択インジケータ2204aの表示を停止して、デバイス600が垂直遠近歪調整モードで動作するように構成されていることを示す。 In FIG. 24F, the device 600 detects a tap gesture 2450f at a location corresponding to the vertical viewpoint editing tool affordance 2218b. As shown in FIG. 24G, in response to the detection of the tap gesture 2450f, the device 600 responds to the device 600's detection of the tap gesture 2250h and / or 2250n and performs a technique similar to that described above. conduct. In FIG. 24G, device 600 replaces the display of the adjustable straightening control 2258a and straightening control indication 2258a1 with the display of the adjustable vertical perspective distortion control 2258b and vertical perspective distortion control indication 2258b1. Further, the device 600 displays the tool selection indicator 2204b and stops the display of the tool selection indicator 2204a to indicate that the device 600 is configured to operate in the vertical perspective distortion adjustment mode.

図24Gでは、デバイス600は、調整可能な垂直遠近歪コントロール2258bに向けられたジェスチャ2450g(右向きフリック、又はドラッグジェスチャ)を検出する。図24Hに示すように、ジェスチャ2450gを検出したことに応答して、デバイス600は、デバイス600がジェスチャ2250d、2250i、及び/又は2250oを検出したことに応答して、上述したものと同様の技術を行う。具体的には、デバイス600は、ジェスチャ2450gの大きさ及び方向(例えば、スワイプの速さ、長さ)に基づいて、垂直遠近歪コントロールインジケーション2258b1を、調整可能な垂直遠近歪コントロール2258b上の新しい位置に動かす。ジェスチャ2450gを検出したことに応答して、デバイス600はまた、調整可能な垂直遠近歪コントロール2258b上の垂直遠近歪コントロールインジケーション2258b1の新しい位置に対応する値に基づいて調整された表現2430fを表示する。その結果、デバイス600は、図24Gの垂直線2434a〜2434cと比較して、メディアユーザインタフェースの底部に向かって動かすときに、収束が少なくなるように垂直線2434a〜2434cを修正する。図24Hに示すように、垂直線2434a〜2434cは、平行であるように見える。 In FIG. 24G, device 600 detects 2450 g (rightward flick or drag gesture) directed at the adjustable vertical perspective distortion control 2258b. As shown in FIG. 24H, in response to the detection of the gesture 2450g, the device 600 responds to the device 600's detection of the gestures 2250d, 2250i, and / or 2250o, and has a technique similar to that described above. I do. Specifically, the device 600 places the vertical perspective distortion control indication 2258b1 on the adjustable vertical perspective distortion control 2258b based on the size and direction of the gesture 2450 g (eg, swipe speed, length). Move to a new position. In response to detecting the gesture 2450g, the device 600 also displays an adjusted representation 2430f based on the value corresponding to the new position of the vertical perspective distortion control indication 2258b1 on the adjustable vertical perspective distortion control 2258b. do. As a result, the device 600 modifies the vertical lines 2434a-2434c so that there is less convergence when moving towards the bottom of the media user interface as compared to the vertical lines 2434a-2434c of FIG. 24G. As shown in FIG. 24H, the vertical lines 2434a-2434c appear to be parallel.

図24Hでは、表現2430fを表示している間に、デバイス600は、水平視点編集ツールアフォーダンス2218cに対応する場所でのタップジェスチャ2450hを検出する。図24Iに示すように、タップジェスチャ2450hを検出したことに応答して、デバイス600は、デバイス600がタップジェスチャ2250h、2250n、及び2450fを検出したことに応答して、上述したものと同様の技術を行う。具体的には、デバイス600は、調整可能な垂直遠近歪コントロール2258b及び垂直遠近歪コントロールインジケーション2258b1の表示を、調整可能な水平遠近歪コントロール2258c及び調整可能な水平遠近歪コントロールインジケーション2258c1の表示に置き換える。更には、デバイス600は、ツール選択インジケータ2204cを表示し、かつツール選択インジケータ2204bの表示を停止して、デバイス600が水平遠近歪調整モードで動作するように構成されていることを示す。 In FIG. 24H, while displaying the representation 2430f, the device 600 detects a tap gesture 2450h at a location corresponding to the horizontal viewpoint editing tool affordance 2218c. As shown in FIG. 24I, in response to the detection of the tap gesture 2450h, the device 600 responds to the device 600's detection of the tap gestures 2250h, 2250n, and 2450f and has a technique similar to that described above. I do. Specifically, the device 600 displays the adjustable vertical perspective distortion control 2258b and the vertical perspective distortion control indication 2258b1 and the adjustable horizontal perspective distortion control 2258c and the adjustable horizontal perspective distortion control indication 2258c1. Replace with. Further, the device 600 displays the tool selection indicator 2204c and stops the display of the tool selection indicator 2204b to indicate that the device 600 is configured to operate in the horizontal perspective distortion adjustment mode.

図24Iでは、デバイス600は、調整可能な水平遠近歪コントロール2258cに向けられたジェスチャ2450i(左向きフリック、又はドラッグジェスチャ)を検出する。図24Jに示すように、ジェスチャ2450iを検出したことに応答して、デバイス600は、デバイス600がジェスチャ2250d、2250i、及び/又は2250oを検出したことに応答して、上述したものと同様の技術を行う。具体的には、デバイス600は、ジェスチャ2450iの大きさ及び方向(例えば、スワイプの速さ、長さ)に基づいて、水平遠近歪コントロールインジケーション2258c1を、調整可能な水平遠近歪コントロール2258c上の新しい位置に動かす。ジェスチャ2450iを検出したことに応答して、デバイス600はまた、調整可能な水平遠近歪コントロール2258c上の水平遠近歪コントロールインジケーション2258c1の新しい位置に対応する値に基づいて調整された表現2430fのバージョンである表現2430gを表示する。その結果、デバイス600は、メディアユーザインタフェースを右から左へ動かすときに、収束が少なくなるように水平線2436a〜2436bを修正する。図24Jでは、水平線2436a〜2436bの収束が低減されると、矩形プリズム2432の横方向面2432bの長さが低減される。いくつかの実施形態では、水平遠近歪を補正することは、表現の視点を水平方向(例えば、左から右)に傾けることを含む。いくつかの実施形態では、水平視点を補正することは、表現内の垂直線を調整することを含み、これにより、表現が、水平視点が表現内で変更したかのように視覚的に表示される。 In FIG. 24I, the device 600 detects a gesture 2450i (leftward flick, or drag gesture) directed at the adjustable horizontal perspective distortion control 2258c. As shown in FIG. 24J, in response to the detection of the gesture 2450i, the device 600 responds to the device 600's detection of the gestures 2250d, 2250i, and / or 2250o, and has a technique similar to that described above. I do. Specifically, the device 600 places the horizontal perspective distortion control indication 2258c1 on the adjustable horizontal perspective distortion control 2258c based on the size and direction of the gesture 2450i (eg, swipe speed, length). Move to a new position. In response to detecting the gesture 2450i, the device 600 also has a version of representation 2430f adjusted based on the value corresponding to the new position of the horizontal perspective control indication 2258c1 on the adjustable horizontal perspective distortion control 2258c. The expression 2430 g is displayed. As a result, the device 600 modifies the horizontal lines 2436a-2436b so that there is less convergence when moving the media user interface from right to left. In FIG. 24J, when the convergence of the horizontal lines 2436a to 2436b is reduced, the length of the lateral surface 2432b of the rectangular prism 2432 is reduced. In some embodiments, correcting horizontal perspective distortion involves tilting the viewpoint of expression horizontally (eg, from left to right). In some embodiments, correcting the horizontal viewpoint involves adjusting the vertical lines in the representation so that the representation is visually displayed as if the horizontal viewpoint had changed in the representation. NS.

いくつかの実施形態では、垂直遠近歪及び/又は水平遠近歪を調整するとき、デバイス600は、表現に表示されていない追加のコンテンツを利用して、キャプチャされたメディア内の垂直又は水平遠近歪を調整する(例えば、低減する又は増加させる)。いくつかの実施形態では、水平線、垂直、又は水平の表現を調整後、デバイス600は、調整された表現内に含まれない視覚コンテンツのグレーアウト(例えば、半透明)部分を表示する。いくつかの実施形態では、デバイス600は、調整された表現と、調整された表現内に含まれない視覚コンテンツとの間に視覚境界部を表示する。 In some embodiments, when adjusting vertical perspective distortion and / or horizontal perspective distortion, the device 600 utilizes additional content not displayed in the representation to utilize vertical or horizontal perspective distortion in the captured media. Adjust (eg, reduce or increase). In some embodiments, after adjusting the horizontal, vertical, or horizontal representation, the device 600 displays a grayed out (eg, translucent) portion of the visual content that is not included within the adjusted representation. In some embodiments, the device 600 displays a visual boundary between the tuned representation and the visual content not included within the tuned representation.

図24J〜図24Oは、アスペクト比調整モードで動作するデバイス600を示す。アスペクト比調整モードで動作するとき、デバイス600は、図8J及び図14A〜図14Uに関して上述したようなものと同様の技術を使用する。図24Jでは、デバイス600は、アスペクト比コントロールアフォーダンス626cに対応するジェスチャ2450jを検出する。図24Kに示すように、ジェスチャ2450jを検出したことに応答して、デバイス600は、表現2430g上に視覚境界部608を表示する。図24Kでは、図14Aと同様に、デバイス600は、視覚部分1404と暗色部分1406との間に視覚境界部608を表示する。視覚部分1404は、既定の入力場所1410A〜1410Dを含む。加えて、ジェスチャ2450jを検出したことに応答して、デバイス600は、水平アスペクト比コントロールアフォーダンス626c1及び垂直アスペクト比コントロールアフォーダンス626c2を表示する。視覚境界部608の水平側がその垂直側よりも長いため、デバイス600は、(例えば、太さ、ハイライト)水平アスペクト比コントロールアフォーダンス626c1を強調し、水平インジケータ2462dを表示して、視覚境界部608が水平向き(例えば、横向き)であることを示す。更に、ジェスチャ2450jを検出したことに応答して、デバイス600は、元のアスペクト比ツール2470a、自由形式アスペクト比ツール2470b、正方形のアスペクト比ツール2470c、及び3:2アスペクト比ツール2470ddを含む、アスペクト比ツールアフォーダンス2470を表示する。デバイス600は、表現2430gのアスペクト比が3:2アスペクト比であることを判定する。したがって、デバイス600は、3:2アスペクト比ツール2470ddの周囲にアスペクト比選択インジケータ2470dd1を表示する。いくつかの実施形態では、アスペクト比ツールアフォーダンス2470に関連して本明細書に記載される構成要素及び技術は、上述のアスペクト比コントロール1470及び818に関連して述べられたものと同じである。 24J to 24O show the device 600 operating in the aspect ratio adjustment mode. When operating in the aspect ratio adjustment mode, the device 600 uses a technique similar to that described above for FIGS. 8J and 14A-14U. In FIG. 24J, the device 600 detects the gesture 2450j corresponding to the aspect ratio control affordance 626c. As shown in FIG. 24K, in response to detecting the gesture 2450j, the device 600 displays a visual boundary 608 on the representation 2430g. In FIG. 24K, similar to FIG. 14A, the device 600 displays a visual boundary 608 between the visual portion 1404 and the dark portion 1406. Visual portion 1404 includes default input locations 1410A-1410D. In addition, in response to detecting gesture 2450j, the device 600 displays a horizontal aspect ratio control affordance 626c1 and a vertical aspect ratio control affordance 626c2. Because the horizontal side of the visual boundary 608 is longer than its vertical side, the device 600 highlights the horizontal aspect ratio control affordance 626c1 (eg, thickness, highlight) and displays the horizontal indicator 2462d to display the visual boundary 608. Indicates that is horizontal (for example, horizontal). Further, in response to detecting gesture 2450j, the device 600 includes an aspect ratio tool 2470a, a free-form aspect ratio tool 2470b, a square aspect ratio tool 2470c, and a 3: 2 aspect ratio tool 2470dd. Display the ratio tool affordance 2470. The device 600 determines that the aspect ratio of the representation 2430 g is a 3: 2 aspect ratio. Therefore, the device 600 displays the aspect ratio selection indicator 2470dd1 around the 3: 2 aspect ratio tool 2470dd. In some embodiments, the components and techniques described herein in connection with the aspect ratio tool affordance 2470 are the same as those described in connection with the aspect ratio controls 1470 and 818 described above.

図24Kでは、デバイス600は、既定の入力場所1410Bに向けられたジェスチャ2450k(例えば、下向きドラッグジェスチャ)を検出する。図24Lに示すように、ジェスチャ2450kを検出したことに応答して、デバイス600は、図14E〜図14Iの1495Bに関連して上述したようなものと同様の技術を使用して、視覚境界部608のアスペクト比を変更する。デバイス600が視覚境界部608のアスペクト比を変更すると、デバイス600は、視覚境界部608のアスペクト比(例えば、視覚境界部608に取り囲まれた表現のアスペクト比と同じ)が既定のアスペクト比(例えば、正方形、3:2)ではないことを判定する。この判定の結果として、デバイス600は、アスペクト比ツール2470ddの周りのアスペクト比選択インジケータ2470dd1の表示を停止し、自由形式アスペクト比ツール2470ddの周りにアスペクト比選択インジケータ2470b1を表示する。視覚境界部608のアスペクト比が変化するとき、デバイス600はまた、視覚境界部608の垂直側が視覚境界部608の水平側よりも大きいことを判定する。この判定の結果として、デバイス600は、水平アスペクト比コントロールアフォーダンス626c1を強調する代わりに、(例えば、太さ、ハイライト)垂直アスペクト比コントロールアフォーダンス626c2を強調する。デバイス600は、水平インジケータ2462dの表示を、垂直インジケータ2462eに置き換える。更には、デバイス600が、視覚境界部608の垂直側が視覚境界部608の水平側よりも大きいことを判定するため(例えば、垂直又は縦向き)、デバイス600は、3:2アスペクト比ツール2470ddを、2:3アスペクト比ツール2470d(例えば、逆のアスペクト比ツール)に置き換え、視覚境界部608の幅が視覚境界部608の長さよりも短いという比較と一致するようにする。 In FIG. 24K, the device 600 detects a gesture 2450k (eg, a downward drag gesture) directed at the default input location 1410B. As shown in FIG. 24L, in response to detecting the gesture 2450k, the device 600 uses a technique similar to that described above in connection with 1495B of FIGS. 14E-14I to the visual boundary. Change the aspect ratio of 608. When the device 600 changes the aspect ratio of the visual boundary portion 608, the device 600 has a default aspect ratio (for example, the same as the aspect ratio of the expression surrounded by the visual boundary portion 608) of the visual boundary portion 608. , Square, 3: 2). As a result of this determination, the device 600 stops displaying the aspect ratio selection indicator 2470dd1 around the aspect ratio tool 2470dd and displays the aspect ratio selection indicator 2470b1 around the free-form aspect ratio tool 2470dd. When the aspect ratio of the visual boundary 608 changes, the device 600 also determines that the vertical side of the visual boundary 608 is greater than the horizontal side of the visual boundary 608. As a result of this determination, the device 600 emphasizes the vertical aspect ratio control affordance 626c2 (eg, thickness, highlight) instead of emphasizing the horizontal aspect ratio control affordance 626c1. The device 600 replaces the display of the horizontal indicator 2462d with the vertical indicator 2462e. Furthermore, in order for the device 600 to determine that the vertical side of the visual boundary 608 is larger than the horizontal side of the visual boundary 608 (eg, vertical or vertical), the device 600 uses a 3: 2 aspect ratio tool 2470dd. Replace with the 2: 3 aspect ratio tool 2470d (eg, the reverse aspect ratio tool) so that it is consistent with the comparison that the width of the visual boundary 608 is shorter than the length of the visual boundary 608.

図24Lでは、デバイス600は、2:3アスペクト比ツール2470dの場所に対応するタップジェスチャ2450lである。図24Mに示すように、タップジェスチャ2450lを検出したことに応答して、デバイス600は、アスペクト比ツールアフォーダンス2470を右にシフトすることにより、メディア編集ユーザインタフェースの中心に、2:3アスペクト比ツール2470dを表示する。図24Mでは、デバイス600は、元のアスペクト比ツール2470a及び自由形式アスペクト比ツール2470bの表示を停止し、3:4アスペクト比ツール2470e及び3:5アスペクト比ツール2470fを、2:3アスペクト比ツール2470dの右に表示する。デバイス600はまた、アスペクト比ツール2470dが選択されることを示すために、2:3アスペクト比ツール2470dの周囲に選択アスペクト比選択インジケータ2470d1を表示する。ジェスチャ2450lを検出したことに応答して、デバイス600はまた、自動的に(更なるユーザ入力なしで)、2:3アスペクト比で視覚境界部608を表示する。 In FIG. 24L, the device 600 is a tap gesture 2450 l corresponding to the location of the 2: 3 aspect ratio tool 2470d. As shown in FIG. 24M, in response to detecting the tap gesture 2450 l, the device 600 shifts the aspect ratio tool affordance 2470 to the right to center the 2: 3 aspect ratio tool in the media editing user interface. Display 2470d. In FIG. 24M, the device 600 stops displaying the original aspect ratio tool 2470a and the free-form aspect ratio tool 2470b, the 3: 4 aspect ratio tool 2470e and the 3: 5 aspect ratio tool 2470f, and the 2: 3 aspect ratio tool. Displayed to the right of 2470d. The device 600 also displays a selection aspect ratio selection indicator 2470d1 around the 2: 3 aspect ratio tool 2470d to indicate that the aspect ratio tool 2470d is selected. In response to detecting the gesture 2450 liters, the device 600 also automatically displays the visual boundary 608 in a 2: 3 aspect ratio (without further user input).

図24Mでは、デバイス600は、水平アスペクト比コントロールアフォーダンス626c1の場所に対応するタップジェスチャ2450mを検出する。図24Nに示すように、ジェスチャタッピング2450mを検出したことに応答して、デバイス600は、自動的に(更なるユーザ入力なしで)、2:3アスペクト比での視覚境界部608の表示を、3:2アスペクト比での視覚境界部608の表示に置き換える。特に、デバイス600は、表現2430gを回転させることなく、この置き換えを行う(例えば、視覚境界部608のあるアスペクト比を逆のアスペクト比に変更する)。更には、ジェスチャ2450mを検出したことに応答して、デバイス600は、水平アスペクト比アフォーダンス626c1を再強調し、かつ垂直アスペクト比アフォーダンス626c2を強調するのをやめる。デバイス600はまた、アスペクト比ツールアフォーダンス2470を、図24Mに表示されるものである逆のアスペクト比ツールに変更する(例えば、2:3アスペクト比ツール2470dから対応する3:2アスペクト比ツール2470dd、3:4アスペクト比ツール2470eから対応する4:3アスペクト比ツール2470ee、及び5:3アスペクト比ツール2470fから対応する3:5アスペクト比ツール2470ffに変更する)。 In FIG. 24M, the device 600 detects a tap gesture 2450 m corresponding to the location of the horizontal aspect ratio control affordance 626c1. As shown in FIG. 24N, in response to detecting gesture tapping 2450 m, the device 600 automatically (without further user input) displays the visual boundary 608 in a 2: 3 aspect ratio. Replaced with the display of the visual boundary portion 608 with a 3: 2 aspect ratio. In particular, the device 600 makes this replacement without rotating the representation 2430g (eg, changing some aspect ratio of the visual boundary 608 to the opposite aspect ratio). Furthermore, in response to detecting the gesture 2450 m, the device 600 re-emphasizes the horizontal aspect ratio affordance 626c1 and stops emphasizing the vertical aspect ratio affordance 626c2. The device 600 also changes the aspect ratio tool affordance 2470 to the reverse aspect ratio tool as shown in FIG. 24M (eg, from the 2: 3 aspect ratio tool 2470d to the corresponding 3: 2 aspect ratio tool 2470dd, The 3: 4 aspect ratio tool 2470e is changed to the corresponding 4: 3 aspect ratio tool 2470ee, and the 5: 3 aspect ratio tool 2470f is changed to the corresponding 3: 5 aspect ratio tool 2470ff).

図24Nでは、デバイス600は、アスペクト比コントロールアフォーダンス626cに対応する場所でのタップジェスチャ2450nを検出する。図24Oに示すように、タップジェスチャ2450nを検出したことに応答して、デバイス600は、視覚境界部608(例えば、視覚部分1404)に取り囲まれた視覚コンテンツを含む、表現2430hを表示する。したがって、表現2430hは、3:2アスペクト比のアスペクト比を有し、これは、タップジェスチャ2450mを検出したことに応答して、表示された。タップジェスチャ2450nがまた、アスペクト比調整モードで動作しないようにデバイス600を構成するため、デバイス600は、画像コンテンツ編集ツールアフォーダンス2218を再表示し、かつアスペクト比編集ツールアフォーダンス2470の表示を停止する。 In FIG. 24N, the device 600 detects a tap gesture 2450n at a location corresponding to the aspect ratio control affordance 626c. As shown in FIG. 24O, in response to detecting the tap gesture 2450n, the device 600 displays representation 2430h, including visual content surrounded by a visual boundary 608 (eg, visual portion 1404). Thus, representation 2430h has an aspect ratio of 3: 2 aspect ratio, which was displayed in response to the detection of tap gesture 2450m. Since the device 600 is also configured so that the tap gesture 2450n does not operate in the aspect ratio adjustment mode, the device 600 redisplays the image content editing tool affordance 2218 and stops the display of the aspect ratio editing tool affordance 2470.

図24Oでは、デバイス600は、フリップコントロールアフォーダンス2402aに対応する場所でのタップジェスチャ2450oを検出する。図24Pに示すように、タップジェスチャ2450oを検出したことに応答して、デバイス600は、表現2430iを表示する。表現2430iは、表現2430hの視覚コンテンツから水平に反転された(例えば、水平鏡像を作成する)視覚コンテンツを含む。例えば、矩形プリズム2432上に座っている人は、表現2430h内の右側から表現2430iの左側に移動している。いくつかの実施形態では、別のフリップコントロールアフォーダンス上のジェスチャ2450oを検出したことに応答して、デバイス600は、表現を垂直にフリップし(例えば、垂直ミラーを作成する)、ここで、鳥2440は、調整された表現の底部に表示される。 In FIG. 24O, the device 600 detects the tap gesture 2450o at a location corresponding to the flip control affordance 2402a. As shown in FIG. 24P, the device 600 displays the representation 2430i in response to detecting the tap gesture 2450o. Representation 2430i includes visual content that is horizontally inverted (eg, creates a horizontal mirror image) from the visual content of representation 2430h. For example, a person sitting on the rectangular prism 2432 is moving from the right side in the representation 2430h to the left side of the representation 2430i. In some embodiments, in response to detecting a gesture 2450o on another flip control affordance, the device 600 flips the representation vertically (eg, creates a vertical mirror), where the bird 2440. Appears at the bottom of the adjusted representation.

図24Pでは、デバイス600は、回転コントロールアフォーダンス2402bに対応する場所でのタップジェスチャ2450pを検出する。図24Qに示すように、タップジェスチャ2450pを検出したことに応答して、デバイス600は、表現2430iを回転させて、表現2430jを表示する。表現2430jは、2:3アスペクト比を有し、これは、表現2430iの逆のアスペクト比である。しかしながら、ジェスチャが水平アスペクト比コントロールアフォーダンス626c1又は垂直アスペクト比コントロールアフォーダンス626c2に向けられていると検出されたときとは対照的に、デバイス600は、回転コントロールアフォーダンス2402bに対応する場所でのジェスチャに応答して、表現全体を回転させる。 In FIG. 24P, device 600 detects tap gesture 2450p at a location corresponding to rotation control affordance 2402b. As shown in FIG. 24Q, in response to detecting the tap gesture 2450p, the device 600 rotates the representation 2430i to display the representation 2430j. Representation 2430j has a 2: 3 aspect ratio, which is the opposite aspect ratio of representation 2430i. However, in contrast to when it is detected that the gesture is directed to the horizontal aspect ratio control affordance 626c1 or the vertical aspect ratio control affordance 626c2, the device 600 responds to the gesture at the location corresponding to the rotation control affordance 2402b. Then rotate the whole expression.

図24Qでは、デバイス600は、リセットアフォーダンス2402dに対応する場所でのタップジェスチャ2450qを検出する。図24Rに示すように、リセットアフォーダンス2402d上のタップジェスチャ2450qを検出したことに応答して、デバイス600は、表現2430bを表示し、図24B〜図24Qにおける表現を行う調整を行わない。調整を再設定すると、デバイス600は、調整可能な画像コンテンツコントロール2258a〜2258cに対応する以前の調整された値を再設定する(デバイス600が調整可能な水平遠近歪コントロール2258c上の水平遠近歪インジケーション2258c1を図24Iのその初期位置に動かすことによって示されるように)。その結果、画像コンテンツ値インジケータ2248a〜2248cは、調整可能な画像コンテンツコントロール2258a〜2258cの周りの表示を停止させる。 In FIG. 24Q, the device 600 detects the tap gesture 2450q at the location corresponding to the reset affordance 2402d. As shown in FIG. 24R, in response to detecting the tap gesture 2450q on the reset affordance 2402d, the device 600 displays representation 2430b and does not make adjustments to make the representation in FIGS. 24B-24Q. When the adjustment is reset, the device 600 resets the previously adjusted value corresponding to the adjustable image content controls 2258a-2258c (the device 600 resets the horizontal perspective distortion indicator on the adjustable horizontal perspective distortion control 2258c). (As shown by moving the content 2258c1 to its initial position in FIG. 24I). As a result, the image content value indicators 2248a-2248c stop the display around the adjustable image content controls 2258a-2258c.

図24Rでは、デバイス600は、自動調整アフォーダンス1036bに対応する場所でのタップジェスチャ2450rを検出する。図24Sに示すように、タップジェスチャ2450rを検出したことに応答して、デバイス600は、追加の入力なしで自動的に、表現2430kを表示する。表現2430kは、デバイス600が自動調整アルゴリズムに基づいて調整された表現2430bのバージョンである。図24Rにおいて、水平線2438の位置、垂直遠近歪(例えば、収束がより少ない垂直線2434a〜2434c)、及び水平遠近歪(例えば、収束がより少ない水平線2436a〜2436b)は、表現2430aの水平線2438の位置、垂直遠近歪、水平遠近歪とは異なる。 In FIG. 24R, the device 600 detects a tap gesture 2450r at a location corresponding to the auto-adjustment affordance 1036b. As shown in FIG. 24S, in response to detecting the tap gesture 2450r, the device 600 automatically displays the representation 2430k without any additional input. Representation 2430k is a version of representation 2430b in which device 600 is tuned based on an auto-tuning algorithm. In FIG. 24R, the position of horizontal line 2438, vertical perspective distortion (eg, vertical lines 2434a-2434c with less convergence), and horizontal perspective distortion (eg, horizontal lines 2436a-2436b with less convergence) are the horizontal lines 2438 of representation 2430a. Different from position, vertical perspective distortion, and horizontal perspective distortion.

図24Sでは、デバイス600は、取消アフォーダンス1036dに対応する場所でのタップジェスチャ2450sを検出する。図24Tに示すように、タップジェスチャ2450sを検出したことに応答して、デバイス600は、任意の調整なしのキャプチャされたメディアの表現である表現2430aを表示する。図24Tでは、デバイス600は、自動調整アフォーダンス1036bに対応する場所でのジェスチャ2450tを検出する。図24Uに示すように、タップジェスチャ2450tを検出したことに応答して、デバイス600は、追加の入力なしで自動的に、表現2430kを表示し、ここで、表現2430a(例えば、表現2430bと同じ)は、自動調整アルゴリズムに基づいて調整されている。 In FIG. 24S, the device 600 detects the tap gesture 2450s at the location corresponding to the cancellation affordance 1036d. As shown in FIG. 24T, in response to detecting the tap gesture 2450s, the device 600 displays representation 2430a, which is a representation of the captured media without any adjustment. In FIG. 24T, the device 600 detects the gesture 2450t at the location corresponding to the auto-adjustment affordance 1036b. As shown in FIG. 24U, in response to detecting the tap gesture 2450t, the device 600 automatically displays the representation 2430k without any additional input, where the representation 2430a (eg, the same as the representation 2430b). ) Is adjusted based on the automatic adjustment algorithm.

図24Uでは、デバイス600は、表現2430kに向けられたジェスチャ2450u(例えば、スワイプジェスチャ)を検出する。図24Vに示すように、ジェスチャ2450uを検出したことに応答して、デバイス600は、キャプチャされたメディアの表現2480aを表示する。図24Vにおいて、キャプチャされたメディアは、ライブアニメーション化された画像メディアに対応する。 In FIG. 24U, device 600 detects a gesture 2450u (eg, swipe gesture) directed at representation 2430k. As shown in FIG. 24V, in response to detecting the gesture 2450u, the device 600 displays a representation 2480a of the captured media. In FIG. 24V, the captured media corresponds to live animated image media.

図24V〜図24ABは、アニメーション化された画像メディア(例えば、図24V〜図24Y)及びビデオメディア(例えば、図24Z〜図24AB)を編集するように構成されているデバイス600を示す。具体的には、図24V〜図24ABは、デバイス600がアニメーション化された画像メディア及びビデオ画像メディアを編集するように構成されるときに、メディア編集ユーザインタフェースが類似のユーザインタフェース要素を表示することを示す。メディアの視覚特性(例えば、輝度、自動視覚特性値)を使用して、アニメーション化された画像メディア及びビデオ画像メディアを編集する、図22AE〜図22AMとは対照的に、図24V〜図24ABは、画像コンテンツを使用して、アニメーション化された画像メディア及びビデオ画像メディアを類似の方法(例えば、表現の水平線の位置を変更する)で編集することを示す。 24V to 24AB show a device 600 configured to edit animated image media (eg, FIGS. 24V to 24Y) and video media (eg, FIGS. 24Z to 24AB). Specifically, FIGS. 24V to 24AB show that the media editing user interface displays similar user interface elements when the device 600 is configured to edit animated image media and video image media. Is shown. 24V to 24AB, in contrast to FIGS. 22AE to 22AM, which edit animated image media and video image media using the visual characteristics of the media (eg, brightness, automatic visual characteristic values). , Indicates that the image content is used to edit animated image media and video image media in a similar manner (eg, repositioning the horizontal lines of the representation).

図24Vに示すように、デバイス600は、キャプチャされたアニメーション化された画像メディアの表現2480kを表示する。表現2480kがアニメーション化された画像メディアの表現であるため、デバイス600は、アニメーション化された画像メディア編集モードアフォーダンス2210eを表示する。アニメーション化された画像メディア編集モードアフォーダンス2210eの下のモード選択インジケータ2202eによって示されるように、アニメーション化された画像メディア編集モードアフォーダンス2210eが選択されるため、デバイス600は、アニメーション化された画像メディアアフォーダンス2220を表示する(例えば、図22AEに関連して上述したように)。 As shown in FIG. 24V, the device 600 displays a representation 2480k of the captured animated image media. Since the representation 2480k is a representation of the animated image media, the device 600 displays the animated image media edit mode affordance 2210e. Since the animated image media edit mode affordance 2210e is selected, as indicated by the mode selection indicator 2202e under the animated image media edit mode affordance 2210e, the device 600 has an animated image media affordance. Display 2220 (eg, as described above in connection with FIG. 22AE).

図24Vでは、デバイス600は、画像コンテンツ編集モードアフォーダンス2210dに対応する場所でのタップジェスチャ2450vを検出する。図24Wに示すように、タップジェスチャ2450vを検出したことに応答して、デバイス600は、アニメーション化された画像メディア内の表現2480k(又はサムネイル表現2420k)の場所に対応する位置に、スクラバインジケーションコントロール2240aとともにスクラバ2240を表示する。更には、デバイス600は、アニメーション化された画像メディアアフォーダンス2220を、画像コンテンツ編集ツールアフォーダンス2218に置き換え、画像コンテンツ編集モードアフォーダンス2210dの下にモード選択インジケータ2202dを、図24Cに関連して論じられるものと同様の技術を使用して表示する。 In FIG. 24V, the device 600 detects a tap gesture 2450v at a location corresponding to the image content edit mode affordance 2210d. As shown in FIG. 24W, in response to the detection of the tap gesture 2450v, the device 600 scrubbed in a position corresponding to the location of the representation 2480k (or thumbnail representation 2420k) in the animated image media. The scrubber 2240 is displayed together with the control 2240a. Further, the device 600 replaces the animated image media affordance 2220 with the image content editing tool affordance 2218, and a mode selection indicator 2202d under the image content editing mode affordance 2210d is discussed in connection with FIG. 24C. Display using the same technique as.

図24Wでは、デバイス600は、タップジェスチャ2450wを検出する。図24Xに示すように、タップジェスチャ2450wを検出したことに応答して、デバイス600は、(例えば、自動的に、ユーザ入力なしで)、表現2480kをまっすぐにして、表現2480lを表示する。図24Xでは、デバイス600は、スクラバ2240に向けられたジェスチャ2450x(例えば、左向きドラッグジェスチャ)を検出する。図24Vに示すように、ジェスチャ2450xを検出したことに応答して、デバイス600は、スクラバインジケーションコントロール2240aを、スクラバ2240上の新しい位置に動かす。具体的には、デバイス600は、スクラバインジケーションコントロール2240aを、図24Xのスクラバインジケーションコントロール2240aの位置の左にある新しい位置に動かす。更に、ジェスチャ2450xを検出したことに応答して、デバイス600は、表現2480lを、表現2480mに置き換える。表現2480mは、スクラバ2240上のスクラバインジケーションコントロール2240aの新しい位置に対応する時点のアニメーション化された画像のうちの1つを示す。したがって、表現2480mは、表現2480l(例えば、又は2480k)が対応するアニメーション化された画像メディア内の時間とは異なる、アニメーション化された画像メディア内の時間に対応する。図24Vに示すように、表現2480kを表示している間に、デバイス600が画像コンテンツ編集ツールアフォーダンス2218の1つ以上の現在値を調整して、表現2480lを表示したが、表現2480mはまた、画像コンテンツ編集ツールアフォーダンス2218の調整された1つ以上の現在値に基づいて調整された。したがって、アニメーション化された画像メディア内の特定の時点での表現のうちの1つを調整することはまた、アニメーション化された画像メディア内の異なる時点での他の表現を調整する。そのため、デバイス600が1つ以上の画像コンテンツ編集ツール値に関連付けられた1つ以上の現在値を調整している間に、アニメーション化された画像メディアの表現が表示されない場合であっても、ユーザがスクラバ2240を使用して、1つ以上の現在値を調整した後の表現への変化を閲覧できる。デバイス600は、図24Z〜図24ABに示すように、ビデオメディアについての類似のプロセスを完了する。図24AA及び図24ABに示すように、図24Z〜24AAにおける画像コンテンツ値を調整した後、デバイス600は、ユーザがスクラバ2240を使用して、1つ以上の現在値を調整した後の異なる表現への変化を閲覧できる。 In FIG. 24W, the device 600 detects the tap gesture 2450w. As shown in FIG. 24X, in response to detecting the tap gesture 2450w, the device 600 (eg, automatically, without user input) straightens the representation 2480k and displays the representation 2480l. In FIG. 24X, the device 600 detects a gesture 2450x (eg, leftward drag gesture) directed at the scrubber 2240. As shown in FIG. 24V, in response to detecting the gesture 2450x, the device 600 moves the scrubbing indication control 2240a to a new position on the scrubber 2240. Specifically, the device 600 moves the scrubbing control 2240a to a new position to the left of the scrubbing control 2240a in FIG. 24X. Further, in response to detecting the gesture 2450x, the device 600 replaces the representation 2480l with the representation 2480m. Representation 2480 m represents one of the animated images at the time corresponding to the new position of the scrubbing indication control 2240a on the scrubber 2240. Thus, the representation 2480m corresponds to a time in the animated image media that is different from the time in the corresponding animated image media for the representation 2480l (eg, or 2480k). As shown in FIG. 24V, while displaying the representation 2480k, the device 600 adjusted one or more current values of the image content editing tool affordance 2218 to display the representation 2480l, but the representation 2480m also Adjusted based on one or more adjusted current values of the image content editing tool Affordance 2218. Therefore, adjusting one of the representations at a particular point in time in the animated image media also adjusts the other representations at different times in the animated image media. Thus, even if the animated image media representation is not displayed while the device 600 is adjusting one or more current values associated with the one or more image content editing tool values, the user Can use the scrubber 2240 to view changes to the representation after adjusting for one or more current values. Device 600 completes a similar process for video media, as shown in FIGS. 24Z-24AB. After adjusting the image content values in FIGS. 24Z-24AA, as shown in FIGS. 24AA and 24AB, the device 600 goes to a different representation after the user has adjusted one or more current values using the scrubber 2240. You can browse the changes in.

図25A〜図25Bは、いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。方法2500は、表示デバイス(例えば、タッチ感知ディスプレイ)を備えたデバイス(例えば、100、300、500、600)にて行われる。方法2500のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 25A-25B are flow diagrams illustrating a method for editing media captured using an electronic device according to some embodiments. Method 2500 is performed on a device (eg, 100, 300, 500, 600) equipped with a display device (eg, a touch-sensitive display). Some actions of Method 2500 are optionally combined, some actions are arbitrarily modified, and some actions are optionally omitted.

後述するように、方法2500は、キャプチャされたメディアを編集するための直感的な仕方を提供する。この方法は、メディアを編集する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアを編集することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, Method 2500 provides an intuitive way to edit the captured media. This method reduces the user's cognitive burden when editing media, thereby creating a more efficient human-machine interface. For battery-powered computing devices, it saves power and prolongs the time between battery charges by enabling users to edit media faster and more efficiently.

電子デバイス(例えば、600)は、表示デバイス(例えば、タッチ感知ディスプレイ)を介して、第1の視覚メディア(例えば、画像、ビデオのフレーム)の第1の表現(例えば、表現2430a〜2430k)(2504)と、第1の視覚メディアの遠近歪(例えば、2218−c)(例えば、(画像の現在の水平線、垂直線、平行線の)歪み状態、遠近歪状態)に対する現在の調整量(例えば、垂直度、水平度、又は水平線調整度)のインジケーション(例えば、2258a1〜2258c1)(例えば、スライダ上の第1の位置にあるスライダコントロール)を含む調整可能なコントロール(2506)(例えば、2258a〜2258c)(例えば、グラフィカルコントロール要素(例えば、スライダ))と、を同時に表示することを含む第1のユーザインタフェース(例えば、クロッピングユーザインタフェース及び/又はプロスペクティブ編集ユーザインタフェース)を表示する(2502)。 The electronic device (eg, 600) has a first representation (eg, representations 2430a-2430k) of the first visual media (eg, image, video frame) via a display device (eg, touch-sensitive display) (eg, representations 2430a-2430k). 2504) and the current amount of adjustment (eg, perspective distortion) for the perspective distortion (eg, 2218-c) of the first visual media (eg, the distorted state (eg, the current horizontal, vertical, parallel) state of the image). Adjustable controls (2506) (eg, 2258a), including indications of verticality, levelness, or horizon adjustment (eg, 2258a1-2258c1) (eg, slider control in first position on the slider). ~ 2258c) (eg, graphical control elements (eg, sliders)) and a first user interface (eg, cropping user interface and / or prospective editing user interface) that includes displaying at the same time (2502). ..

いくつかの実施形態では、第1のユーザインタフェースは、第1のアフォーダンス(例えば、2218c)を含み(2508)、第1のアフォーダンスは、選択されると、第1の視覚メディアの水平遠近歪に対する現在の調整量を示すように、調整可能なコントロールのインジケーションを更新し、かつユーザ入力に基づいて第1の視覚メディアの水平遠近歪に対する現在の調整量の調整を可能にするように調整可能なコントロールを構成する。いくつかの実施形態では、水平遠近歪調整アフォーダンス上のタップを検出したことに応答して、電子デバイスは、第1の視覚メディアの遠近歪の現在の調整量が水平遠近歪の調整の現在の量に対応するように、調整可能なコントロール(例えば、2545c)を構成する。いくつかの実施形態では、第1のユーザインタフェースは、第2のアフォーダンス(例えば、2218b)を含み(2510)、第2のアフォーダンスは、選択されると、第1の視覚メディアの垂直遠近歪に対する現在の調整量を示すように、調整可能なコントロールのインジケーションを更新し、かつユーザ入力に基づいて第1の視覚メディアの垂直遠近歪に対する現在の調整量の調整を可能にするように調整可能なコントロールを構成する。いくつかの実施形態では、垂直遠近歪調整アフォーダンス上のタップを検出したことに応答して、電子デバイスは、第1の視覚メディアの遠近歪の現在の調整量が垂直遠近歪の調整の現在の量に対応するように、調整可能なコントロール(例えば、2454b)を構成する。 In some embodiments, the first user interface comprises a first affordance (eg, 2218c) (2508), and the first affordance, when selected, is for horizontal perspective distortion of the first visual media. The adjustable control interface is updated to indicate the current adjustment amount, and can be adjusted to allow adjustment of the current adjustment amount for the horizontal perspective distortion of the first visual media based on user input. Controls. In some embodiments, in response to detecting a tap on the horizontal perspective distortion adjustment affordance, the electronic device determines that the current adjustment amount of the perspective distortion of the first visual medium is the current adjustment amount of the horizontal perspective distortion adjustment. Adjustable controls (eg, 2545c) are configured to correspond to the quantity. In some embodiments, the first user interface comprises a second affordance (eg, 2218b) (2510), and the second affordance, when selected, is for vertical perspective distortion of the first visual media. The adjustable control interface is updated to indicate the current adjustment amount, and can be adjusted to allow adjustment of the current adjustment amount for vertical perspective distortion of the first visual media based on user input. Controls. In some embodiments, in response to detecting a tap on the vertical perspective distortion adjustment affordance, the electronic device determines that the current adjustment amount of the perspective distortion of the first visual medium is the current adjustment amount of the vertical perspective distortion adjustment. Adjustable controls (eg, 2454b) are configured to correspond to the quantity.

いくつかの実施形態では、第1のアフォーダンス(例えば、2218c)及び第2のアフォーダンス(例えば、2218b)を(例えば、同時に)表示している間に、選択されると、第1の視覚メディアの第1の表現内の視覚コンテンツを回転させる現在の調整量を示す(例えば、視覚コンテンツ内の第1の実視水平線をまっすぐにする)ように、調整可能なコントロールのインジケーションを更新する、第3のアフォーダンス(例えば、2218a)を同時に表示する(2512)。いくつかの実施形態では、視点矯正調整アフォーダンス上のタップを検出したことに応答して、電子デバイスは、第1の視覚メディアの水平線補正の現在の調整量が水平線補正の調整の現在の量に対応するように、調整可能なコントロール(例えば、2454a)を構成する。 In some embodiments, when selected while displaying the first affordance (eg, 2218c) and the second affordance (eg, 2218b) (eg, at the same time), the first visual media. Update the indication of the adjustable control to indicate the current amount of adjustment to rotate the visual content in the first representation (eg, straighten the first real-view horizon in the visual content). 3 affordances (eg, 2218a) are displayed simultaneously (2512). In some embodiments, in response to detecting a tap on the viewpoint correction adjustment affordance, the electronic device causes the current adjustment amount of the horizon correction of the first visual medium to be the current amount of the horizon correction adjustment. Correspondingly, an adjustable control (eg, 2454a) is configured.

表示デバイス上に、第1のユーザインタフェースを表示している間に、電子デバイスは、調整可能なコントロール(例えば、2258a〜2258c)に向けられた(例えば、上で)ジェスチャ(例えば、スワイプ又はドラッグジェスチャ)を含むユーザ入力(例えば、2450d、2450g、2450i)を検出する(2514)。 While displaying the first user interface on the display device, the electronic device is directed (eg, on) a gesture (eg, swipe or drag) towards an adjustable control (eg, 2258a-2258c). It detects user inputs (eg, 2450d, 2450g, 2450i) that include gestures (2514).

調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出したことに応答して、電子デバイスは、表示デバイス上に、ジェスチャの大きさに基づいて選択された遠近歪に対するそれぞれの調整量(例えば、ジェスチャが第1の大きさを有するときに第1の量によって現在の量の遠近歪を調整する、及びジェスチャが第1の大きさとは異なる第2の大きさを有するときに第1の量とは異なる第2の量によって遠近歪を調整する現在の量の遠近歪)で第1の視覚メディア(例えば、画像、ビデオのフレーム)の第2の表現(例えば、2530c〜2430k)を表示する(2516)。いくつかの実施形態では、第2の表現が特定の場所(例えば、表示を停止する前の第1の表現の以前の場所)に表現されると、第2の表現を、第1の表現に置き換える。編集可能パラメータを調整する調整可能なコントロールを提供すること、及び調整可能なコントロールに向けられた入力に応答して、調整された表現を表示することにより、ユーザが意図せずに表現を変更することを回避すること、及び同時に、調整可能なコントロールへの入力が入力に基づいて表現を変更することをユーザが認識できるようにすることにより、デバイスの更なるコントロールをユーザに提供する。表示される追加コントローラによってUIを雑然とさせることなく、追加制御できるようにすることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In response to detecting a user input containing a gesture directed at an adjustable control, the electronic device, on the display device, each adjustment amount (eg, for example) for perspective distortion selected based on the size of the gesture. , Adjust the perspective distortion of the current quantity by the first quantity when the gesture has the first magnitude, and the first quantity when the gesture has a second magnitude different from the first magnitude. Display a second representation (eg, 2530c to 2430k) of the first visual medium (eg, image, video frame) with the current amount of perspective distortion that adjusts the perspective distortion by a second quantity different from (2516). In some embodiments, when the second expression is expressed in a particular place (eg, the place before the first expression before the display is stopped), the second expression becomes the first expression. replace. The user unintentionally modifies the representation by providing an adjustable control that adjusts the editable parameters and displaying the adjusted representation in response to input directed to the adjustable control. By avoiding this and at the same time allowing the user to recognize that the input to the adjustable control changes the representation based on the input, it provides the user with more control over the device. The additional controller displayed allows additional control without cluttering the UI, which enhances the usability of the device and makes the user-device interface (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.

いくつかの実施形態では、遠近歪は、水平遠近歪(例えば、2218c、2436a〜2436b)に対応する。いくつかの実施形態では、第1の視覚メディアの第1の表現の水平遠近歪の量は、第1の視覚メディアの第2の表現の水平遠近歪の量とは異なる。いくつかの実施形態では、第1の表現は、水平遠近歪が少ない。 In some embodiments, the perspective strain corresponds to a horizontal perspective strain (eg, 2218c, 2436a-2436b). In some embodiments, the amount of horizontal perspective distortion of the first representation of the first visual medium is different from the amount of horizontal perspective distortion of the second representation of the first visual medium. In some embodiments, the first representation has less horizontal perspective distortion.

いくつかの実施形態では、遠近歪は、垂直遠近歪(例えば、2218b、2434a〜2434b)(例えば、実世界で平行な線は画像内では平行線でないように、カメラ角度及び/又はレンズによって引き起こされる画像の歪み)に対応する。いくつかの実施形態では、第1の視覚メディアの第1の表現の垂直遠近歪の量は、第1の視覚メディアの第2の表現の垂直遠近歪の量とは異なる。いくつかの実施形態では、第1の表現は、垂直遠近歪が少ない。 In some embodiments, the perspective distortion is caused by the camera angle and / or lens so that the vertical perspective distortion (eg, 2218b, 2434a-2434b) (eg, parallel lines in the real world are not parallel lines in the image). Corresponds to image distortion). In some embodiments, the amount of vertical perspective distortion of the first representation of the first visual medium is different from the amount of vertical perspective distortion of the second representation of the first visual medium. In some embodiments, the first representation has less vertical perspective distortion.

いくつかの実施形態では、第1の表現は、第1の実視水平線(例えば、2218a、2238)を含む。いくつかの実施形態では、第1の視覚メディアの第1の表現が、第1の視覚メディアの表現内の視覚境界部に対する回転度(例えば、画像内の水平線(例えば、スカイライン))を含む間に、電子デバイスは、第1の視覚メディアの表現の回転度を変化させる入力を電子デバイス検出する。いくつかの実施形態では、第1の視覚メディアの表現の回転度を変化させる入力(例えば、表現内の水平線をまっすぐにするために表現内の視覚コンテンツを回転する)を検出したことに応答して、電子デバイスは、入力に基づいて判定された量だけ第1の視覚メディアの表現を回転する(例えば、画像の縁部に対して画像の水平線がまっすぐになるように、第1の視覚メディアの表現を回転する)。 In some embodiments, the first representation includes a first real-view horizon (eg, 2218a, 2238). In some embodiments, while the first representation of the first visual medium includes a degree of rotation (eg, a horizon in the image (eg, skyline)) with respect to a visual boundary within the representation of the first visual media. In addition, the electronic device detects an input that changes the degree of rotation of the representation of the first visual medium. In some embodiments, it responds to detecting an input that changes the degree of rotation of the representation in the first visual medium (eg, rotating the visual content in the representation to straighten the horizon in the representation). The electronic device then rotates the representation of the first visual media by an amount determined based on the input (eg, the first visual media so that the horizontal line of the image is straight with respect to the edges of the image). Rotate the expression of).

いくつかの実施形態では、第1の表現(例えば、2430g)は、第1の視覚メディアの第1の視覚コンテンツを含む。いくつかの実施形態では(例えば、図24K〜図24L)、第1の視覚メディアの第1の表現が第1の視覚コンテンツ(例えば、メディアがキャプチャされたときにキャプチャされたコンテンツ)を含む間に、電子デバイスは、第1の表現のコンテンツを変化させる1組の1つ以上の入力(例えば、自動調整アフォーダンス上でのタップ、画像をクロップするために第1の位置から第2の位置への視覚境界部のドラッグ)を検出する。いくつかの実施形態では(例えば、図24K〜図24L)、第1の視覚メディアの第1の表現のコンテンツを変化させる1組の1つ以上の入力を検出したことに応答して、電子デバイスは、第1の視覚メディアの第1の視覚コンテンツとは異なる第1の視覚メディアの第2の視覚コンテンツを含む第1の視覚メディアの第4の表現を表示する。いくつかの実施形態では(例えば、図24K〜図24L)、第3の表現は、第1の表現に含まれる視覚コンテンツよりも、第1の視覚メディアの視覚コンテンツをより多く含む。いくつかの実施形態では(例えば、図24K〜図24L)、第3の表現は、第1の表現に含まれる視覚コンテンツよりも、第1の視覚メディアの視覚コンテンツをより少なく含む。いくつかの実施形態では、第3の表現は、第1の表現に含まれる視覚コンテンツよりも、第1の視覚メディアの視覚コンテンツをより少なく含む。いくつかの実施形態では(例えば、図24K〜24L)、第2の視覚コンテンツは、追加のコンテンツ(例えば、第1の表現に表されない視覚コンテンツデータ(例えば、メディアをキャプチャしたときからの、動作に有用なコンテンツ及びデータ)を含む、第2の視覚メディアに対応するファイルからのコンテンツ)である。 In some embodiments, the first representation (eg, 2430 g) includes the first visual content of the first visual medium. In some embodiments (eg, FIGS. 24K to 24L), while the first representation of the first visual media includes the first visual content (eg, the content captured when the media was captured). In addition, the electronic device is a set of one or more inputs that change the content of the first representation (eg, tap on auto-adjustment affordance, from first position to second position to crop the image. (Drag of the visual boundary) is detected. In some embodiments (eg, FIGS. 24K to 24L), the electronic device responds by detecting one or more sets of inputs that alter the content of the first representation of the first visual medium. Displays a fourth representation of the first visual media that includes a second visual content of the first visual media that is different from the first visual content of the first visual media. In some embodiments (eg, FIGS. 24K to 24L), the third representation contains more visual content of the first visual media than the visual content contained in the first representation. In some embodiments (eg, FIGS. 24K to 24L), the third representation contains less visual content of the first visual media than the visual content contained in the first representation. In some embodiments, the third representation contains less visual content of the first visual medium than the visual content contained in the first representation. In some embodiments (eg, FIGS. 24K-24L), the second visual content is an operation from when additional content (eg, visual content data not represented in the first representation (eg, media is captured)). Content from a file that corresponds to a second visual medium), including content and data) that are useful to.

いくつかの実施形態では、第1のユーザインタフェースは、自動調整アフォーダンス(例えば、1036b)を含む。いくつかの実施形態では(例えば、図24R)、電子デバイスは、自動調整アフォーダンスに対応する入力(例えば、タップジェスチャ)を検出する。いくつかの実施形態では(例えば、図24R〜図24S)、自動調整アフォーダンスに対応する入力を検出したことに応答して、電子デバイスは、自動的に(例えば、更なるユーザ入力なしで;値を指定するユーザ入力なしで)、水平遠近歪パラメータ(例えば、水平遠近歪補正量)、垂直遠近歪パラメータ(例えば、垂直遠近歪補正量)、回転パラメータ(例えば、回転量)からなる群から選択される第1の視覚メディアの2つ以上のパラメータの現在値を、(例えば、第1の視覚メディアのアルゴリズム及び特性に基づいて)調整する。いくつかの実施形態では、2つ以上のパラメータの選択された現在値の大きさ、方向は、視覚メディアのコンテンツの分析に基づいて、デバイスによって自動的に選択される(例えば、視覚メディアの分析に基づいて、より多くの水平遠近歪が検出されると、より多くの水平遠近歪補正が選択され、視覚メディアの分析に基づいて、より少ない水平遠近歪が検出されると、より少ない水平遠近歪補正が選択され、視覚メディアの分析に基づいて、より多くの垂直遠近歪が検出されると、より多くの垂直遠近歪補正が選択され、視覚メディアの分析に基づいて、より少ない垂直遠近歪が検出されると、より少ない垂直遠近歪補正が選択され、視覚メディアの分析に基づいて、より多くの水平線回転が検出されると、より多くの回転が選択され、視覚メディアの分析に基づいて、より少ない水平線回転が検出されると、より少ない回転が選択される)。いくつかの実施形態では、デバイスは、水平遠近歪パラメータ(例えば、量の水平遠近歪補正)、垂直遠近歪パラメータ(例えば、量の垂直遠近歪補正)、及び回転パラメータ(例えば、回転量)、及び視覚コンテンツパラメータへ変更を自動的に適用する。いくつかの実施形態では、視覚コンテンツの表現は、他のパラメータを調整している間に、(例えば、より多くの又は少ないコンテンツを表示するために)自動的にクロップされる。いくつかの実施形態では、自動調整アフォーダンスに対応する入力を検出したことに応答して、電子デバイスは、2つ以上の調整されたパラメータの調整された現在値に基づいて、第1の視覚メディアの第5の表現を(例えば、自動的に)表示する。自動調整アルゴリズムに基づいて表現を自動的に更新することにより、ユーザは、自動調整アルゴリズムが表現をどのように変化したかを迅速に判定することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the first user interface comprises an auto-tuning affordance (eg, 1036b). In some embodiments (eg, FIG. 24R), the electronic device detects an input (eg, tap gesture) that corresponds to an auto-adjustment affordance. In some embodiments (eg, FIGS. 24R-24S), the electronic device automatically (eg, without further user input; value; in response to detecting an input corresponding to the self-adjusting quantity. Select from the group consisting of horizontal perspective distortion parameter (for example, horizontal perspective distortion correction amount), vertical perspective distortion parameter (for example, vertical perspective distortion correction amount), and rotation parameter (for example, rotation amount). The current values of two or more parameters of the first visual media to be adjusted are adjusted (eg, based on the algorithm and characteristics of the first visual media). In some embodiments, the magnitude and orientation of the selected current values of two or more parameters are automatically selected by the device based on the analysis of the visual media content (eg, visual media analysis). If more horizontal perspective distortion is detected based on, more horizontal perspective distortion correction is selected, and if less horizontal perspective distortion is detected based on visual media analysis, less horizontal perspective distortion is detected. When distortion correction is selected and more vertical perspective distortion is detected based on visual media analysis, more vertical perspective correction is selected and less vertical perspective distortion is detected based on visual media analysis. When is detected, less vertical perspective distortion correction is selected and based on the analysis of the visual media, when more horizontal line rotations are detected, more rotations are selected and based on the analysis of the visual media. , If less horizontal line rotation is detected, less rotation is selected). In some embodiments, the device comprises horizontal perspective distortion parameters (eg, quantitative horizontal perspective distortion correction), vertical perspective distortion parameters (eg, quantitative vertical perspective distortion correction), and rotation parameters (eg, amount of rotation). And automatically apply changes to visual content parameters. In some embodiments, the representation of the visual content is automatically cropped (eg, to display more or less content) while adjusting other parameters. In some embodiments, in response to detecting an input corresponding to an auto-adjusted affordance, the electronic device is a first visual medium based on the adjusted current values of two or more adjusted parameters. Display the fifth expression of (eg, automatically). By automatically updating the representation based on the auto-tuning algorithm, the user can quickly determine how the auto-tuning algorithm has changed the representation. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

いくつかの実施形態では(例えば、24R〜24U)、自動調整アフォーダンスを含む第1のユーザインタフェースを表示している間に、電子デバイスは、第1のユーザインタフェースとは異なる第3のユーザインタフェースを表示する要求に対応する第2の1組の1つ以上の入力(例えば、第3のユーザインタフェースをナビゲーションするアフォーダンス上でのタップ)を検出する。いくつかの実施形態では(例えば、24R〜24U)、第2の1組の1つ以上の入力を検出したことに応答して、電子デバイスは、(例えば、メディア編集ユーザインタフェースを表示する前に、メディア編集ユーザインタフェースを表示した後に)表示デバイス上に、第3のユーザインタフェース(例えば、メディアビューワインタフェース(例えば、メディアギャラリー))を表示する。いくつかの実施形態では(例えば、24R〜24U)、第3のユーザインタフェースを表示することは、第2の視覚メディアの視覚コンテンツの少なくとも一部分の表現を表示することを含む。いくつかの実施形態では(例えば、24R〜24U)、第2の視覚メディアが視覚コンテンツ(例えば、第2の視覚メディアの視覚コンテンツの少なくとも一部分の表現に表されない視覚コンテンツ)(例えば、第2の視覚メディアに対応するファイルは、表現に表されない視覚コンテンツデータ(例えば、編集動作を含む、動作に有用なコンテンツ及びデータ)を含む)の所定の空間的境界の外側(例えば、視覚コンテンツの当初キャプチャされたフレームの外側、又は視覚コンテンツの現在クロッピングされているフレームの外側)にある追加の視覚コンテンツを含むという判定に従って、電子デバイスは、自動調整インタフェース(例えば、図24Rの1036b)を表示する。いくつかの実施形態では、第2の視覚メディアが視覚コンテンツ(例えば、第2の視覚メディアの視覚コンテンツの少なくとも一部分の表現に表されない視覚コンテンツ)の所定の空間的境界の外側(例えば、視覚コンテンツの当初キャプチャされたフレームの外側、又は視覚コンテンツの現在クロッピングされているフレームの外側)にある追加の視覚コンテンツを含まないという判定に従って、電子デバイスは、自動調整インタフェースを表示するのをやめる。 In some embodiments (eg, 24R-24U), the electronic device provides a third user interface that is different from the first user interface while displaying a first user interface that includes an auto-tuning affordance. Detects one or more inputs in a second set corresponding to the request to be displayed (eg, taps on affordances navigating the third user interface). In some embodiments (eg, 24R-24U), in response to detecting one or more inputs in a second set, the electronic device (eg, before displaying the media editing user interface) Display a third user interface (eg, media viewer interface (eg, media gallery)) on the display device (after displaying the media edit user interface). In some embodiments (eg, 24R-24U), displaying the third user interface comprises displaying at least a portion of the visual content of the second visual medium. In some embodiments (eg, 24R-24U), the second visual media is visual content (eg, visual content that is not represented in the representation of at least a portion of the visual content of the second visual media) (eg, second The file corresponding to the visual media is outside a predetermined spatial boundary (eg, an initial capture of the visual content) of unrepresented visual content data (eg, content and data useful for the action, including editing actions). The electronic device displays an auto-tuning interface (eg, 1036b in FIG. 24R) according to the determination that it contains additional visual content outside the frame being framed, or outside the currently cropped frame of the visual content. In some embodiments, the second visual media is outside a predetermined spatial boundary of the visual content (eg, visual content that is not represented in the representation of at least a portion of the visual content of the second visual media) (eg, visual content). The electronic device ceases to display the auto-tuning interface according to the determination that it does not contain any additional visual content that is outside the originally captured frame of the visual content or outside the currently cropped frame of the visual content.

いくつかの実施形態では(例えば、24R〜24U)、第1の視覚メディアの第1の表現は、第1の視覚メディアがキャプチャされたときにもまた、キャプチャされた視覚コンテンツの所定の空間的境界の外側(例えば、視覚コンテンツの当初キャプチャされたフレームの外側、又は視覚コンテンツの現在クロッピングされているフレームの外側)にある追加の視覚コンテンツを含まない第1の視覚メディアの視覚コンテンツの第1の部分の表現である(例えば、基づく)。いくつかの実施形態では、第1の視覚メディアの第2の表現は、第1の視覚メディアがキャプチャされたときにもまたキャプチャされた、視覚コンテンツの所定の空間的境界の外側(例えば、視覚コンテンツの当初キャプチャされたフレームの外側又は視覚コンテンツの現在クロッピングされているフレームの外側)にある追加の視覚コンテンツの少なくとも一部分を含む(例えば、第2の表現の遠近歪は、第1の表現を生成するために使用されなかった視覚コンテンツデータ(例えば、第2のメディアがキャプチャされた時点でキャプチャ又は記憶されたコンテンツデータ)を使用して生成された)。 In some embodiments (eg, 24R-24U), the first representation of the first visual media also when the first visual media is captured, the predetermined spatial of the captured visual content. The first visual content of the first visual media that does not contain additional visual content outside the boundaries (eg, outside the originally captured frame of the visual content, or outside the currently cropped frame of the visual content). Is a representation of the part (eg, based). In some embodiments, the second representation of the first visual media is outside the predetermined spatial boundaries of the visual content that was also captured when the first visual media was captured (eg, visual). The perspective distortion of the second representation contains at least a portion of the additional visual content that is outside the originally captured frame of the content or outside the currently cropped frame of the visual content (eg, the perspective distortion of the second representation makes the first representation. Visual content data that was not used to generate (eg, content data that was captured or stored when the second media was captured).

いくつかの実施形態では、第1の視覚メディアの第1の表現は、第1のアスペクト比で表示される(例えば、図24J)。いくつかの実施形態では、第1のユーザインタフェースは、アスペクト比アフォーダンスを含む(例えば、626c)。いくつかの実施形態では、第1の視覚メディアの第1の表現を表示している間に、電子デバイスは、アスペクト比アフォーダンスに対応するユーザ入力を検出する。いくつかの実施形態では、アスペクト比アフォーダンスに対応するユーザ入力を検出したことに応答して、電子デバイスは、第1のアスペクト比とは異なる第2のアスペクト比で第1の視覚メディアの第6の表現を表示する(例えば、図24K)。いくつかの実施形態では、アスペクト比ボタンは、第1の視覚メディアの表現のアスペクト比を調整するために使用される調整可能なコントロール(例えば、スライダ)を有する。ユーザ入力を受信したことに応答して、以前に表示されたアスペクト比のアスペクト比を自動的に変更することにより、ユーザは、表現を回転させることなく、表現に対するアスペクト比の変化を見ることができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the first representation of the first visual medium is displayed in the first aspect ratio (eg, FIG. 24J). In some embodiments, the first user interface includes aspect ratio affordances (eg, 626c). In some embodiments, the electronic device detects the user input corresponding to the aspect ratio affordance while displaying the first representation of the first visual medium. In some embodiments, in response to detecting a user input corresponding to the aspect ratio affordance, the electronic device has a sixth aspect ratio of the first visual medium with a second aspect ratio different from the first aspect ratio. Is displayed (for example, FIG. 24K). In some embodiments, the aspect ratio button has an adjustable control (eg, a slider) used to adjust the aspect ratio of the representation of the first visual media. By automatically changing the aspect ratio of the previously displayed aspect ratio in response to receiving user input, the user can see the change in aspect ratio to the expression without rotating the expression. can. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

いくつかの実施形態では、第1の視覚メディアの第1の表現は、第1の向き(例えば、元の向き、非回転の向き)で表示される。いくつかの実施形態では、第1のアスペクト比は、第1の水平アスペクト値(例えば、長さ)及び第1の垂直アスペクト値(例えば、2430d)を有する。いくつかの実施形態では、第1のユーザインタフェースは、アスペクト比アフォーダンスを含む(例えば、626c1又は626c2)。いくつかの実施形態では、第1の視覚メディアの第1の表現を表示している間に、電子デバイスは、アスペクト比アフォーダンスに対応するユーザ入力を表示する(例えば、2450m)。いくつかの実施形態では、アスペクト比アフォーダンスに対応するユーザ入力を検出したことに応答して、電子デバイスは、第1の視覚メディアの第1の表現を回転させることなく、第1のアスペクト比とは異なる第3のアスペクト比に対応する第1の視覚メディアの一部分を示す視覚的フィードバックを表示する(例えば、図24N;608)。いくつかの実施形態では、第3のアスペクト比は、第1の垂直アスペクト比値と等しい第2の水平アスペクト比値を有する。いくつかの実施形態では、第3のアスペクト比は、第1の水平アスペクト比値と等しい第2の垂直アスペクト比値を有する(例えば、第2のアスペクト比は、第1のアスペクト比値の反転(例えば、逆数)である(例えば、3:4と比較して4:3、9:16と比較して16:9))。ユーザ入力を受信したことに応答して、以前に表示されたアスペクト比の逆のアスペクト比を自動的に表示することにより、ユーザは、表現を回転させることなく、表現に対するアスペクト比の変化を見ることができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the first representation of the first visual medium is displayed in a first orientation (eg, original orientation, non-rotating orientation). In some embodiments, the first aspect ratio has a first horizontal aspect value (eg, length) and a first vertical aspect value (eg, 2430d). In some embodiments, the first user interface comprises an aspect ratio affordance (eg, 626c1 or 626c2). In some embodiments, while displaying the first representation of the first visual medium, the electronic device displays the user input corresponding to the aspect ratio affordance (eg, 2450 m). In some embodiments, in response to detecting a user input corresponding to the aspect ratio feedback, the electronic device with the first aspect ratio without rotating the first representation of the first visual media. Displays visual feedback showing a portion of the first visual media corresponding to a different third aspect ratio (eg, FIG. 24N; 608). In some embodiments, the third aspect ratio has a second horizontal aspect ratio value equal to the first vertical aspect ratio value. In some embodiments, the third aspect ratio has a second vertical aspect ratio value equal to the first horizontal aspect ratio value (eg, the second aspect ratio is the inversion of the first aspect ratio value). (For example, the inverse number) (for example, 4: 3 compared to 3: 4 and 16: 9 compared to 9:16). By automatically displaying the opposite aspect ratio of the previously displayed aspect ratio in response to receiving user input, the user sees the change in aspect ratio to the expression without rotating the expression. be able to. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

いくつかの実施形態では、第1の視覚メディアが異なる時間に対応する複数のコンテンツのフレームを含む(例えば、ライブフォト又はビデオ)(例えば、図24Y〜図24AB)という判定に従って、電子デバイスは、画像の遠近歪、クロッピング、及び/又は回転を調整する1つ以上のコントロールとともに、第1の視覚メディアに対応するコンテンツのどのフレームが表示されるかを調整する調整可能なコントロールを表示する。いくつかの実施形態では(例えば、図24Y〜図24AB)、第1の視覚メディアが異なる時間に対応する複数のコンテンツのフレームを含まないという判定に従って、電子デバイスは、画像の遠近歪、クロッピング、及び/又は回転を調整する1つ以上のコントロールとともに、第1の視覚メディアに対応するコンテンツの、どのフレームが表示されるかを調整する調整可能なコントロールを表示するのをやめる。視覚メディア内の異なる時間フレームでのコンテンツのフレームを表示することにより、ユーザは、ユーザがメディアの各フレームに、編集可能パラメータに特定の変更を再適用する必要なく、編集可能パラメータへの変化がメディア(例えば、ビデオ)の2つ以上の特定のフレームにどのように影響するかの視覚的フィードバックをすることができる。表示される追加コントローラによってUIを雑然とさせることなく、追加制御できるようにすることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the electronic device is subject to determination that the first visual medium comprises multiple frames of content corresponding to different times (eg, live photo or video) (eg, FIGS. 24Y-24AB). Display an adjustable control that adjusts which frame of the content corresponding to the first visual media is displayed, along with one or more controls that adjust the perspective distortion, cropping, and / or rotation of the image. In some embodiments (eg, FIGS. 24Y-24AB), according to the determination that the first visual medium does not contain frames of multiple contents corresponding to different times, the electronic device distorts the image, crops, and so on. And / or stop displaying an adjustable control that adjusts which frame of the content corresponding to the first visual media is displayed, along with one or more controls that adjust the rotation. By displaying frames of content in different time frames within the visual media, users can change to editable parameters without having to reapply specific changes to the editable parameters for each frame of the media. You can give visual feedback on how it affects two or more specific frames of media (eg, video). The additional controller displayed allows additional control without cluttering the UI, which enhances the usability of the device and makes the user-device interface (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.

いくつかの実施形態では(例えば、図24Y〜図24AB)、視覚境界部(例えば、608)は、第1の視覚メディアの第7の表現であって、第7の表現が、第1の視覚メディア内の第1の時間に対応する、第7の表現の第1の部分の周囲に表示される。いくつかの実施形態では、第1の視覚メディアに対応するコンテンツの、どのフレームが表示されるかを調整する調整可能なコントロール(例えば、2240、2240a)を表示している間に、電子デバイスは、それぞれの時間に対応する第1の視覚メディアの時間ベースの表現を選択する要求を検出する。いくつかの実施形態では、それぞれの時間に対応する第1の視覚メディアの時間ベースの表現を選択する要求を検出したことに応答して、電子デバイスは、第1の視覚メディア内の第2の時間(例えば、ビデオ内の6分間)に対応する第1の視覚メディアの第8の表現を表示する。いくつかの実施形態では(例えば、図24Y〜図24AB)、それぞれの時間に対応する第1の視覚メディアの時間ベースの表現を選択する要求を検出したことに応答して、電子デバイスは、視覚境界部の表示を維持する。いくつかの実施形態では、視覚境界部は、第1の視覚メディアの第8の表現の第1の部分の周囲に表示される。いくつかの実施形態では(例えば、図24Y〜図24AB)、それぞれの時間に対応する第1の視覚メディアの時間ベースの表現を選択する調整可能なコントロール(例えば、表示されている表現に基づいて更新されない)は、表示デバイス上のそれぞれの場所(例えば、固定の場所)に表示される(例えば、ビデオ上の固定の場所に表示されたクロッピングフレーム、クロッピングフレームは、異なるビデオのフレームが表示されている間に固定の場所に留まる)。視覚メディア内の異なる時間フレームでのコンテンツのフレームを表示することにより、ユーザは、ユーザがメディアの各フレームに、編集可能パラメータに特定の変更を再適用する必要なく、編集可能パラメータへの変化がメディア(例えば、ビデオ)の2つ以上の特定のフレームにどのように影響するかの視覚的フィードバックをすることができる。表示される追加コントローラによってUIを雑然とさせることなく、追加制御できるようにすることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments (eg, FIGS. 24Y-24AB), the visual boundary (eg, 608) is the seventh representation of the first visual medium, with the seventh representation being the first vision. It is displayed around the first part of the seventh representation, which corresponds to the first time in the media. In some embodiments, the electronic device displays an adjustable control (eg, 2240, 2240a) that adjusts which frame of the content corresponding to the first visual medium is displayed. Detects the request to select a time-based representation of the first visual media corresponding to each time. In some embodiments, in response to detecting a request to select a time-based representation of the first visual media corresponding to each time, the electronic device has a second in the first visual media. Display an eighth representation of the first visual media corresponding to the time (eg, 6 minutes in the video). In some embodiments (eg, FIGS. 24Y to 24AB), the electronic device is visual in response to detecting a request to select a time-based representation of the first visual medium corresponding to each time. Maintain the display of the boundary. In some embodiments, the visual border is displayed around the first portion of the eighth representation of the first visual medium. In some embodiments (eg, FIGS. 24Y-24AB), an adjustable control (eg, based on the displayed representation) that selects a time-based representation of the first visual media corresponding to each time. (Not updated) will be displayed in each location on the display device (eg, fixed location) (eg, cropping frames displayed in fixed locations on the video, cropping frames will display different video frames Stay in a fixed place while you are). By displaying frames of content in different time frames within the visual media, users can change to editable parameters without having to reapply specific changes to the editable parameters for each frame of the media. You can give visual feedback on how it affects two or more specific frames of media (eg, video). The additional controller displayed allows additional control without cluttering the UI, which enhances the usability of the device and makes the user-device interface (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.

いくつかの実施形態では(例えば、図24C〜図24F)、第1の視覚メディアの第1の表現は、第1のズームレベル(例えば、1×ズーム;第1の倍率レベル)で表示される。いくつかの実施形態では(例えば、図24C〜図24F)、第1の視覚メディアの第1の表現を表示している間に、電子デバイスは、第1の視覚メディアの表現のズームレベルを変更する要求(例えば、2450e)(例えば、ピンチ又はデピンチジェスチャ)を検出する。いくつかの実施形態では(例えば、図24C〜図24F)、第1の視覚メディアの表現のズームレベルを変更する要求を検出したことに応答して、電子デバイスは、第1のズームレベルとは異なる第2のズームレベル(例えば、2×ズーム)で(例えば、表現のズームレベルを変更することに向けられたジェスチャの大きさに基づいて)第1の視覚メディアの第9の表現を表示する。いくつかの実施形態では(例えば、図24C〜図24F)、電子デバイスは、第2のズームレベルで画像を調整/編集するように構成される。いくつかの実施形態では、第9の表現が第1のズームレベルで表示される間(例えば、図24C〜図24F)、電子デバイスは、視覚メディアの別の表現が異なるズームレベルで表示されるときに調整が維持されるように、表現を調整することができる。異なるズームレベルで表現を表示すること、及びユーザが特定のズームレベルにある間に、全てのズームレベルで表現に適用される表現の特定の特性を変更できるようにすることにより、ユーザは、全てのズームレベルで特定の変更を表現に再適用する必要なく、特定の変更を適用することができる。表示される追加コントローラによってUIを雑然とさせることなく、追加制御できるようにすることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments (eg, FIGS. 24C-24F), the first representation of the first visual medium is displayed at the first zoom level (eg, 1x zoom; first magnification level). .. In some embodiments (eg, FIGS. 24C to 24F), the electronic device changes the zoom level of the representation of the first visual media while displaying the first representation of the first visual media. The request to be made (eg, 2450e) (eg, pinch or depinch gesture) is detected. In some embodiments (eg, FIGS. 24C to 24F), in response to detecting a request to change the zoom level of the representation of the first visual media, the electronic device is referred to as the first zoom level. Display a ninth representation of the first visual media at a different second zoom level (eg, 2x zoom) (eg, based on the size of the gesture directed to changing the zoom level of the representation). .. In some embodiments (eg, FIGS. 24C to 24F), the electronic device is configured to adjust / edit the image at a second zoom level. In some embodiments, the electronic device displays another representation of the visual media at a different zoom level while the ninth representation is displayed at the first zoom level (eg, FIGS. 24C-24F). The expression can be adjusted so that sometimes the adjustment is maintained. By displaying the representation at different zoom levels and allowing the user to change certain characteristics of the representation applied to the representation at all zoom levels while the user is at a particular zoom level, the user is all Specific changes can be applied without having to reapply specific changes to the representation at the zoom level of. The additional controller displayed allows additional control without cluttering the UI, which enhances the usability of the device and makes the user-device interface (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.

いくつかの実施形態では(例えば、図24A)、第1の視覚メディアの第1の表現(例えば、2430b)は、カメラレンズの形状及び/又はカメラの位置に基づく遠近歪を含む(例えば、第1の表現は、メディアがキャプチャされた時点で第1の視覚メディアをキャプチャするために使用されるカメラの視点に対応して修正されない(例えば、元の視点);第1の表現は、任意の追加された遠近歪を含まない)。いくつかの実施形態では(例えば、図24F)、第2の表現(例えば、2430e)(例えば、第1の視覚メディアの第2の表現は、カメラレンズの形状及び/又はカメラの位置に基づいて遠近歪を低減するように調整される(例えば、第1の視覚メディアの第2の表現は、修正されていないもの(例えば、元の視点)とは異なるシミュレートされた視点を有し、シミュレートされた視点は、メディアがキャプチャされた時点で第1の視覚メディアをキャプチャするために使用されるカメラの視点以外である))。 In some embodiments (eg, FIG. 24A), the first representation of the first visual medium (eg, 2430b) includes perspective distortion based on the shape and / or position of the camera lens (eg, the first). The representation of 1 is not modified corresponding to the viewpoint of the camera used to capture the first visual media at the time the media is captured (eg, the original viewpoint); the first representation is arbitrary. Does not include added perspective distortion). In some embodiments (eg, FIG. 24F), the second representation (eg, 2430e) (eg, the second representation of the first visual medium is based on the shape of the camera lens and / or the position of the camera. Adjusted to reduce perspective distortion (eg, the second representation of the first visual media has a simulated perspective that is different from the unmodified one (eg, the original perspective) and is simulated. The point of view is other than the point of view of the camera used to capture the first visual media at the time the media is captured)).

いくつかの実施形態では(例えば、図24B〜図24J)、調整可能なコントロール(2258a〜2258c)は、遠近歪を補正するコントロールに対応する。いくつかの実施形態では(例えば、図24B〜図24J)、電子デバイスは、調整可能なコントロールに向けられたジェスチャを含むユーザ入力(例えば、2258a〜2258cに向けられたユーザ入力)を検出したことに応答して、調整可能なコントロールに向けられたジェスチャの方向及び/又は大きさに従って、遠近歪の補正の量を更新する(例えば、インジケーションの表示を動かす、又は第2の場所でインジケーションを表示する)(例えば、ジェスチャの移動のより大きい距離及び/又は速さについてのより大きい量で補正の量を変更すること、並びにジェスチャの移動のより小さい距離及び/又は速さについてのより小さい量で補正の量を変更すること、(並びに、任意選択的に、遠近歪についてのそれぞれの調整量に対応するように、遠近歪についての調整の現在の量(例えば、垂直度、水平度、又は水平線調整)のインジケーションを変更すること)などの、ジェスチャの移動の距離及び/又は速さに基づいて選択される補正の量の変化の大きさを有する、ジェスチャが第1の方向にある場合に補正の量を増加すること、ジェスチャが第1の方向とは反対の、又は第1の方向とは実質的に反対の第2の方向にある場合に補正の量を減少すること)。遠近歪を補正する異なる調整可能なコントロールを提供することにより、ユーザが望ましくない方法で意図せずに表現を変更することを回避すること、及び同時に、調整可能なコントロールへの入力が、入力に基づいて表現を変更することをユーザが認識できるようにすることにより、デバイスのより多くのコントロールをユーザができるようにする。表示される追加コントローラによってUIを雑然とさせることなく、追加制御できるようにすることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments (eg, FIGS. 24B-24J), the adjustable controls (2258a-2258c) correspond to controls that correct perspective distortion. In some embodiments (eg, FIGS. 24B-24J), the electronic device has detected a user input that includes a gesture directed at an adjustable control (eg, a user input directed at 2258a-2258c). In response to, the amount of perspective distortion correction is updated according to the direction and / or magnitude of the gesture directed at the adjustable control (eg, moving the indication display, or indicating in a second location. (For example, changing the amount of correction with a larger amount for a greater distance and / or speed of movement of a gesture, and a smaller amount for a smaller distance and / or speed of movement of a gesture. Changing the amount of correction by quantity (and optionally the current amount of adjustment for perspective distortion (eg, verticality, horizontality, etc.) to correspond to each adjustment amount for perspective distortion, The gesture has the magnitude of change in the amount of correction selected based on the distance and / or speed of movement of the gesture, such as changing the indication of (or horizon adjustment)) in the first direction. Increasing the amount of correction in some cases, decreasing the amount of correction if the gesture is in the second direction opposite to the first direction or substantially opposite to the first direction). By providing different adjustable controls that compensate for perspective distortion, the user avoids unintentionally changing the representation in an undesired way, and at the same time, the input to the adjustable control becomes the input. Allows the user to have more control over the device by allowing the user to recognize changes to the representation based on it. The additional controller displayed allows additional control without cluttering the UI, which enhances the usability of the device and makes the user-device interface (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.

方法2500に関して上述された処理(例えば、図25A〜図25B)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2700、2800、3000、3200、3400、3600、及び3800は、方法2500を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。 It should be noted that the details of the processes described above for Method 2500 (eg, FIGS. 25A-25B) are also applicable to the methods described above in a similar manner. For example, methods 700, 900, 1100, 1300, 1500, 1700, 1900, 2100, 2300, 2700, 2800, 3000, 3200, 3400, 3600, and 3800 are of the various methods described above with reference to Method 2500. Includes one or more of the properties optionally. For the sake of brevity, these details will not be repeated below.

図26A〜図26Uは、いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図27A〜図27C、及び図28A〜図28Bにおける処理を含む、以下で説明される処理を例示するために使用される。 26A-26U show exemplary user interfaces for managing media using electronic devices according to some embodiments. The user interfaces in those figures are used to illustrate the processes described below, including the processes in FIGS. 27A-27C and 28A-28B.

具体的には、図26A〜図26Uは、異なるレベルの光(例えば、可視光及び/又は周辺光)を有するいくつかの環境で動作するデバイス600を示す。低光閾値(例えば、20ルクスなどの閾値)を上回る光量を有する環境は、通常環境と呼ばれる。低光閾値(例えば、20ルクスなどの閾値)を下回る光量を有する環境は、低光環境と呼ばれる。更には、低光環境は、更に3つのカテゴリーに分割される。光の第1の範囲の間(例えば、20〜10ルクス)の光量を有する低光環境は、標準低光環境と呼ばれる。光の第2の範囲の間(例えば、10〜1ルクス)の光量を有する低光環境は、副標準低光環境と呼ばれる。また、光の第3の範囲の間(例えば、1ルクスなどの閾値を下回る)の光量を有する低光環境は、極副標準低光環境と呼ばれる。以下の実施例では、デバイス600は、1つ以上のカメラを介して、環境内(例えば、デバイス600の1つ以上のカメラの視野内(FOV))の光量の変化があるかどうかを検出し、デバイス600が低光環境又は通常環境で動作しているかどうかを判定する。デバイス600が低光環境で動作しているとき、デバイス600(例えば、又はデバイス600に接続されたいくつかの他のシステム又はサービス)は、標準低光環境、副標準低光環境、又は極副標準低光環境で動作しているかどうかを判定する。デバイス600が標準低光環境で動作しているとき、デバイス600は、追加の入力(例えば、メディアをキャプチャする要求に応答して、デバイスがキャプチャ持続時間に従って複数の画像をキャプチャするかどうかのモード)なしで低光モードを自動的にオンにしない。他方では、デバイス600が副標準又は極副標準低光環境で動作しているとき、デバイス600は、追加のユーザ入力なしで、低光モードを自動的にオンにする。デバイス600が、副標準又は極副標準低光環境で動作しているときに追加のユーザ入力なしで、低光モードを自動的にオンにする一方、デバイス600は、各環境で異なる低光モードでメディアをキャプチャするように自動的に構成される。デバイス600が副標準低光環境で動作しているとき、デバイス600は、固定の低光キャプチャ持続時間(例えば、1秒又は2秒)に基づいて、メディアを自動的にキャプチャするように構成される。しかしながら、デバイス600が極副標準低光環境で動作しているとき、デバイス600は、固定の低光キャプチャ持続時間よりも長いキャプチャ持続時間に基づいて、メディアをキャプチャするように自動的に(追加のユーザ入力なしで)構成される。理解を向上させるために、図26A〜図26Uのいくつかは、デバイス600がFOV内で検出している光量を示すグラフ的な説明図(例えば、光グラフ2680)を含む。いくつかの実施形態では、図18A〜図18X、図19A〜図19B、図20A〜図20C、及び/又は図21〜図21Cで論じられた1つ以上の技術を、以下で論じられた図26A〜図26U、図27A〜図27C、及び図28A〜図28Bの1つ以上の技術と任意選択的に組み合わせてもよい。 Specifically, FIGS. 26A-26U show a device 600 operating in several environments with different levels of light (eg, visible light and / or ambient light). An environment having a light amount exceeding a low light threshold value (for example, a threshold value such as 20 lux) is called a normal environment. An environment having a light amount below a low light threshold (for example, a threshold such as 20 lux) is called a low light environment. Furthermore, the low light environment is further divided into three categories. A low light environment having a light intensity between the first range of light (eg, 20-10 lux) is called a standard low light environment. A low light environment having a light intensity between a second range of light (eg, 10 to 1 lux) is called a substandard low light environment. Further, a low light environment having a light amount between a third range of light (for example, below a threshold value such as 1 lux) is called a polar substandard low light environment. In the following examples, the device 600 detects whether there is a change in the amount of light in the environment (eg, in the field of view (FOV) of one or more cameras of the device 600) through the one or more cameras. , Determine if the device 600 is operating in a low light environment or a normal environment. When the device 600 is operating in a low light environment, the device 600 (eg, or some other system or service connected to the device 600) is in a standard low light environment, a sub-standard low light environment, or a sub-minimal. Determine if it is operating in a standard low light environment. When the device 600 is operating in a standard low light environment, the device 600 is in a mode of whether the device captures multiple images according to the capture duration in response to an additional input (eg, a request to capture the media). Do not turn on low light mode automatically without). On the other hand, when the device 600 is operating in a sub-standard or polar sub-standard low light environment, the device 600 automatically turns on the low light mode without any additional user input. The device 600 automatically turns on the low light mode without additional user input when operating in a sub-standard or polar sub-standard low light environment, while the device 600 has a different low light mode in each environment. Is automatically configured to capture media with. When the device 600 is operating in a substandard low light environment, the device 600 is configured to automatically capture media based on a fixed low light capture duration (eg 1 second or 2 seconds). NS. However, when the device 600 is operating in a very substandard low light environment, the device 600 will automatically (add) capture media based on a capture duration that is longer than the fixed low light capture duration. Configured (without user input). To improve understanding, some of FIGS. 26A-26U include a graphical explanatory view (eg, optical graph 2680) showing the amount of light the device 600 is detecting in the FOV. In some embodiments, one or more techniques discussed in FIGS. 18A-18X, 19A-19B, 20A-20C, and / or 21-21C, are discussed below. It may optionally be combined with one or more of the techniques 26A-26U, 27A-27C, and 28A-28B.

図26Aは、ディスプレイ600の上部からディスプレイ600の底部まで延在するライブプレビュー630を含むカメラユーザインタフェースを表示する電子デバイス600を示す。ライブプレビュー630は、1つ以上のカメラセンサ(例えば、及び/又はカメラ)によって検出された画像に基づき、FOVの表現である。いくつかの実施形態では、ライブプレビュー630は、デバイス600の上部及び/又は底部まで延びない、スクリーンの一部分のみである。いくつかの実施形態では、デバイス600は、複数のカメラセンサを使用して画像をキャプチャし、それらを組み合わせてライブプレビュー630(例えば、ライブプレビュー630の異なる部分)を表示する。いくつかの実施形態では、デバイス600は、単一のカメラセンサを使用して画像をキャプチャして、ライブプレビュー630を表示する。 FIG. 26A shows an electronic device 600 displaying a camera user interface including a live preview 630 extending from the top of the display 600 to the bottom of the display 600. Live preview 630 is a representation of the FOV based on images detected by one or more camera sensors (eg, and / or cameras). In some embodiments, the live preview 630 is only a portion of the screen that does not extend to the top and / or bottom of the device 600. In some embodiments, the device 600 captures an image using a plurality of camera sensors and combines them to display a live preview 630 (eg, a different portion of the live preview 630). In some embodiments, the device 600 captures an image using a single camera sensor and displays a live preview 630.

図26Aのカメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含み、これらは、インジケータ及びコントロールがライブプレビュー630と同時に表示され得るように、ライブプレビュー630上に重ねられる。カメラディスプレイ領域604は、インジケータ領域602とコントロール領域606との間に位置する。カメラディスプレイ領域604は、インジケータ又はコントロールと実質的に重ならない。 The camera user interface of FIG. 26A includes an indicator area 602 and a control area 606, which are superposed on the live preview 630 so that the indicators and controls can be displayed at the same time as the live preview 630. The camera display area 604 is located between the indicator area 602 and the control area 606. The camera display area 604 does not substantially overlap the indicator or control.

図26Aに示すように、インジケータ領域602は、ライブプレビュー630上に重ねられ、任意選択的に着色された(例えば、灰色;半透明)オーバーレイを含む。インジケータ領域602は、フラッシュ状態インジケータ602aを含む。フラッシュ状態インジケータ602aは、フラッシュモード(例えば、メディアをキャプチャする要求に応答して、フラッシュ動作を制御するモード)が自動モード、オン、オフ、又は別のモード(例えば、赤目低減モード)であるかどうかを示す。 As shown in FIG. 26A, the indicator area 602 includes an optionally colored (eg, gray; translucent) overlay overlaid on the live preview 630. The indicator area 602 includes a flash state indicator 602a. The flash status indicator 602a indicates whether the flash mode (eg, the mode that controls the flash operation in response to a request to capture the media) is automatic mode, on, off, or another mode (eg, red-eye reduction mode). Show me how.

図26Aに示すように、カメラディスプレイ領域604は、ライブプレビュー630及びズームアフォーダンス2622を含む。ズームアフォーダンス2622は、0.5×ズームアフォーダンス2622a、1×ズームアフォーダンス2622b、及び2×ズームアフォーダンス2622cを含む。この例では、1×ズームアフォーダンス2622bが選択され、これは、デバイス600が1×ズームレベルでライブプレビュー630を表示することを示す。 As shown in FIG. 26A, the camera display area 604 includes a live preview 630 and a zoom affordance 2622. The zoom affordance 2622 includes 0.5 × zoom affordance 2622a, 1 × zoom affordance 2622b, and 2 × zoom affordance 2622c. In this example, 1x zoom affordance 2622b is selected, which indicates that the device 600 displays a live preview 630 at a 1x zoom level.

図26Aに示すように、コントロール領域606は、ライブプレビュー630上に重ねられ、任意選択的に着色された(例えば、灰色;半透明オーバーレイ)を含む。コントロール領域606は、カメラモードアフォーダンス620、メディアコレクションの一部分(例えば、メディアの表現)624、シャッターアフォーダンス610、及びカメラスイッチャアフォーダンス612を含む。カメラモードアフォーダンス620は、どのカメラモードが現在選択されているかを示し、ユーザがカメラモードを変更することを可能にする。 As shown in FIG. 26A, the control area 606 includes overlaying on the live preview 630 and optionally colored (eg, gray; translucent overlay). The control area 606 includes a camera mode affordance 620, a portion of the media collection (eg, media representation) 624, a shutter affordance 610, and a camera switcher affordance 612. The camera mode affordance 620 indicates which camera mode is currently selected and allows the user to change the camera mode.

図26Aに示すように、デバイス600は、FOV内の光量が25ルクスであることを検出し、これは、光グラフ2680上の現在の光レベル2680aによって表される。FOV内の光量(25ルクス)が低光閾値(例えば、20ルクスなどの閾値)を上回るため、デバイス600は、低光環境で動作している。それにより、デバイス600は、低光モードで動作するのをやめる。デバイス600は、FOV内のデータを連続的にキャプチャし、かつ標準フレームレート(例えば、デバイス600が、低光モードで動作していない間にメディアをキャプチャするために通常使用するフレームレート)に基づいてライブプレビュー630を更新する。図26Aでは、デバイス600は、シャッターアフォーダンス610に対応する場所でのタップジェスチャ2650aを検出する。 As shown in FIG. 26A, the device 600 detects that the amount of light in the FOV is 25 lux, which is represented by the current light level 2680a on the optical graph 2680. Since the amount of light (25 lux) in the FOV exceeds the low light threshold (for example, a threshold such as 20 lux), the device 600 operates in a low light environment. As a result, the device 600 stops operating in the low light mode. The device 600 continuously captures the data in the FOV and is based on a standard frame rate (eg, the frame rate normally used to capture media while the device 600 is not operating in low light mode). And update the live preview 630. In FIG. 26A, the device 600 detects the tap gesture 2650a at a location corresponding to the shutter affordance 610.

図26Bに示すように、タップジェスチャ2650aを検出したことに応答して、デバイス600は、FOVを表すメディアをキャプチャし、メディアコレクション624の一部分として、新たにキャプチャされたメディアの表現2624aを表示する。デバイス600が新たにキャプチャしたメディアをキャプチャするとき、デバイス600は、単一の画像をキャプチャし、かつメディアコレクション624の部分として、単一の画像の表現を表示する。 As shown in FIG. 26B, in response to detecting the tap gesture 2650a, the device 600 captures the media representing the FOV and displays the newly captured media representation 2624a as part of the media collection 624. .. When the device 600 captures the newly captured media, the device 600 captures a single image and displays a representation of the single image as part of the media collection 624.

図26Bに示すように、タップジェスチャ2650aを検出した後のある時点で、デバイス600は、現在の光レベル2680bによって表されるように、FOV内の光量が15ルクスに変化したことを検出する。デバイス600は、標準低光環境(例えば、20〜10ルクス)で動作しているため、デバイス600は、フラッシュ状態インジケータ602aに隣接して低光モード状態インジケータ602cを表示する。低光モード状態インジケータ602cは、低光モードが利用可能であるが、現在非アクティブであることを示す。低光モードは、低光モードが最初にオフ(例えば、デフォルトでオフ)であるときに利用可能であるが、低光モード状態インジケータ602cを選択することによってオンにすることができる。図26Bでは、デバイス600は、低光モード状態インジケータ602cに対応する場所でのタップジェスチャ2650bを検出する。 As shown in FIG. 26B, at some point after detecting the tap gesture 2650a, the device 600 detects that the amount of light in the FOV has changed to 15 lux, as represented by the current light level 2680b. Since the device 600 operates in a standard low light environment (eg, 20-10 lux), the device 600 displays a low light mode state indicator 602c adjacent to the flash state indicator 602a. The low light mode state indicator 602c indicates that the low light mode is available but is currently inactive. The low light mode is available when the low light mode is initially off (eg, off by default), but can be turned on by selecting the low light mode state indicator 602c. In FIG. 26B, the device 600 detects the tap gesture 2650b at a location corresponding to the low light mode state indicator 602c.

図26Cに示すように、タップジェスチャ2650bを検出したことに応答して、デバイス600は、低光モード状態インジケータ602cを更新して、低光モードがアクティブであることを示す。低光モード状態インジケータ602cが、低光モードの状態がアクティブであることを示す間、デバイス600は、メディアをキャプチャする要求に応答して、低光モードでメディアをキャプチャするように構成される。タップジェスチャ2650bを検出したことに応答して、デバイス600は、コントロール領域606に調整可能な低光モードコントロール1804を表示する。調整可能な低光モードコントロール1804を使用して、(例えば、特定のキャプチャ持続時間に対応する調整可能な低光モードコントロール1804上の位置でのインジケーション1818を介して)低光モードでメディアをキャプチャするキャプチャ持続時間を設定することができる。具体的には、調整可能な低光モードコントロール1804は、オフ状態2604a(図26Uに示す)、デフォルト状態2604b、及び最大状態2604c(図26Kに示す)を含む、いくつかのキャプチャ持続時間状態を含む。更に、タップジェスチャ2650bを検出したことに応答して、調整可能な低光モードコントロール1804は、デフォルト状態2604b(例えば、「Auto 1s」)に自動的に設定され、これは、固定キャプチャ持続時間(例えば、1秒でのキャプチャ持続時間)に対応する。 As shown in FIG. 26C, in response to detecting the tap gesture 2650b, the device 600 updates the low light mode state indicator 602c to indicate that the low light mode is active. The device 600 is configured to capture media in low light mode in response to a request to capture media while the low light mode state indicator 602c indicates that the low light mode state is active. In response to detecting the tap gesture 2650b, the device 600 displays an adjustable low light mode control 1804 in the control area 606. Using the adjustable low light mode control 1804, the media in low light mode (eg, via the indication 1818 at the position on the adjustable low light mode control 1804 corresponding to a specific capture duration). You can set the capture duration to capture. Specifically, the adjustable low light mode control 1804 provides several capture duration states, including an off state 2604a (shown in FIG. 26U), a default state 2604b, and a maximum state 2604c (shown in FIG. 26K). include. In addition, in response to detecting tap gesture 2650b, the adjustable low light mode control 1804 is automatically set to the default state 2604b (eg, "Auto 1s"), which is the fixed capture duration (eg, "Auto 1s"). For example, the capture duration in 1 second).

図26Cにおいて、オフ状態2604a及び最大状態2604cは、インジケーション1818の現在の位置が与えられると示されていない。オフ状態2604aは、図26Uに示すように、調整可能な低光モードコントロール1804上の最左端のティックマークである。調整可能な低光モードコントロール1804を、インジケーション1818を介して、調整可能な低光モードコントロール1804上の最左端のティックマークに設定することにより、デバイス600に、低光モードをオフにさせ、かつメディアをキャプチャする要求を受信したことに応答して(例えば、図26Uにおいて後述するように)、標準フレームレートに基づいて、メディアをキャプチャさせる。最大状態2604c(図26Kに示す)は、調整可能な低光モードコントロール1804上の最右端のティックマークである。調整可能な低光モードコントロール1804を、インジケーション1818を介して、調整可能な低光モードコントロール1804上の最左端のティックマークに設定することにより、デバイス600に、(例えば、図26J〜図26Qに関連して後述するように)最大キャプチャ持続時間に基づいて、メディアをキャプチャさせる。 In FIG. 26C, the off state 2604a and the maximum state 2604c are not shown to be given the current position of the indication 1818. The off state 2604a is the leftmost tick mark on the adjustable low light mode control 1804, as shown in FIG. 26U. By setting the adjustable low light mode control 1804 to the leftmost tick mark on the adjustable low light mode control 1804 via the indication 1818, the device 600 is turned off the low light mode. And in response to receiving a request to capture the media (eg, as described below in FIG. 26U), the media is captured based on a standard frame rate. The maximum state 2604c (shown in FIG. 26K) is the rightmost tick mark on the adjustable low light mode control 1804. By setting the adjustable low light mode control 1804 to the leftmost tick mark on the adjustable low light mode control 1804 via the indication 1818, the device 600 (eg, FIGS. 26J-26Q). Have media captured based on maximum capture duration (as described below in connection with).

図26Cに示すように、タップジェスチャ2650bを検出したことに応答して、デバイス600は、デフォルト状態2604bに対応するキャプチャ持続時間及び最大状態2604cに対応するキャプチャ持続時間を判定する。これらのキャプチャ持続時間は、メディアのキャプチャに関連付けられた特定の環境条件に基づいて計算される。環境条件は、デバイス600の安定化、FOV内で検出された光、及びFOVとともに1つ以上のオブジェクトの移動などの条件が含まれる。デバイス600は、これらの環境条件のうちの1つ以上の分析に基づいて、より高い/より低いキャプチャ(例えば、各々独立した状態)を判定する。例えば、より高いレベルの安定性、FOV内のより低いレベルの光、及びFOV内のオブジェクトのより低いレベルの動きにより、デバイス600に、1つ以上の状態(例えば、デフォルト状態2604b及び/又は最大状態2604c)に対応するより長いキャプチャ持続時間を計算させる。いくつかの実施形態では、環境条件のうちの1つ以上の変化により、デバイス600に、別のキャプチャ持続時間状態を維持しながら1つのキャプチャ持続時間状態を変化させる。換言すれば、いくつかの実施形態では、異なる環境条件は、各状態のキャプチャ持続時間に異なるように影響する。 As shown in FIG. 26C, in response to detecting the tap gesture 2650b, the device 600 determines the capture duration corresponding to the default state 2604b and the capture duration corresponding to the maximum state 2604c. These capture durations are calculated based on the specific environmental conditions associated with the media capture. Environmental conditions include conditions such as stabilization of the device 600, light detected in the FOV, and movement of one or more objects with the FOV. The device 600 determines higher / lower captures (eg, independent states) based on the analysis of one or more of these environmental conditions. For example, due to higher levels of stability, lower levels of light in the FOV, and lower levels of movement of objects in the FOV, the device 600 has one or more states (eg, the default state 2604b and / or maximum). Have the longer capture duration calculated corresponding to the state 2604c). In some embodiments, changes in one or more of the environmental conditions cause the device 600 to change one capture duration state while maintaining another capture duration state. In other words, in some embodiments, different environmental conditions affect the capture duration of each state differently.

図26Cに示すように、デバイス600が高度に安定化されているため、オブジェクト(例えば、まだライブプレビュー630内に立っている人)は、実質的に動いておらず、デバイス600は、標準低光環境で動作しており、デバイス600は、デフォルト状態2604bに対応するキャプチャ持続時間が固定の低光キャプチャ持続時間値(1秒)であると判定する。図26Cでは、デバイス600は、低光モード状態インジケータ602cに対応する場所でのタップジェスチャ2650cを検出する。 As shown in FIG. 26C, because the device 600 is highly stabilized, the object (eg, the person still standing in the live preview 630) is not substantially moving and the device 600 is at a standard low. Operating in an optical environment, the device 600 determines that the capture duration corresponding to the default state 2604b is a fixed low optical capture duration value (1 second). In FIG. 26C, the device 600 detects the tap gesture 2650c at a location corresponding to the low light mode state indicator 602c.

図26Dに示すように、タップジェスチャ2650cを検出したことに応答して、デバイス600は、低光モード状態インジケータ602cを更新して、低光モードが非アクティブであることを示す。低光モード状態インジケータが、低光モードの状態が非アクティブであることを示す間、デバイス600は、低光モードでメディアをキャプチャするように構成されない。更に、タップジェスチャ2650cを検出したことに応答して、デバイス600は、低光モードが現在非アクティブに設定されているため、調整可能な低光モードコントロール1804の表示を停止する。いくつかの実施形態では、タップジェスチャ2650cを検出したことに応答して、デバイス600は、低光モードが利用可能であることを示すように、低光モード状態インジケータ602cを更新する(例えば、低光モードは、非アクティブであるが、インジケータ602cは、低光モードが非アクティブに設定されていることを示すインジケータを視覚的に区別可能である)。図26Dでは、タップジェスチャ2650cを検出した後に、デバイス600は、FOV内の光の変化を検出する。 As shown in FIG. 26D, in response to detecting the tap gesture 2650c, the device 600 updates the low light mode state indicator 602c to indicate that the low light mode is inactive. The device 600 is not configured to capture media in low light mode while the low light mode state indicator indicates that the low light mode state is inactive. Further, in response to detecting the tap gesture 2650c, the device 600 stops displaying the adjustable low light mode control 1804 because the low light mode is currently set to inactive. In some embodiments, in response to detecting the tap gesture 2650c, the device 600 updates the low light mode state indicator 602c to indicate that low light mode is available (eg, low light mode). The light mode is inactive, but the indicator 602c is visually distinguishable from the indicator that the low light mode is set to inactive). In FIG. 26D, after detecting the tap gesture 2650c, the device 600 detects a change in light in the FOV.

図26Eに示すように、FOV内の光の変化を検出したことに応答して、デバイス600は、現在の光レベル2680cによって表されるように、FOV内の光量が5ルクスであることを検出する。FOV内の光量が5ルクスであることを検出した後に、デバイス600は、デバイス600が副標準低光環境(例えば、10〜1ルクス)で動作していると判定する。デバイス600は、副標準低光環境で動作しているため、デバイス600は、フラッシュ状態インジケータ602aに隣接して低光モード状態インジケータ602cを表示する。更に、デバイス600が副標準低光環境で動作していると判定するため、デバイス600は、低光モードがアクティブであることを示す状態を有する低光モード状態インジケータ602cを表示し、かつ低光モードをオンにする。ここで、デバイス600は、自動的に(追加のユーザ入力なしで)、デバイス600が標準低光環境内で動作したと検出したとき(例えば、図26Bで論じられたように)とは対照的に、副標準低光環境内で動作していることを検出した後に、低光モードをオンにする。特に、FOV内の光が標準低光環境内の光よりも低いため、より暗い環境(例えば、標準低光環境と比較して副標準低光環境で動作しているときに、デバイス600が低光モードを自動的にオンにする場合、メディアをキャプチャする要求を検出したことに応答して、ユーザが低光モードでより頻繁にメディアをキャプチャすることができるため、ユーザにとってより有用であり得る。それにより、デバイス600は、低光モードを手動でオンにする(例えば、低光モード状態インジケータ602cに向けられたタップジェスチャ)又は調整可能な低光モードコントロール1804を表示する必要なく、メディアをキャプチャする要求(例えば、シャッターアフォーダンス610に向けられたタップジェスチャ)を検出したことに応答して、低光モードでメディアをキャプチャするように自動的に設定される。いくつかの実施形態では、デバイス600が低光モードをオンにするとき、デバイス600は、第1のタイプのカメラ(例えば、狭い視野を有するカメラ(例えば、望遠写真カメラ))と、第1のタイプのカメラとは異なる第2のタイプのカメラ(例えば、広い視野を有するカメラ(例えば、広角又は超広角カメラ)と、を使用するのを自動的に(追加のユーザ入力なしで)切り替える(又はいくつかの実施形態では、デバイス600は、第2のタイプのカメラと、第1のタイプのカメラと、を使用するのを自動的に(追加のユーザ入力なしで)切り替える)。図26Eでは、デバイス600は、低光モード状態インジケータ602cに対応する場所でのタップジェスチャ2650eを検出する。 As shown in FIG. 26E, in response to detecting a change in light in the FOV, the device 600 detects that the amount of light in the FOV is 5 lux, as represented by the current light level 2680c. do. After detecting that the amount of light in the FOV is 5 lux, the device 600 determines that the device 600 is operating in a substandard low light environment (eg, 10 to 1 lux). Since the device 600 operates in a substandard low light environment, the device 600 displays a low light mode state indicator 602c adjacent to the flash state indicator 602a. Further, in order to determine that the device 600 is operating in a substandard low light environment, the device 600 displays a low light mode state indicator 602c having a state indicating that the low light mode is active and low light. Turn on the mode. Here, in contrast to when the device 600 automatically (without additional user input) detects that the device 600 has operated in a standard low light environment (eg, as discussed in FIG. 26B). After detecting that it is operating in the sub-standard low light environment, turn on the low light mode. In particular, the light in the FOV is lower than the light in the standard low light environment, so the device 600 is low when operating in a darker environment (eg, a substandard low light environment compared to a standard low light environment). If the light mode is turned on automatically, it can be more useful to the user because the user can capture the media more frequently in the low light mode in response to detecting a request to capture the media. Thereby, the device 600 does not need to manually turn on the low light mode (eg, tap gesture directed at the low light mode state indicator 602c) or display the adjustable low light mode control 1804 to display the media. In response to detecting a request to capture (eg, a tap gesture directed at the shutter affordance 610), it is automatically configured to capture the media in low light mode. In some embodiments, the device. When the 600 turns on the low light mode, the device 600 is different from the first type of camera (eg, a camera with a narrow field of view (eg, a telephoto camera)) and a second type of camera. Type of camera (eg, a camera with a wide field of view (eg, wide-angle or ultra-wide-angle camera)) and automatically (without additional user input) to switch between (or in some embodiments, the device). The 600 automatically switches between using a second type of camera and a first type of camera (without additional user input). In FIG. 26E, the device 600 is in a low light mode state. The tap gesture 2650e at the location corresponding to the indicator 602c is detected.

図26Fに示すように、タップジェスチャ2650eを検出したことに応答して、デバイス600は、コントロール領域606内に調整可能な低光モードコントロール1804を表示する(及び低光モード状態インジケータ602cの状態及び表示を維持する)。調整可能な低光モードコントロール1804は、インジケーション1818を介して、1秒のキャプチャ持続時間に設定され、これはまた、判定されたデバイス600がデフォルト状態2604bに対応するべきキャプチャ持続時間でもある。いくつかの実施形態では、デバイス600は、代わりに、デバイス600が標準低光環境で動作したとき(例えば、図26Cで論じられたように)、デフォルト状態2604bが、最小キャプチャ持続時間(例えば、2秒)、又はデフォルト状態2604bのキャプチャ持続時間とは異なるキャプチャ持続時間を上回るキャプチャ持続時間に対応すべきであると判定する。図26Fでは、デバイス600は、シャッターアフォーダンス610に対応する場所でのタップジェスチャ2650fを検出する。 As shown in FIG. 26F, in response to detecting the tap gesture 2650e, the device 600 displays an adjustable low light mode control 1804 within the control area 606 (and the state of the low light mode state indicator 602c and Keep the display). The adjustable low light mode control 1804 is set to a capture duration of 1 second via the indication 1818, which is also the capture duration for the determined device 600 to correspond to the default state 2604b. In some embodiments, the device 600 instead has a default state of 2604b when the device 600 operates in a standard low light environment (eg, as discussed in FIG. 26C), with a minimum capture duration (eg, eg). 2 seconds), or it is determined that a capture duration that exceeds the capture duration that is different from the capture duration in the default state 2604b should be supported. In FIG. 26F, the device 600 detects the tap gesture 2650f at a location corresponding to the shutter affordance 610.

図26Gに示すように、タップジェスチャ2650fを検出したことに応答して、デバイス600は、1秒のキャプチャ持続時間(例えば、デフォルト状態2604b)に基づいてメディアをキャプチャする。デバイス600が低光モードでメディアをキャプチャするように構成されている間に、1秒のキャプチャ持続時間(又は任意の他のキャプチャ持続時間)に基づいてメディアをキャプチャするときに、デバイス600は、キャプチャ持続時間に対応する期間にわたって複数の画像をキャプチャする。画像をキャプチャした後に、デバイス600は、キャプチャされた画像を組み合わせることによって(例えば、キャプチャされた画像からのデータを組み合わせることによって)(例えば、図18A〜図18Xに関連して上述したようなものと同様の技術を使用して)、合成画像を生成する。図26Gでは、合成画像を生成した後で、デバイス600は、新たにキャプチャされたメディアの表現2624bを表示するように、メディアコレクション624の部分を更新する。表現2624bが図26Bに表示された表現2624aよりも視覚的に暗い間に、デバイスが(例えば、標準フレームレートを使用して)低光モードでメディアをキャプチャするように構成されていない場合、表現2624bは、5ルクスでメディアの表現よりも視覚的に明るい。 As shown in FIG. 26G, in response to detecting the tap gesture 2650f, the device 600 captures media based on a capture duration of 1 second (eg, default state 2604b). When the device 600 captures the media based on a capture duration of 1 second (or any other capture duration) while the device 600 is configured to capture the media in low light mode, the device 600 Capture multiple images over a period corresponding to the capture duration. After capturing the image, the device 600 combines the captured images (eg, by combining the data from the captured images) (eg, as described above in connection with FIGS. 18A-18X). (Using the same technique as) to generate a composite image. In FIG. 26G, after generating the composite image, the device 600 updates a portion of the media collection 624 to display a representation 2624b of the newly captured media. If representation 2624b is not configured to capture media in low light mode (eg, using standard frame rates) while representation 2624b is visually darker than representation 2624a displayed in FIG. 26B, representation. The 2624b is visually brighter than the media representation at 5 lux.

図26Bに戻ると、いくつかの実施形態では、デバイス600が図26Bでシャッターアフォーダンス610に対応する場所でのタップジェスチャを検出する場合、デバイス600は、低光モードがアクティブに設定されていなくても、複数の画像から合成画像を生成する。いくつかの実施形態では、デバイス600は、図26Bのタップジェスチャを検出したことに応答して、図26Bの表現2624bによって表された合成画像生成するために使用される画像の数よりも、少ない数の画像をキャプチャして、合成画像を生成する。換言すれば、いくつかの実施形態では、低光環境(例えば、20ルクス未満)で、デバイス600は、自動的に調整を行い、かつ複数の画像を(いくつかの実施形態では、低光モードが選択されているときよりも少ない画像を)一緒に融合して、低光状態インジケータ602cが能動的に選択されているときにデバイス600が行うように改善された合成画像を得る。図26Gでは、タップジェスチャ2650fを検出した後に、デバイス600は、FOV内の光の変化を検出する。 Returning to FIG. 26B, in some embodiments, if the device 600 detects a tap gesture at a location corresponding to the shutter affordance 610 in FIG. 26B, the device 600 is not actively set to low light mode. Also generates a composite image from multiple images. In some embodiments, the device 600 is less than the number of images used to generate the composite image represented by representation 2624b in FIG. 26B in response to detecting the tap gesture in FIG. 26B. Capture a number of images to generate a composite image. In other words, in some embodiments, in a low light environment (eg, less than 20 lux), the device 600 automatically adjusts and produces multiple images (in some embodiments, a low light mode). Fuse together (less images than when is selected) to obtain an improved composite image that the device 600 does when the low light condition indicator 602c is actively selected. In FIG. 26G, after detecting the tap gesture 2650f, the device 600 detects a change in light in the FOV.

図26Hに示すように、FOV内の光の変化を検出したことに応答して、デバイス600は、現在の光レベル2680dによって表されるように、FOV内の光量が0.5ルクスであることを検出し、それが極副標準低光環境(例えば、1ルクス未満)で動作していると判定する。デバイス600は極副標準低光環境で動作しているため、デバイス600は、フラッシュ状態インジケータ602aに隣接して低光モード状態インジケータ602cを表示する。ここで、低光モード状態インジケータは、低光モードの状態がアクティブであることを示す(デバイス600が副標準低光環境で動作していたときに上述された同様の理由による)。更には、低光モード状態インジケータ602cは、デバイス600が極副標準低光環境で動作している(及び/又はデバイス600は、閾値(例えば、1秒又は2秒を上回るなどの閾値)よりも長い持続時間で、低光環境内のメディアをキャプチャするように構成される)ため、現在のキャプチャ持続時間(例えば、低光モード状態インジケータ602cに表示される「5秒」)を更に含む。ここで、デバイス600は、デフォルト状態2604bに対応するキャプチャ持続時間が、FOV内の光が閾値を下回る(例えば、光レベルが標準及び副標準低光環境よりも低い)ため、最小キャプチャ持続時間よりも高いべきであることを判定する。いくつかの実施形態では、低光インジケータは、(例えば、調整可能な低光モードコントロール1804に設定される)最小キャプチャ持続時間又はいくらかの他の閾値よりも長いキャプチャ持続時間で低光モードがメディアをキャプチャするように構成されるまで、キャプチャ持続時間を含まない。図26Hでは、デバイス600は、低光モード状態インジケータ602cに対応する場所でのタップジェスチャ2650hを検出する。 As shown in FIG. 26H, in response to detecting a change in light in the FOV, the device 600 has a light intensity in the FOV of 0.5 lux, as represented by the current light level 2680d. Is detected, and it is determined that it is operating in a very substandard low light environment (for example, less than 1 lux). Since the device 600 operates in a polar substandard low light environment, the device 600 displays a low light mode state indicator 602c adjacent to the flash state indicator 602a. Here, the low light mode state indicator indicates that the low light mode state is active (for the same reasons mentioned above when the device 600 was operating in the substandard low light environment). Furthermore, the low light mode state indicator 602c indicates that the device 600 is operating in a very substandard low light environment (and / or the device 600 is above a threshold value (eg, a threshold value greater than 1 second or 2 seconds)). Because it is configured to capture media in a low light environment with a long duration), it further includes the current capture duration (eg, "5 seconds" displayed on the low light mode state indicator 602c). Here, the device 600 has a capture duration corresponding to the default state 2604b, which is less than the minimum capture duration because the light in the FOV is below the threshold (eg, the light level is lower than the standard and substandard low light environments). Also determines that it should be high. In some embodiments, the low light indicator media with a low light mode with a minimum capture duration (eg, set in the adjustable low light mode control 1804) or a capture duration longer than some other threshold. Does not include capture duration until configured to capture. In FIG. 26H, the device 600 detects the tap gesture 2650h at a location corresponding to the low light mode state indicator 602c.

図26Iに示すように、タップジェスチャ2650hを検出したことに応答して、デバイス600は、コントロール領域606に調整可能な低光モードコントロール1804を表示する。ここで、調整可能な低光モードコントロール1804は、5秒のキャプチャ持続時間に設定され、これはまた、デフォルト状態2604bに対応する。上述のように、デバイス600は、キャプチャ持続時間が最小キャプチャ持続時間(例えば、1秒)の代わりに5秒であるべきであると判定する。デバイス600は、FOV内の光が、最小キャプチャ持続時間がメディアの特定の品質に十分に有効ではない(例えば、1つ以上のオブジェクトがキャプチャされたメディア内で区別可能である)光レベルに変化したため、この判定を行う。ここで、キャプチャ持続時間は変化するが、他の環境条件(例えば、デバイス600の安定化及びFOV内のオブジェクトの移動)は、同じままである。図26Iでは、デバイス600は、調整可能な低光モードコントロール1804に対応する場所での左向きスワイプジェスチャ2650iを検出する。 As shown in FIG. 26I, in response to detecting the tap gesture 2650h, the device 600 displays an adjustable low light mode control 1804 in the control area 606. Here, the adjustable low light mode control 1804 is set to a capture duration of 5 seconds, which also corresponds to the default state 2604b. As mentioned above, the device 600 determines that the capture duration should be 5 seconds instead of the minimum capture duration (eg, 1 second). Device 600 changes the light in the FOV to a light level where the minimum capture duration is not sufficiently effective for a particular quality of media (eg, one or more objects are distinguishable within the captured media). Therefore, this determination is made. Here, the capture duration changes, but other environmental conditions (eg, stabilization of device 600 and movement of objects within the FOV) remain the same. In FIG. 26I, the device 600 detects a leftward swipe gesture 2650i at a location corresponding to the adjustable low light mode control 1804.

図26Jに示すように、左向きスワイプジェスチャ2650iを検出したことに応答して、デバイス600は、左向きスワイプジェスチャ2650iの大きさ及び方向に基づいて、調整可能な低光モードコントロール1804のティックマークを左にシフトする。調整可能な低光モードコントロール1804のティックマークを左にシフトした後、デバイス600は、10秒のキャプチャ持続時間に対応する場所に、インジケーション1818を表示する。ここで、10秒のキャプチャ持続時間は、最大状態2604c(又は調整可能な低光モードコントロール1804上の最右端のティックマーク)についてのキャプチャ持続時間に対応する。そうすると、デバイス600は、デフォルト状態2604bに対応するキャプチャ持続時間の表示を停止する。図26Jに示すように、左向きスワイプジェスチャ2650iに応答して、デバイス600は、閾値(例えば、1秒又は2秒などの閾値)よりも高いキャプチャ持続時間(例えば、10秒)に基づいて、デバイス600が低光モードでメディアをキャプチャするように構成されるため、現在のキャプチャ持続時間が10秒であることを示すように、低光キャプチャインジケータ602cを更新する。いくつかの実施形態では、調整可能な低光モードコントロール1804は、オフ状態2604a、デフォルト状態2604b、及び最大状態2604cに対応するキャプチャ持続時間のみを設定し得る。いくつかの実施形態では、調整可能な低光モードコントロール1804は、キャプチャ持続時間状態(例えば、オフ状態2604a、デフォルト状態2604b、及び最大状態2604c)のうちの1つ以上に対応しない他のキャプチャ持続時間を設定し得る。 As shown in FIG. 26J, in response to detecting the leftward swipe gesture 2650i, the device 600 left the tick mark of the adjustable low light mode control 1804 based on the size and orientation of the leftward swipe gesture 2650i. Shift to. After shifting the tick mark of the adjustable low light mode control 1804 to the left, the device 600 displays the indication 1818 at a location corresponding to a capture duration of 10 seconds. Here, the capture duration of 10 seconds corresponds to the capture duration for the maximum state 2604c (or the rightmost tick mark on the adjustable low light mode control 1804). The device 600 then stops displaying the capture duration corresponding to the default state 2604b. As shown in FIG. 26J, in response to the leftward swipe gesture 2650i, the device 600 is based on a capture duration (eg, 10 seconds) that is higher than the threshold (eg, a threshold such as 1 second or 2 seconds). Since the 600 is configured to capture media in low light mode, the low light capture indicator 602c is updated to indicate that the current capture duration is 10 seconds. In some embodiments, the adjustable low light mode control 1804 may only set the capture duration corresponding to the off state 2604a, the default state 2604b, and the maximum state 2604c. In some embodiments, the adjustable low light mode control 1804 does not correspond to one or more of the capture duration states (eg, off state 2604a, default state 2604b, and maximum state 2604c). You can set the time.

図26J〜図26Qは、キャプチャ持続時間に基づいて、低光モードでメディアをキャプチャするデバイス600を示す。具体的には、図26J〜図26Qは、デバイス600が、キャプチャ持続時間に基づいて、低光モードでディアをキャプチャする間に使用する、1つ以上のアニメーション及び/又は技術を示す。キャプチャ持続時間(例えば、10秒)が閾値キャプチャ持続時間(例えば、1秒などの閾値又は2秒などの閾値)よりも高く設定されており、及び/又は検出された光のレベルが1ルクスを下回る場合、デバイス600は、以下のアニメーションを表示し、及び低光モードでメディアをキャプチャする以下の技術を使用する。キャプチャ持続時間(例えば、1秒)が閾値キャプチャ持続時間(例えば、1秒又は2秒などの閾値)よりも高く設定されておらず、及び/又は検出された光のレベルが1ルクスを下回らない場合、デバイス600は、以下のアニメーションを表示すること、及び低光モードでメディアをキャプチャする以下の技術を使用することをやめる。例えば、図26F〜図26Gに戻ると、1秒のキャプチャ持続時間が閾値キャプチャ持続時間(例えば、1秒又は2秒などの閾値)よりも長く設定されなかったため、デバイス600がメディアをキャプチャしたときに、以下のアニメーション又は技術のいずれも記載されなかった。いくつかの代替的実施形態では、キャプチャ持続時間が閾値を下回り、及び/又は検出された光のレベルが1ルクスを下回らない場合、アニメーション及び/又は技術のいくつかを使用する。更に、いくつかの実施形態では、図18J〜図18Tに記載された1つ以上のアニメーション又は技術は、図26J〜図26Qに関連して後述されたアニメーション及び技術に含まれ、簡潔にするために、これらのアニメーション及び技術のうちのいくつかは、以下の考察から省略されている。図26Jでは、デバイス600は、シャッターアフォーダンス610に対応する場所でのタップジェスチャ2650jを検出する。 26J-26Q show the device 600 that captures media in low light mode based on the capture duration. Specifically, FIGS. 26J-26Q show one or more animations and / or techniques used by the device 600 while capturing deer in low light mode based on the capture duration. The capture duration (eg, 10 seconds) is set higher than the threshold capture duration (eg, a threshold such as 1 second or a threshold such as 2 seconds) and / or the detected light level is 1 lux. If below, device 600 uses the following techniques to display the following animations and capture media in low light mode. The capture duration (eg, 1 second) is not set higher than the threshold capture duration (eg, threshold such as 1 second or 2 seconds) and / or the detected light level does not fall below 1 lux. If so, the device 600 ceases to display the following animations and use the following techniques for capturing media in low light mode. For example, returning to FIGS. 26F to 26G, when the device 600 captures media because the capture duration of 1 second was not set longer than the threshold capture duration (eg, threshold of 1 second or 2 seconds). Neither of the following animations or techniques was described. In some alternative embodiments, some of the animations and / or techniques are used if the capture duration is below the threshold and / or the detected light level is not below 1 lux. Further, in some embodiments, one or more animations or techniques described in FIGS. 18J-18T are included in the animations and techniques described below in connection with FIGS. 26J-26Q for brevity. In addition, some of these animations and techniques have been omitted from the discussion below. In FIG. 26J, the device 600 detects the tap gesture 2650j at a location corresponding to the shutter affordance 610.

図26Kに示すように、タップジェスチャ2650jを検出したことに応答して、デバイス600は、10秒のキャプチャ持続時間(例えば、左向きスワイプジェスチャ2650iに応答して、設定された最大状態2604cに対応するキャプチャ持続時間)に基づいて、低光モードでのメディアのキャプチャを開始した。メディアのキャプチャを開始すると、デバイス600は、シャッターアフォーダンス610の表示を、停止アフォーダンス1806に置き換え、ゼロのキャプチャ持続時間に向かうインジケーション1818の移動を開始する(例えば、10秒から0秒へのカウントダウン)。更に、デバイス600は、インジケータ領域602内のフラッシュ状態インジケータ602a及び低光モード状態インジケータ602c、カメラディスプレイ領域604内のズームアフォーダンス2622、並びにコントロール領域606内のメディアコレクション624などの、デバイス600が低光モードでメディアをキャプチャしている間に対話することができる、ユーザインタフェース要素のうちのいくつかの表示を停止する。いくつかの実施形態では、タップジェスチャ2650jを検出したことに応答して、デバイス600は、インジケーションを、10秒のキャプチャ持続時間から0秒のキャプチャ持続時間まで(例えば、巻き出しアニメーション18M〜18Qと同様)動かす前に、インジケーション1818を、0秒のキャプチャ持続時間から10秒のキャプチャ持続時間まで(例えば、巻き取りアニメーション18K〜18Mと同様)動かすアニメーションを示す。いくつかの実施形態では、タップジェスチャ2650jを検出したことに応答して、デバイス600は、シャッターアフォーダンス610を暗くし;いくつかの実施形態では、デバイス600は、シャッターアフォーダンス610を暗くした後、停止アフォーダンス1806を表示しない。 As shown in FIG. 26K, in response to detecting the tap gesture 2650j, the device 600 corresponds to a set maximum state 2604c in response to a capture duration of 10 seconds (eg, leftward swipe gesture 2650i). Based on the capture duration), we started capturing media in low light mode. Upon starting the capture of the media, the device 600 replaces the display of the shutter affordance 610 with the stop affordance 1806 and begins moving the indication 1818 towards a capture duration of zero (eg, a countdown from 10 seconds to 0 seconds). ). Further, the device 600 has a low light such as a flash state indicator 602a and a low light mode state indicator 602c in the indicator area 602, a zoom affordance 2622 in the camera display area 604, and a media collection 624 in the control area 606. Stops displaying some of the user interface elements that you can interact with while capturing media in mode. In some embodiments, in response to detecting the tap gesture 2650j, the device 600 performs the indication from a capture duration of 10 seconds to a capture duration of 0 seconds (eg, unwind animation 18M-18Q). An animation is shown in which the indication 1818 is moved from a capture duration of 0 seconds to a capture duration of 10 seconds (similar to the take-up animations 18K-18M) before moving. In some embodiments, the device 600 darkens the shutter affordance 610 in response to detecting the tap gesture 2650j; in some embodiments, the device 600 darkens the shutter affordance 610 and then stops. Affordance 1806 is not displayed.

図26Kに示すように、タップジェスチャ2650jを検出したことに応答して、デバイス600は、メディアのキャプチャが開始されたときのデバイス600のポーズ(例えば、位置及び/又は向き)と、メディアをキャプチャしている間の時点のポーズとの間の差を示す、視覚ガイダンス2670を表示する。キャプチャ持続時間(10秒)が閾値キャプチャ持続時間(例えば、1秒などの閾値又は2秒などの閾値)よりも高く設定されており、及び/又は検出された光のレベル(0.5ルクス)が1ルクスを下回るため、視覚ガイダンスが表示される。視覚ガイダンス2670は、命令2670a(例えば、「一時停止」)を含み、これは、デバイス600が、低光モードでメディアをキャプチャする間、安定している(例えば、静止する)必要があることを示す。更には、視覚ガイダンス2670はまた、元のポーズインジケーション2670bを含み、これは、メディアのキャプチャを開始したときのデバイス600のポーズを示す。画像をキャプチャしている間にデバイス600が安定化されていない、又は画像が元のポーズから外れてキャプチャされる場合、デバイス600は、デバイス600がその元のポーズで安定化されるか又はそのままであるときよりも品質が劣ったメディアを生成する。理解を向上させるために、図26K〜図26Qのいくつかは、デバイス600の元のポーズ2668bの位置に対して現在のポーズ2668cの位置がどのように変化するかについての詳細を提供するグラフ的な説明図2668を含む。 As shown in FIG. 26K, in response to detecting the tap gesture 2650j, the device 600 captures the pose (eg, position and / or orientation) of the device 600 when the media capture is started and the media. Display visual guidance 2670 showing the difference from the current pose while doing. The capture duration (10 seconds) is set higher than the threshold capture duration (eg, a threshold such as 1 second or a threshold such as 2 seconds) and / or the detected light level (0.5 lux). Is less than 1 lux, so visual guidance is displayed. The visual guidance 2670 includes instruction 2670a (eg, "pause"), which indicates that the device 600 needs to be stable (eg, rest) while capturing media in low light mode. show. Further, the visual guidance 2670 also includes the original pose indication 2670b, which indicates the pose of the device 600 when the media capture is started. If the device 600 is not stabilized while capturing the image, or if the image is captured out of its original pose, the device 600 will either have the device 600 stabilized in its original pose or remain intact. Produces poorer quality media than when. To improve understanding, some of FIGS. 26K-26Q are graphical, providing details on how the position of the current pose 2668c changes relative to the position of the original pose 2668b of the device 600. Explanatory drawing 2668 is included.

図26Lに示すように、デバイス600は、10秒のキャプチャ持続時間から8秒のキャプチャ持続時間にインジケーション1818を動かした。8秒のキャプチャ持続時間では、デバイス600は、多数の画像をキャプチャした。8秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、デバイス600は、そのポーズの変化を検出する。グラフ的な説明図2668に示すように、デバイス600の現在のポーズ2668c(例えば、固体電話として示される)は、その元のポーズ2668b(例えば、点線で示される)から上及び右にシフトされる。デバイス600のポーズの変化を検出したことに応答して、デバイス600は、元のポーズインジケーション2670bの表示を維持し、かつ現在のポーズインジケーション2670cを表示する。現在のポーズインジケーション2670cは、現在のポーズ2668cに対応するカメラユーザインタフェース上の位置に表示される(例えば、元のポーズインジケーション2670bから上及び右にシフトされる)。図26Lに示すように、デバイス600は、2つの別個のライン(例えば、ボックス)のセットとして、元のポーズインジケーション2670b及び現在のポーズインジケーション2670cを表示する。いくつかの実施形態では、元のポーズインジケーション2670b及び現在のポーズインジケーション2670cは、異なる色、太さ、勾配、ボケ、又は他のタイプの視覚効果などの1つ以上の異なる視覚特性を有することによって視覚的に区別される。 As shown in FIG. 26L, the device 600 moved the indication 1818 from a capture duration of 10 seconds to a capture duration of 8 seconds. With a capture duration of 8 seconds, the device 600 captured a large number of images. At some point while displaying the indication 1818 with a capture duration of 8 seconds, the device 600 detects a change in its pose. Graphical Explanatory As shown in FIG. 2668, the device 600's current pose 2668c (eg, shown as a solid phone) is shifted up and to the right from its original pose 2668b (eg, indicated by the dotted line). .. In response to detecting a change in the pose of the device 600, the device 600 maintains the display of the original pose indication 2670b and displays the current pose indication 2670c. The current pose indication 2670c is displayed at a position on the camera user interface corresponding to the current pose 2668c (eg, shifted up and to the right from the original pose indication 2670b). As shown in FIG. 26L, the device 600 displays the original pose indication 2670b and the current pose indication 2670c as a set of two separate lines (eg, a box). In some embodiments, the original pose indication 2670b and the current pose indication 2670c have one or more different visual characteristics such as different colors, thicknesses, gradients, blurs, or other types of visual effects. It is visually distinguished by.

図26Mに示すように、デバイス600は、8秒のキャプチャ持続時間から7秒のキャプチャ持続時間にインジケーション1818を動かした。7秒のキャプチャ持続時間では、デバイス600は、8秒のキャプチャ持続時間でキャプチャしたデバイス600よりも多くの画像をキャプチャした。7秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、デバイス600は、そのポーズの変化を検出する。グラフ的な説明図2668に示すように、デバイス600の現在のポーズ2668cは、元のポーズ2668bから左下にシフトされている。ここで、現在のポーズ2668cへの過補正が適用されている(例えば、デバイス600は、図26Nの現在のポーズ2668cから左下に過補正された)。図26Mに示すように、(7秒のキャプチャ持続時間で)デバイス600のポーズの変化を検出したことに応答して、デバイス600は、ライブプレビュー630上で、図26Mにおける現在のポーズ2668cに対応する位置まで、現在のポーズインジケーション2670cを動かす。(7秒のキャプチャ持続時間で)デバイス600のポーズの変化を検出したことに応答して、デバイス600は、図26Lに表示された位置に、元のポーズインジケーション2670bの表示を維持し、これにより、デバイス600は、現在のポーズインジケーション2670cが、元のポーズインジケーション2670bから下及び左にシフトされたことを表示する。いくつかの実施形態では、現在のポーズインジケーション2670cを新しい位置に動かす代わりに、デバイス600は、元のポーズインジケーション2670bを新しい位置に動かし、現在のポーズインジケーション2670cの表示を、図26Lにおいて以前に表示された位置に維持する。 As shown in FIG. 26M, device 600 moved the indication 1818 from a capture duration of 8 seconds to a capture duration of 7 seconds. With a capture duration of 7 seconds, the device 600 captured more images than the device 600 captured with a capture duration of 8 seconds. At some point while displaying the indication 1818 with a capture duration of 7 seconds, the device 600 detects a change in its pose. Graphical Explanatory As shown in FIG. 2668, the current pose 2668c of the device 600 is shifted to the lower left from the original pose 2668b. Here, an overcorrection to the current pose 2668c is applied (for example, the device 600 is overcorrected to the lower left from the current pose 2668c in FIG. 26N). As shown in FIG. 26M, in response to detecting a change in the pose of the device 600 (with a capture duration of 7 seconds), the device 600 corresponds to the current pose 2668c in FIG. 26M on the live preview 630. Move the current pose indication 2670c to the desired position. In response to detecting a change in the pose of the device 600 (with a capture duration of 7 seconds), the device 600 maintains the display of the original pose indication 2670b at the position shown in FIG. 26L. The device 600 displays that the current pose indication 2670c has been shifted down and to the left from the original pose indication 2670b. In some embodiments, instead of moving the current pose indication 2670c to a new position, the device 600 moves the original pose indication 2670b to a new position and displays the current pose indication 2670c in FIG. 26L. Keep in the previously displayed position.

図26Nに示すように、デバイス600は、7秒のキャプチャ持続時間から5秒のキャプチャ持続時間にインジケーション1818を動かした。5秒のキャプチャ持続時間では、デバイス600は、7秒のキャプチャ持続時間でキャプチャしたデバイス600よりも多くの画像をキャプチャした。5秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、デバイス600は、そのポーズの変化を検出する。グラフ的な説明図2668に示すように、デバイス600の現在のポーズ2668cは、元のポーズ2668bの位置になるように近くにシフトされ、図26Mにおける現在のポーズ2668cの位置から右上にシフトされる。(5秒のキャプチャ持続時間で)デバイス600のポーズの変化を検出したことに応答して、デバイス600は、ライブプレビュー630上で、現在のポーズインジケーション2670cを、図26Nの現在のポーズ2668cに対応する位置に動かし、これにより、デバイス600は、図26Mに表示された現在のポーズインジケーション2670cよりも、元のポーズインジケーション2670bの近くにシフトされた現在のポーズインジケーション2670cを表示する。更には、デバイス600は、その元の位置に元のポーズインジケーション2670bの表示を維持する。 As shown in FIG. 26N, device 600 moved the indication 1818 from a capture duration of 7 seconds to a capture duration of 5 seconds. With a capture duration of 5 seconds, the device 600 captured more images than the device 600 captured with a capture duration of 7 seconds. At some point while displaying the indication 1818 with a capture duration of 5 seconds, the device 600 detects a change in its pose. Graphical Explanatory As shown in FIG. 2668, the current pose 2668c of the device 600 is shifted closer to the original pose 2668b position and shifted to the upper right from the current pose 2668c position in FIG. 26M. .. In response to detecting a change in the pose of the device 600 (with a capture duration of 5 seconds), the device 600 changes the current pose indication 2670c to the current pose 2668c in FIG. 26N on the live preview 630. Moved to the corresponding position, the device 600 displays the current pose indication 2670c shifted closer to the original pose indication 2670b than the current pose indication 2670c displayed in FIG. 26M. Furthermore, the device 600 maintains the original pose indication 2670b display in its original position.

図26Oに示すように、デバイス600は、5秒のキャプチャ持続時間から4秒のキャプチャ持続時間にインジケーション1818を動かした。4秒のキャプチャ持続時間では、デバイス600は、5秒のキャプチャ持続時間でキャプチャしたデバイスよりも多くの画像をキャプチャした。4秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、デバイス600は、そのポーズの変化を検出し、現在のポーズ2668cの位置は、元のポーズ2668bの位置と一致する。図26Nに示すように、現在のポーズ2668cが元のポーズ2668bの位置と一致することを検出したことに応答して、デバイス600は、触知出力2620aを発する。更には、現在のポーズ2668cが元のポーズ2668bの位置と一致することを検出したことに応答して、デバイス600は、現在のポーズインジケーション2670cの表示を停止し、命令2670a及び元のポーズインジケーション2670bの表示を維持する。いくつかの実施形態では、元のポーズインジケーション2670bは、現在のポーズが元のポーズと一致する場合、現在のポーズが元のポーズと一致しない場合とは異なる色を表示する。 As shown in FIG. 26O, the device 600 moved the indication 1818 from a capture duration of 5 seconds to a capture duration of 4 seconds. With a capture duration of 4 seconds, the device 600 captured more images than the device captured with a capture duration of 5 seconds. At some point while displaying the indication 1818 with a capture duration of 4 seconds, the device 600 detects a change in its pose and the position of the current pose 2668c coincides with the position of the original pose 2668b. .. As shown in FIG. 26N, the device 600 emits a tactile output 2620a in response to detecting that the current pose 2668c coincides with the position of the original pose 2668b. Furthermore, in response to detecting that the current pose 2668c coincides with the position of the original pose 2668b, the device 600 stops displaying the current pose indication 2670c, and the instruction 2670a and the original pose indicator The display of the operation 2670b is maintained. In some embodiments, the original pose indication 2670b displays a different color when the current pose matches the original pose than when the current pose does not match the original pose.

図26Pに示すように、デバイス600は、4秒のキャプチャ持続時間から3秒のキャプチャ持続時間にインジケーション1818を動かした。3秒のキャプチャ持続時間では、デバイス600は、4秒のキャプチャ持続時間でキャプチャしたデバイスよりも多くの画像をキャプチャした。3秒のキャプチャ持続時間では、デバイス600は、そのポーズの変化を検出せず、命令2670aの表示を維持する。それにより、デバイス600は、視覚ガイダンス2670の表示を更新するのをやめる。 As shown in FIG. 26P, the device 600 moved the indication 1818 from a capture duration of 4 seconds to a capture duration of 3 seconds. With a capture duration of 3 seconds, the device 600 captured more images than the device captured with a capture duration of 4 seconds. With a capture duration of 3 seconds, the device 600 does not detect a change in its pose and maintains the display of instruction 2670a. As a result, the device 600 stops updating the display of the visual guidance 2670.

図26Qに示すように、デバイス600は、2秒のキャプチャ持続時間から0秒のキャプチャ持続時間にインジケーション1818を動かした。0秒のキャプチャ持続時間では、デバイス600は、3秒のキャプチャ持続時間でキャプチャしたデバイスよりも多くの画像をキャプチャした。0秒のキャプチャ持続時間では、デバイス600は、メディアキャプチャの終了を検出する。 As shown in FIG. 26Q, the device 600 moved the indication 1818 from a capture duration of 2 seconds to a capture duration of 0 seconds. With a capture duration of 0 seconds, the device 600 captured more images than the device captured with a capture duration of 3 seconds. With a capture duration of 0 seconds, device 600 detects the end of media capture.

図26Rに示すように、メディアのキャプチャの終了を検出したことに応答して、デバイス600は、最大状態2604cに対応する10秒のキャプチャ持続時間で、調整可能な低光モードコントロール1804上にインジケーション1818を表示し、停止アフォーダンス1806の表示を、シャッターアフォーダンス610に置き換える。更には、メディアのキャプチャの終了を検出したことに応答して、デバイス600は、デバイス600が低光モードでメディアをキャプチャしていた間に対話することができた、ユーザインタフェース要素のうちのいくつかを再表示する。図26Rに示すように、メディアのキャプチャの終了を検出したことに応答して、デバイス600は、タップジェスチャ2650jを検出したことに応答して、キャプチャされた複数の画像に基づいて合成画像のメディアを生成する。デバイス600は、メディアコレクション624の一部分として、表現2624cを表示する。表現2624cが図26G(及び表現2624a)に表示された表現2624bよりも視覚的に暗い間に、デバイスが(例えば、標準フレームレートを使用して)低光モードでメディアをキャプチャするように構成されていない場合、表現2624cは、0.5ルクスでメディアの表現よりも視覚的に明るい。図26Rでは、より長いキャプチャ持続時間に起因して、デバイス600は、デバイス600が図26Gの表現2624bによって表された合成画像を生成するためにキャプチャした画像の数より多くの画像をキャプチャして、表現2624cによって表された合成画像を生成した。いくつかの実施形態では、より少ない周辺光を有する環境においてメディアをキャプチャするとき、デバイス600は、より高レベルの周辺光を有する環境においてデバイス600が生成する画像と同じ画像を生成するために、より多くの画像をキャプチャし、融合させる必要がある。図26Rでは、デバイス600は、電子デバイスがより不安定であるように、デバイス600の移動の変化を検出する。 As shown in FIG. 26R, in response to detecting the end of media capture, the device 600 displays on the adjustable low light mode control 1804 with a capture duration of 10 seconds corresponding to the maximum state 2604c. The operation 1818 is displayed, and the display of the stop affordance 1806 is replaced with the shutter affordance 610. Furthermore, in response to detecting the end of media capture, device 600 was able to interact with some of the user interface elements while device 600 was capturing media in low light mode. Is redisplayed. As shown in FIG. 26R, in response to detecting the end of the capture of the media, the device 600 responds to the detection of the tap gesture 2650j to media the composite image based on the plurality of captured images. To generate. The device 600 displays representation 2624c as part of the media collection 624. The device is configured to capture media in low light mode (eg, using standard frame rates) while representation 2624c is visually darker than representation 2624b displayed in FIG. 26G (and representation 2624a). If not, the representation 2624c is visually brighter than the media representation at 0.5 lux. In FIG. 26R, due to the longer capture duration, device 600 has captured more images than the number of images that device 600 has captured to produce the composite image represented by representation 2624b in FIG. 26G. , A composite image represented by representation 2624c was generated. In some embodiments, when capturing media in an environment with less ambient light, the device 600 produces the same image that the device 600 produces in an environment with higher levels of ambient light. More images need to be captured and fused. In FIG. 26R, the device 600 detects changes in the movement of the device 600 so that the electronic device is more unstable.

図26Sに示すように、電子デバイスがより不安定であるように、デバイス600の移動の変化を検出したことに応答して、デバイス600は、10秒のキャプチャ持続時間から5秒のキャプチャ持続時間に最大状態2604cを更新する。上述のように、デバイス600がより不安定であるとき、デバイス600は、最大状態2604c(例えば、又はデフォルト状態2604b)に対応するキャプチャ持続時間をより短くし得る。更には、電子デバイスがより不安定であるように、デバイス600の移動の変化を検出したことに応答して、デバイス600はまた、5秒のキャプチャ持続時間を示すように、低光モード状態インジケータ602cを更新する(例えば、調整可能な低光モードコントロール1804が、インジケーション1818を介して、最大状態2604cに現在設定されているため)。いくつかの実施形態では、デバイス600が、キャプチャ持続時間が閾値(例えば、1秒又は2秒などの閾値)未満であると判定すると、デバイス600は、低光モード状態インジケータ602c内のキャプチャ持続時間の表示を停止する。 As shown in FIG. 26S, in response to detecting a change in the movement of the device 600 so that the electronic device is more unstable, the device 600 has a capture duration of 10 seconds to a capture duration of 5 seconds. The maximum state 2604c is updated to. As mentioned above, when the device 600 is more unstable, the device 600 may have a shorter capture duration corresponding to the maximum state 2604c (eg, or the default state 2604b). Furthermore, in response to detecting changes in the movement of the device 600 so that the electronic device is more unstable, the device 600 also shows a low light mode state indicator to indicate a capture duration of 5 seconds. Update 602c (eg, because the adjustable low light mode control 1804 is currently set to the maximum state 2604c via the indication 1818). In some embodiments, if the device 600 determines that the capture duration is less than a threshold (eg, a threshold such as 1 second or 2 seconds), the device 600 determines the capture duration within the low light mode state indicator 602c. Stop displaying.

特に、いくつかの実施形態では、デバイス600は、以前に設定されたキャプチャ持続時間に基づいてメディアをキャプチャする間に、1つ以上の環境条件の変化を検出することができる。いくつかの実施形態では、この変化に基づいて、デバイス600は、最大状態2604c(又はデフォルト状態2604b)に対応するキャプチャ持続時間値を更新することができる。デバイス600が最大状態2604c(又はデフォルト状態2604b)に対応するキャプチャ値を更新すると、デバイス600は、メディアのキャプチャの終了を検出したことに応答して、新しいキャプチャ持続時間でインジケーション1818を表示することができる(例えば、デバイス600は、図26Qでカメラユーザインタフェースを表示し、続いて、26Sでカメラユーザインタフェースを表示することができる)。図26Sでは、デバイス600は、電子デバイスがより安定であるように、デバイス600の移動の変化を検出する。 In particular, in some embodiments, the device 600 can detect changes in one or more environmental conditions while capturing media based on a previously set capture duration. In some embodiments, based on this change, the device 600 can update the capture duration value corresponding to the maximum state 2604c (or default state 2604b). When the device 600 updates the capture value corresponding to the maximum state 2604c (or default state 2604b), the device 600 displays an interface 1818 with a new capture duration in response to detecting the end of the media capture. (For example, the device 600 can display the camera user interface in FIG. 26Q, followed by the camera user interface in 26S). In FIG. 26S, the device 600 detects changes in the movement of the device 600 so that the electronic device is more stable.

図26Tに示すように、電子デバイスがより安定であるように、デバイス600の移動の変化を検出したことに応答して、デバイス600は、5秒のキャプチャ持続時間から10秒のキャプチャ持続時間に戻るように最大状態2604cを更新する。更には、電子デバイスがより安定であるように、デバイス600の移動の変化を検出したことに応答して、デバイス600はまた、10秒のキャプチャ持続時間を示すように、低光モード状態インジケータ602cを更新する(例えば、調整可能な低光モードコントロール1804が、インジケーション1818を介して、最大状態2604cに現在設定されているため)。図26Tでは、デバイス600は、調整可能な低光モードコントロール1804に対応する場所での右向きスワイプジェスチャ2650tを検出する。 As shown in FIG. 26T, in response to detecting a change in the movement of the device 600 so that the electronic device is more stable, the device 600 changes from a capture duration of 5 seconds to a capture duration of 10 seconds. Update the maximum state 2604c to return. Furthermore, in response to detecting changes in the movement of the device 600 so that the electronic device is more stable, the device 600 also shows a capture duration of 10 seconds, the low light mode state indicator 602c. (For example, because the adjustable low light mode control 1804 is currently set to the maximum state 2604c via the indication 1818). In FIG. 26T, the device 600 detects a rightward swipe gesture 2650t at a location corresponding to the adjustable low light mode control 1804.

図26Uに示すように、右向きスワイプジェスチャ2650tを検出したことに応答して、デバイス600は、右向きスワイプジェスチャ2650tの大きさ及び方向に基づいて、調整可能な低光モードコントロール1804のティックマークを右にシフトする。調整可能な低光モードコントロール1804のティックマークを右にシフトした後、デバイス600は、調整可能な低光モードコントロール1804上のオフ状態2604aのキャプチャ持続時間に対応する場所に、インジケーション1818を表示する。調整可能な低光モードコントロール1804がオフ状態2604aに設定されていることを検出したことに応答して、デバイス600は、低光モードでの動作を停止する。換言すれば、低光モードは、オフにされるか、又は非アクティブに設定される。低光モードでの動作を停止することに加えて、デバイス600は、低光キャプチャモードの状態が非アクティブであることを示すように、低光モード状態インジケータ602cを更新する。いくつかの実施形態では、調整可能な低光モードコントロール1804がオフ状態に設定されていることを検出したことに応答して、デバイス600は、低光モード状態インジケータ602cであることをやめる。いくつかの実施形態では、図26Uでは、メディアをキャプチャする要求を受信したことに応答して、デバイス600は、メディアの画像を1つだけキャプチャする標準フレームレートに基づいて、メディアをキャプチャする。 As shown in FIG. 26U, in response to detecting the rightward swipe gesture 2650t, the device 600 right-rights the tick mark of the adjustable low light mode control 1804 based on the size and orientation of the rightward swipe gesture 2650t. Shift to. After shifting the tick mark of the adjustable low light mode control 1804 to the right, the device 600 displays the indication 1818 on the adjustable low light mode control 1804 in a location corresponding to the capture duration of the off state 2604a. do. In response to detecting that the adjustable low light mode control 1804 is set to the off state 2604a, the device 600 ceases to operate in low light mode. In other words, the low light mode is turned off or set to inactive. In addition to stopping operation in low light mode, device 600 updates the low light mode state indicator 602c to indicate that the low light capture mode state is inactive. In some embodiments, the device 600 ceases to be the low light mode state indicator 602c in response to detecting that the adjustable low light mode control 1804 is set to the off state. In some embodiments, in FIG. 26U, in response to receiving a request to capture the media, the device 600 captures the media based on a standard frame rate that captures only one image of the media.

図27A〜図27Cは、いくつかの実施形態による電子デバイスを使用してメディアを管理するための方法を示すフロー図である。方法2700は、表示デバイス(例えば、タッチ感知ディスプレイ)を備えたデバイス(例えば、100、300、500、600)にて行われる。方法2700のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 27A-27C are flow diagrams illustrating methods for managing media using electronic devices according to some embodiments. Method 2700 is performed on a device (eg, 100, 300, 500, 600) equipped with a display device (eg, a touch-sensitive display). Some actions of Method 2700 are optionally combined, some actions are arbitrarily modified in order, and some actions are optionally omitted.

後述するように、方法2700は、メディアを管理するための直感的な仕方を提供する。この方法は、メディアを編集する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアを管理することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, Method 2700 provides an intuitive way to manage media. This method reduces the user's cognitive burden when editing media, thereby creating a more efficient human-machine interface. For battery-powered computing devices, it saves power and prolongs the time between battery charges by enabling users to manage media faster and more efficiently.

電子デバイス(例えば、600)は、表示デバイス(例えば、タッチ感知ディスプレイ)及び1つ以上のカメラ(例えば、電子デバイスの同じ側又は異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を含む。電子デバイスは、表示デバイスを介して、1つ以上のカメラ(例えば、カメラに視認可能である開放観測可能エリア、カメラレンズから所与の距離の画像の水平(又は垂直又は対角線)長さ)の視野の表現(例えば、表現オーバータイム、カメラからのデータのライブプレビューフィード)を表示すること(2704)を含むメディアキャプチャユーザインタフェースを表示する(2702)。 An electronic device (eg, 600) includes a display device (eg, a touch-sensitive display) and one or more cameras (eg, a front camera, a rear camera) on the same or different side of the electronic device. (For example, dual camera, triple camera, quad camera, etc.). An electronic device is an image of one or more cameras (eg, an open observable area visible to the camera, a horizontal (or vertical or diagonal) length of an image at a given distance from a camera lens) through a display device. Display the media capture user interface, including displaying the representation of the field of view (eg, representation overtime, live preview feed of data from the camera) (2704).

低光カメラモードがアクティブである間に(例えば、602cによって示すように)、電子デバイスは、メディアをキャプチャするキャプチャ持続時間を調整するコントロール(例えば、1804)(例えば、スライダ又はタイマー)を表示する(2706)。いくつかの実施形態では、低光カメラモード(例えば、低光キャプチャモード)は、低光条件が満たされているときにアクティブである。いくつかの実施形態では、低光条件は、1つ以上のカメラの視野内の周辺(例えば、2680a〜d)光がそれぞれの閾値を下回るとき、デバイスが低光モードで動作していることを示す低光状態インジケータをユーザが選択する(例えば、オンにする)とき、低光カメラモードをアクティブ化する設定をユーザがオンにする、又はアクティブ化するとき、に満たされる条件を低光条件が含むと満たされる。 While the low light camera mode is active (eg, as indicated by 602c), the electronic device displays a control (eg, 1804) (eg, slider or timer) that adjusts the capture duration to capture the media. (2706). In some embodiments, the low light camera mode (eg, low light capture mode) is active when low light conditions are met. In some embodiments, the low light condition means that the device is operating in low light mode when peripheral (eg, 2680a-d) light within the field of view of one or more cameras falls below their respective thresholds. When the user selects (for example, turns on) the low light condition indicator to indicate, when the user turns on or activates the setting to activate the low light camera mode, the low light condition satisfies the condition. Satisfied when included.

コントロールを表示することの一部として、1組の第1のキャプチャ持続時間基準(例えば、カメラ安定化、環境条件、光レベル、カメラ動き、及び/又はシーン動きに基づいて満たされる1組の基準)が満たされている(例えば、2680c)という判定に従って(2708)、電子デバイスは、コントロール(例えば、1804)が第1のキャプチャ持続時間(例えば、図26Fの2604b)(例えば、時間(例えば、合計キャプチャ時間、露出時間)、ピクチャ/フレームの数で測定)に設定されているというインジケーション(例えば、図26Fの1818)(例えば、スライダの特定のティックマーク上のスライダバー、表示デバイス上に表示されたテキスト)を表示する(2712)。所定の条件が満たされているときにのみ、調整可能なコントロールが特定のキャプチャ持続時間に設定されているというインジケーションを表示することによって、ユーザは、キャプチャ持続時間を手動で構成する必要なく、要求に応答して、デバイスがキャプチャメディアを使用するキャプチャ持続時間を迅速に認識することができる。また、所定の条件が満たされているときにのみ、調整可能なコントロールが特定のキャプチャ持続時間に設定されているというインジケーションを表示することにより、ユーザは、所定の条件を考慮して動作する特定のキャプチャ持続時間を計算する必要性を軽減する。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 As part of displaying controls, a set of criteria that are met based on a set of first capture duration criteria (eg, camera stabilization, environmental conditions, light levels, camera motion, and / or scene motion). ) Is satisfied (eg, 2680c) (2708), the electronic device has a control (eg, 1804) that has a first capture duration (eg, 2604b in FIG. 26F) (eg, time (eg, 1804)). Indications (eg, 1818 in Figure 26F) that are set to (total capture time, exposure time), measured by number of pictures / frames) (eg, slider bar on a particular tick mark on the slider, on the display device. The displayed text) is displayed (2712). By displaying an indication that the adjustable control is set to a specific capture duration only when certain conditions are met, the user does not have to manually configure the capture duration. In response to a request, the device can quickly recognize the capture duration using the capture media. Also, the user operates with certain conditions in mind by displaying an indication that the adjustable control is set to a specific capture duration only when certain conditions are met. Reduces the need to calculate a specific capture duration. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.

コントロール(例えば、1804)を表示することの一部として、1組の第1のキャプチャ持続時間基準(例えば、カメラ安定化、環境条件、光レベル、カメラ動き、及び/又はシーン動きに基づいて満たされる1組の基準)が満たされている(例えば、2680c)という判定に従って(2708)、電子デバイスは、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求(例えば、ジェスチャ2650f)に応答して、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイス(例えば、600)を構成する(2714)(例えば、設定を調整して、電子デバイスの1つ以上のカメラが、(例えば、(例えば、メディアキャプチャの開始(例えば、シャッターアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)上でのタップ)により)アクティブ化されると、電子デバイスに、キャプチャ持続時間の少なくとも一部分について第1の速度で複数の画像をキャプチャさせる)。多数の画像をキャプチャするように電子デバイスを自動的に構成することは、所定の条件のときにメディアをキャプチャする要求に応答して、ユーザが多数の画像をキャプチャするようにデバイスを手動で構成する必要がある入力の数を低減する。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 Satisfied based on a set of first capture duration criteria (eg, camera stabilization, environmental conditions, light levels, camera movement, and / or scene movement) as part of displaying the control (eg 1804). According to the determination (eg, 2780c) that a set of criteria) is met (eg, 2708), the electronic device has a single requirement (eg, gesture 2650f) to capture an image corresponding to the field of view of one or more cameras. ) To configure the electronic device (eg, 600) to capture the first plurality of images over the first capture duration (2714) (eg, adjust the settings to 1 of the electronic device). When one or more cameras are activated (eg, by tapping on the start of media capture (eg, tap on shutter adherence (eg, selectable user interface object)), the electronic device has a capture duration. Automatically configure the electronic device to capture a large number of images in response to a request to capture the media under certain conditions. It reduces the number of inputs that require the user to manually configure the device to capture a large number of images. Optimized when a set of states is satisfied without the need for additional user input. To improve the usability of the device by performing the above actions (for example, to assist the user in providing appropriate input when operating / interacting with the device and reducing user errors. By making the user-device interface more efficient, and in addition, by allowing users to use the device faster and more efficiently, it reduces power consumption and improves the battery life of the device.

コントロールを表示することの一部として、1組の第1のキャプチャ持続時間基準とは異なる、1組の第2のキャプチャ持続時間基準(例えば、カメラ安定化、環境条件、光レベル、カメラ動き、及び/又はシーン動きに基づいて満たされる1組の基準)が満たされている(例えば、2680d)という判定に従って(2710)、電子デバイスは、コントロール(例えば、1804)が、第1のキャプチャ持続時間よりも大きい第2のキャプチャ持続時間(例えば、図26Iの2604b)(例えば、時間(例えば、合計キャプチャ時間、露出時間)、ピクチャ/フレームの数で測定)に設定されているというインジケーション(例えば、図26Iの1818)(例えば、スライダの特定のティックマーク上のスライダバー、表示デバイス上に表示されたテキスト)を表示する(2716)。別の1組の所定の試行とは異なる所定の条件が満たされているときにのみ、調整可能なコントロールが特定のキャプチャ持続時間に設定されているというインジケーションを表示することによって、ユーザは、キャプチャ持続時間を手動で構成する必要なく、要求に応答して、デバイスがキャプチャメディアを使用するキャプチャ持続時間を迅速に認識することができる。また、所定の条件が満たされているときにのみ、調整可能なコントロールが特定のキャプチャ持続時間に設定されているというインジケーションを表示することにより、ユーザは、所定の条件を考慮して動作する特定のキャプチャ持続時間を計算する必要性を軽減する。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 As part of displaying the controls, a set of second capture duration criteria (eg, camera stabilization, environmental conditions, light levels, camera movement, etc.) that differs from the set of first capture duration criteria. And / or according to the determination (2710) that a set of criteria that are met based on scene movement is met (eg, 2680d), the electronic device controls (eg, 1804) the first capture duration. An indication (eg, measured by time (eg, total capture time, exposure time), number of pictures / frames) that is set to a second capture duration greater than (eg, 2604b in FIG. 26I). , 1818 of FIG. 26I) (eg, the slider bar on a particular tick mark on the slider, the text displayed on the display device) (2716). By displaying an indication that the adjustable control is set to a particular capture duration only when certain conditions that differ from another set of given trials are met, the user can: The device can quickly recognize the capture duration using the capture media in response to a request without having to manually configure the capture duration. Also, the user operates with certain conditions in mind by displaying an indication that the adjustable control is set to a specific capture duration only when certain conditions are met. Reduces the need to calculate a specific capture duration. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.

コントロール(例えば、1804)を表示することの一部として、1組の第1のキャプチャ持続時間基準とは異なる、1組の第2のキャプチャ持続時間基準(例えば、カメラ安定化、環境条件、光レベル、カメラ動き、及び/又はシーン動きに基づいて満たされる1組の基準)が満たされている(例えば、2680d)という判定に従って(2710)、電子デバイスは、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求(例えば、ジェスチャ2650j)に応答して、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイス(例えば、600)を構成する(2718)(第1のキャプチャ持続時間の外側である第2のキャプチャ持続時間の一部分の間に少なくとも1つの画像をキャプチャすることを含む)(例えば、設定を調整して、電子デバイスの1つ以上のカメラが、(例えば、(例えば、メディアキャプチャの開始(例えば、シャッターアフォーダンス上でのタップ)により)アクティブ化されると、電子デバイスに、キャプチャ持続時間の少なくとも一部分について第1の速度で複数の画像をキャプチャさせる)。いくつかの実施形態では、第2の複数の画像は、第1の複数の画像とは異なる。いくつかの実施形態では、第1の複数の画像は、第1の合成画像に作製される(例えば、組み合わされる)か、又は第2の複数の画像は、第2の合成画像に作製される(例えば、組み合わされる)。多数の画像をキャプチャするように電子デバイスを自動的に構成することは、所定の条件が満たされるときにメディアをキャプチャする要求に応答して、ユーザが多数の画像をキャプチャするようにデバイスを手動で構成する必要がある入力の数を低減する。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 As part of displaying a control (eg, 1804), a set of second capture duration criteria (eg, camera stabilization, environmental conditions, light) that differs from a set of first capture duration criteria. According to the determination (for example, 2680d) that a set of criteria that are met based on level, camera movement, and / or scene movement) is met (2710), the electronic device corresponds to the field of view of one or more cameras. In response to a single request to capture an image (eg, gesture 2650j), an electronic device (eg, 600) is configured to capture a second plurality of images over a second capture duration (2718). (Including capturing at least one image during a portion of the second capture duration that is outside the first capture duration) (eg, adjusting the settings to one or more of the electronic devices. When the camera is activated (eg, by the start of media capture (eg, tapping on shutter accommodation)), the electronic device is informed of multiple images at a first speed for at least a portion of the capture duration. In some embodiments, the second plurality of images are different from the first plurality of images. In some embodiments, the first plurality of images are the first composite image. A second plurality of images are created (eg, combined) in a second composite image. The electronic device is automatically made to capture a large number of images. Configuring to reduces the number of inputs that require the user to manually configure the device to capture a large number of images in response to a request to capture media when certain conditions are met. Improves device usability by performing optimized actions when a set of states is satisfied without the need for additional user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing proper input at times and reducing user errors), plus allowing the user to use the device faster and more efficiently. By reducing power consumption and improving the battery life of the device.

いくつかの実施形態では、電子デバイスは、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求(例えば、ジェスチャ2650f又は2650j)を受信する。いくつかの実施形態では、デバイスがシャッターアフォーダンス(例えば、610)に向けられたジェスチャ(例えば、タップ)を受信すると、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求は、受信される。いくつかの実施形態では、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求(例えば、ジェスチャ2650f又は2650j)を受信したことに応答して、電子デバイスは、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイスが構成されているという判定に従って、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャする(例えば、図26F〜図26G)。いくつかの実施形態では、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイスが構成されているという判定に従って、電子デバイスは、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャする(例えば、図26J〜図26R)。いくつかの実施形態では、第1の複数の画像(又は第2の複数の画像)は、複数の画像のコンテンツの分析に基づいて組み合わされる。 In some embodiments, the electronic device receives a single request (eg, gesture 2650f or 2650j) to capture an image corresponding to the field of view of one or more cameras. In some embodiments, when the device receives a gesture (eg, tap) directed to a shutter affordance (eg, 610), a single requirement to capture an image corresponding to the field of view of one or more cameras is. Received. In some embodiments, in response to receiving a single request (eg, gesture 2650f or 2650j) to capture an image corresponding to the field of view of one or more cameras, the electronic device receives a first capture. According to the determination that the electronic device is configured to capture the first plurality of images over the duration, the first plurality of images are captured over the first capture duration (eg, FIGS. 26F-26G). .. In some embodiments, according to the determination that the electronic device is configured to capture the second plurality of images over the second capture duration, the electronic device is second over the second capture duration. A plurality of images are captured (for example, FIGS. 26J to 26R). In some embodiments, the first plurality of images (or the second plurality of images) are combined based on an analysis of the content of the plurality of images.

いくつかの実施形態では、第1の複数の画像(例えば、図26F〜図26G)における画像の量は、第2の複数の画像における画像の量とは異なる(例えば、より多い、又はより少ない)(例えば、図26J〜図26R)。いくつかの実施形態では、複数の画像内の画像の量は、キャプチャ持続時間に基づくものであり、より長いキャプチャ持続時間は、より多くの画像を生成する。 In some embodiments, the amount of images in the first plurality of images (eg, FIGS. 26F-26G) is different (eg, more or less) than the amount of images in the second plurality of images. (For example, FIGS. 26J to 26R). In some embodiments, the amount of images in a plurality of images is based on the capture duration, with longer capture durations producing more images.

いくつかの実施形態では、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求(例えば、ジェスチャ2650f又は2650j)を受信したことに応答して、及び第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイスが構成されているという判定に従って、電子デバイスは、第1の複数の画像のうちの少なくともいくらかのコンテンツを含む第1の合成画像(例えば、図26Gの624)を生成する。いくつかの実施形態では、第1の合成画像(例えば、メディアコレクション624内の画像の表現)は、第1の合成画像が生成された後に、表示デバイスを介して、表示される。いくつかの実施形態では、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求(例えば、ジェスチャ2650f又は2650j)を受信したことに応答して、及び第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイスが構成されているという判定に従って、電子デバイスは、第2の複数の画像のうちの少なくともいくらかのコンテンツを含む第2の合成画像(例えば、図26Rの624)を生成する。いくつかの実施形態では、第2の合成画像は、第1の合成画像が生成された後に、表示デバイスを介して、表示される。いくつかの実施形態では、第1の複数の画像は、第1の合成画像に作製される(例えば、組み合わされる)か、又は第2の複数の画像は、第2の合成画像に作製される(例えば、組み合わされる)。いくつかの実施形態では、複数の画像のそれぞれは、画像のコンテンツ(例えば、データ)の分析に基づいて、独立してキャプチャされ、かつ組み合わされる。 In some embodiments, in response to receiving a single request (eg, gesture 2650f or 2650j) to capture an image corresponding to the field of view of one or more cameras, and over the first capture duration. According to the determination that the electronic device is configured to capture the first plurality of images, the electronic device comprises a first composite image (eg, a diagram) containing at least some content of the first plurality of images. 624) of 26G is generated. In some embodiments, the first composite image (eg, a representation of the image in the media collection 624) is displayed via a display device after the first composite image has been generated. In some embodiments, in response to receiving a single request (eg, gesture 2650f or 2650j) to capture an image corresponding to the field of view of one or more cameras, and over a second capture duration. According to the determination that the electronic device is configured to capture the second plurality of images, the electronic device comprises a second composite image (eg, a diagram) containing at least some content of the second plurality of images. 624) of 26R is generated. In some embodiments, the second composite image is displayed via the display device after the first composite image is generated. In some embodiments, the first plurality of images are made into a first composite image (eg, combined), or the second plurality of images are made into a second composite image. (For example, combined). In some embodiments, each of the plurality of images is independently captured and combined based on an analysis of the content (eg, data) of the image.

いくつかの実施形態では、コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示している間に、電子デバイスは、(例えば、加速度計及び/又はジャイロスコープにより)電子デバイスの第1の安定度(例えば、図26Rで論じられた)(例えば、電子デバイスの現在の移動量(又は移動の欠如))を検出する。いくつかの実施形態では、電子デバイスは、電子デバイスの第1の安定度(例えば、図26Rで論じられた)を検出したことに応答して、及び電子デバイスの第1の安定度が、第1の安定性閾値を上回る(例えば、電子デバイスがより安定であることを検出する)という判定に従って、コントロール(例えば、1804)が第1のキャプチャ持続時間よりも長い(例えば、第1のキャプチャ持続時間を増加する)、第3のキャプチャ持続時間(例えば、図26Rの2604c)に設定されているインジケーション(例えば、1818)を表示し;かつ1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求(例えば、ジェスチャ2650f又は2650j)に応答して、第3のキャプチャ持続時間にわたって第3の複数の画像をキャプチャするように電子デバイスを構成する。いくつかの実施形態では、コントロールが第1のキャプチャ持続時間に設定されているというインジケーションは、表示を停止される。特定の所定の条件が満たされている(例えば、電子デバイスが安定である)ときに調整可能なコントロールが設定されることのインジケーションの表示を更新することにより、ユーザは、電子デバイスのキャプチャ持続時間が変化したことを迅速に認識することができ、電子デバイスは、変化したキャプチャ持続時間でメディアをキャプチャするように構成される。いくつかの実施形態では、電子デバイスは、画像をキャプチャする単一の要求に応答して、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャする代わりに、第3の複数の画像をキャプチャするように構成される。いくつかの実施形態では、電子デバイスの安定度が閾値を下回るという判定に従って(例えば、電子デバイスがより不安定であることを検出する)、第1のキャプチャ持続時間(又は第2の)は、減少する(例えば、インジケーションは、減少したキャプチャ持続時間を表示し、電子デバイスは、減少したキャプチャ持続時間にわたって画像をキャプチャするように構成される)。いくつかの実施形態では、電子デバイスの安定度が、安定性閾値よりも小さくかつ第2の安定性閾値よりも大きいという判定に従って(例えば、デバイスの安定感は十分に変化していない)、コントロールが第1のキャプチャ持続時間に設定されているという指示を維持し、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするデバイスの構成を維持する。また、所定の条件が満たされているときにのみ、調整可能なコントロールが特定のキャプチャ持続時間に設定されているという更新されたインジケーションを表示することにより、ユーザは、キャプチャ持続時間に関連する条件が変化したときに動作する特定のキャプチャ持続時間を計算する必要性を軽減する。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。新しい多数の画像をキャプチャするように電子デバイスを自動的に構成することは、所定の条件が変化したときにメディアをキャプチャする要求に応答して、ユーザが新しい多数の画像をキャプチャするようにデバイスを手動で構成する必要がある入力の数を低減する。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the electronic device is of the electronic device (eg, by an accelerometer and / or gyroscope) while displaying an indication that the control is set to the first capture duration. The first stability (eg, discussed in FIG. 26R) (eg, the current amount of movement (or lack of movement) of the electronic device) is detected. In some embodiments, the electronic device responds to the detection of the first stability of the electronic device (eg, discussed in FIG. 26R), and the first stability of the electronic device is the first. The control (eg, 1804) is longer than the first capture duration (eg, the first capture duration) according to the determination that the stability threshold of 1 is exceeded (eg, detecting that the electronic device is more stable). (Increase time), display indications (eg 1818) set to a third capture duration (eg 2604c in FIG. 26R); and capture images corresponding to the field of view of one or more cameras. In response to a single request (eg, gesture 2650f or 2650j), the electronic device is configured to capture a third plurality of images over a third capture duration. In some embodiments, the indication that the control is set to the first capture duration is stopped displaying. By updating the display of the indication that adjustable controls are set when certain predetermined conditions are met (eg, the electronic device is stable), the user can continue to capture the electronic device. With the ability to quickly recognize changes in time, electronic devices are configured to capture media with varying capture durations. In some embodiments, the electronic device responds to a single request to capture an image by capturing a third plurality of images instead of capturing the first plurality of images over the first capture duration. Configured to capture. In some embodiments, the first capture duration (or second) is determined according to the determination that the stability of the electronic device is below the threshold (eg, detecting that the electronic device is more unstable). Decrease (for example, the indication displays the reduced capture duration and the electronic device is configured to capture the image over the reduced capture duration). In some embodiments, the control is controlled according to the determination that the stability of the electronic device is less than the stability threshold and greater than the second stability threshold (eg, the stability of the device has not changed sufficiently). Keeps the instruction that is set to the first capture duration and maintains the configuration of the device that captures the first plurality of images over the first capture duration. Also, by displaying an updated indication that the adjustable control is set to a specific capture duration only when certain conditions are met, the user is associated with the capture duration. Reduces the need to calculate a specific capture duration that works when conditions change. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life. Automatically configuring an electronic device to capture a large number of new images allows the user to capture a large number of new images in response to a request to capture media when certain conditions change. Reduce the number of inputs that need to be manually configured. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.

いくつかの実施形態では、低光カメラモードがアクティブである間に、電子デバイスは、低光キャプチャモードの状態(例えば、アクティブ(例えば、図26Hの602c)(例えば、オン)、非アクティブ(例えば、図26Sの602c)(例えば、オフ)、利用可能(例えば、図26Bの602c)(例えば、低光モードが非アクティブであるが、アクティブに設定できる))を示し、かつキャプチャ持続時間表示基準が満たされているという判定に従って、第1のキャプチャ持続時間(例えば、図26Hの602c)(又はコントロールが第2のキャプチャ持続時間に設定されているというインジケーションを表示する第2のキャプチャ持続時間)の視覚表現(例えば、26Jの602cの10秒)を含む、第1の低光キャプチャ状態インジケータ(例えば、602c)を表示する。いくつかの実施形態では、低光カメラモードがアクティブである間に、電子デバイスは、低光キャプチャモードの状態(例えば、アクティブ(例えば、オン)、非アクティブ(例えば、オフ)、利用可能(例えば、オンにする能力))を示し、かつ持続時間表示基準が満たされていないという判定に従って、第1のキャプチャ持続時間(例えば、図26Eの602c)(又はコントロールが第2のキャプチャ持続時間に設定されているというインジケーションを表示する第2のキャプチャ持続時間)の視覚表現(例えば、26Jの602cの10秒)を含まない、第1の低光キャプチャ状態インジケータを表示する。所定の条件が満たされているときに低光状態インジケータ内にキャプチャ持続時間の視覚表現を表示することによって、キャプチャ持続時間がキャプチャ持続時間の通常範囲の外側である場合に、電子デバイスを使用して、メディアをキャプチャする、キャプチャ持続時間の現在の状態についてのフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。所定の条件が満たされているときに低光状態インジケータ内にキャプチャ持続時間の視覚表現を表示するのをやめることによって、片付けられたユーザインタフェースを提供し、かつキャプチャ持続時間がキャプチャ持続時間の通常範囲内であるときにフィードバックによりユーザを視覚的に注意散漫にさせない。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, while the low light camera mode is active, the electronic device is in a low light capture mode state (eg, active (eg, 602c in FIG. 26H) (eg, on), inactive (eg, on). , 602c in FIG. 26S (eg, off), available (eg, 602c in FIG. 26B) (eg, low light mode is inactive but can be set active)) and capture duration display criteria. A second capture duration that displays an indication that the control is set to a second capture duration (eg, 602c in FIG. 26H) according to the determination that is satisfied. ) Is included (eg, 26J 602c for 10 seconds) to display a first low light capture state indicator (eg, 602c). In some embodiments, while the low light camera mode is active, the electronic device is in a low light capture mode state (eg, active (eg, on), inactive (eg, off), and available (eg, off). The first capture duration (eg, 602c in FIG. 26E) (or the control sets the second capture duration) according to the determination that the duration display criteria are not met. Display a first low light capture status indicator that does not include a visual representation (eg, 26J 602c 10 seconds) of a second capture duration that displays the indication that it is being done. Use an electronic device when the capture duration is outside the normal range of the capture duration by displaying a visual representation of the capture duration in the low light condition indicator when certain conditions are met. And provide the user with feedback on the current state of the capture duration, which captures the media. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve. Provides a tidy user interface by stopping displaying the visual representation of the capture duration in the low light condition indicator when certain conditions are met, and the capture duration is usually the capture duration. Do not visually distract the user with feedback when within range. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

いくつかの実施形態では、キャプチャ持続時間表示基準は、1つ以上のカメラの視野内の周辺光が第1の所定の範囲内にあると満たされる基準を含む(例えば、2680a〜c対2680d)。いくつかの実施形態では、1つ以上のカメラの視野内の周辺光が変化すると、電子デバイスは、周辺光(例えば、2680a〜d)が第1の所定の範囲又は第2の所定の範囲にあるかどうかに基づいて、第1のキャプチャ持続時間(例えば、図26Jの602c及びインジケータ1818によって設定されたキャプチャ持続時間)(又は第2のキャプチャ持続時間)の視覚表現を表示するかどうかを自動的に再評価する。 In some embodiments, the capture duration display criteria include criteria for satisfying that the ambient light in the field of view of one or more cameras is within a first predetermined range (eg, 2680a-c vs. 2680d). .. In some embodiments, when the ambient light within the field of view of one or more cameras changes, the electronic device causes the peripheral light (eg, 2680ad) to be in the first predetermined range or the second predetermined range. Automatically display whether to display a visual representation of the first capture duration (eg, the capture duration set by 602c in FIG. 26J and indicator 1818) (or the second capture duration) based on the presence or absence. Re-evaluate.

低光カメラモードがアクティブである前に、いくつかの実施形態では、電子デバイスは、1つ以上のカメラの視野内の周辺光(例えば、2680d)が第2の所定の範囲内である(例えば、1ルクスなどの閾値を下回る)(例えば、キャプチャ持続時間表示基準を満たす第1の所定の範囲内であるときに判定される)という判定に従って、低光キャプチャモードの状態がアクティブである(例えば、低光キャプチャモードがアクティブであることを示す状態(例えば、デバイスが、メディアをキャプチャする要求に応答して、低光キャプチャモードでメディアをキャプチャするように現在構成されている状態))ことを示し、第3のキャプチャ持続時間(例えば、第1又は第2のキャプチャ持続時間)の視覚表現(例えば、26Hの「5秒」)を含む、第2の低光キャプチャ状態インジケータ(例えば、図26Hの602c)を表示する。いくつかの実施形態では、低光カメラモードがアクティブである前に、1つ以上のカメラの視野内の周辺光(例えば、2680c)が第4の所定の範囲(例えば、1ルクス〜10ルクスなどの範囲)内にあるという判定に従って、低光キャプチャモードの状態がアクティブであることを示し、第3のキャプチャ持続時間の視覚表現(例えば、図26Eの602c)を含まない、第3の低光キャプチャ状態インジケータ(例えば、図26Eの602c)を表示し;1つ以上のカメラの視野内の周辺光(例えば、2680b)が第5の所定の範囲(例えば、10〜20ルクスなどの所定の範囲)内であるという判定に従って、低光キャプチャモードの状態が利用可能であることを示す第4の低光キャプチャ状態インジケータ(例えば、図26Bの602c)(例えば、アクティブ化のために利用可能であるが、現在アクティブではない)(例えば、低光キャプチャモードが利用可能であることを示す状態(例えば、デバイスが、低光キャプチャモードでメディアをキャプチャするように現在構成されていないが、低光モードでメディアをキャプチャするように構成され得る状態)、低光キャプチャモードが利用可能であり、かつユーザによって手動でオン又はオフされていないことを示す状態(例えば、デバイスは、低光キャプチャモードインジケータが最初に(最近)表示されたか、又は低光キャプチャモードインジケータを表示する判定を行ったため、低光キャプチャモードでメディアをキャプチャする又はキャプチャしないように構成されていない))を表示し;1つ以上のカメラの視野内の周辺光(例えば、2680a)が第6の所定の範囲内(例えば、20ルクス超などの所定の範囲)にあるという判定に従って、電子デバイスは、第2の低光キャプチャ状態インジケータと、第3の低光キャプチャ状態インジケータと、第4の低光キャプチャ状態インジケータと、を表示するのをやめる(例えば、図26Aの602cが不存在)。いくつかの実施形態では、第2の低光キャプチャ状態インジケータ、第3の低光キャプチャ状態インジケータ、及び第4の低光キャプチャ状態インジケータは、互いに視覚的に異なる(例えば、表示された色、質感、太さ、文字、又はマークが異なる(例えば、非アクティブ状態を示すために取り消し線が引かれる)、キャプチャ持続時間の視覚表現を有無)。いくつかの実施形態では、低光キャプチャモードの状態が利用可能であることを示す第4の低光状態インジケータは、キャプチャ持続時間(例えば、第3のキャプチャ持続時間)の視覚表現を含まない。いくつかの実施形態では、1つ以上のカメラの視野内の周辺光が第6の所定の範囲であるという判定に従って、電子デバイスは、任意の低光キャプチャ状態インジケータを表示するのをやめる。いくつかの実施形態では、(例えば、周辺光の)第3の所定の範囲は、(例えば、周辺光の)第4の所定の範囲よりも小さく、(例えば、周辺光の)第4の所定の範囲は、(例えば、周辺光の)第5の所定の範囲よりも小さく、第5の所定の範囲は、(例えば、周辺光の)第6の所定よりも小さい。いくつかの実施形態では、所定の範囲は、重複しない(例えば、重複していない所定の範囲)。所定の条件が満たされているときに低光状態インジケータ内にキャプチャ持続時間の視覚表現を表示することによって、キャプチャ持続時間がキャプチャ持続時間の通常範囲の外側である場合に、電子デバイスを使用して、メディアをキャプチャする、キャプチャ持続時間の現在の状態についてのフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。所定の条件が満たされているときに低光状態インジケータ内にキャプチャ持続時間の視覚表現を表示することによって、キャプチャ持続時間がキャプチャ持続時間の通常範囲の外側である場合に、電子デバイスを使用して、メディアをキャプチャする、キャプチャ持続時間の現在の状態についてのフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。所定の条件が満たされているときに視覚表現なしで低光状態インジケータを表示することによって、電子デバイスが低光モードの間にメディアをキャプチャするように構成され、ユーザインタフェースを雑然とさせることなく、キャプチャ持続時間の通常範囲であるメディアをキャプチャするためのキャプチャ持続時間を使用するフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。所定の条件が満たされているときに低光状態を示す低光キャプチャ状態インジケータを表示することによって、ユーザが、低光モードであるが、低光モードでメディアをキャプチャするように(例えば、ユーザ入力を介して)構成可能である間に、電子デバイスがメディアをキャプチャするように構成されていないことを迅速に認識できるようにし、ユーザが、メディアをキャプチャする要求を受信したことに応答して、電子デバイスが低光モードに従って動作しないことを迅速に理解できるようにする。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。所定の条件が満たされているときに低光キャプチャ状態インジケータを表示するのをやめることによって、ユーザが、低光モードである間に、電子デバイスがメディアをキャプチャするように構成されていないことを迅速に認識できるようにし、ユーザが、メディアをキャプチャする要求を受信したことに応答して、電子デバイスが低光モードに従って動作しないことを迅速に理解できるようにする。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 Prior to the low light camera mode being active, in some embodiments, the electronic device has ambient light (eg, 2680d) within the field of view of one or more cameras within a second predetermined range (eg, 2680d). The low light capture mode state is active (eg, below a threshold such as 1 lux) (eg, determined when it is within a first predetermined range that meets the capture duration display criteria). A state that indicates that the low light capture mode is active (for example, the device is currently configured to capture the media in the low light capture mode in response to a request to capture the media). A second low light capture state indicator (eg, FIG. 26H) showing and including a visual representation (eg, “5 seconds” of 26H) of a third capture duration (eg, first or second capture duration). 602c) is displayed. In some embodiments, the ambient light in the field of view of one or more cameras (eg, 2680c) is in a fourth predetermined range (eg, 1 lux to 10 lux, etc.) before the low light camera mode is active. A third low light that indicates that the low light capture mode state is active and does not include a visual representation of the third capture duration (eg, 602c in FIG. 26E), according to the determination that it is within. A capture status indicator (eg, 602c in FIG. 26E) is displayed; ambient light (eg, 2680b) within the field of view of one or more cameras is in a fifth predetermined range (eg, a predetermined range such as 10 to 20 lux). ), According to the determination that the low light capture mode state is available, a fourth low light capture state indicator (eg, 602c in FIG. 26B) (eg, available for activation). Is not currently active) (eg, a state indicating that low light capture mode is available (eg, the device is not currently configured to capture media in low light capture mode, but low light mode) A state in which the low light capture mode is available and has not been manually turned on or off by the user (eg, the device has a low light capture mode indicator). First (recently) displayed or determined to display the low light capture mode indicator, so it is not configured to capture or not capture media in low light capture mode))); one or more According to the determination that the ambient light (eg, 2680a) in the field of view of the camera is within a sixth predetermined range (eg, a predetermined range such as over 20 lux), the electronic device is placed in a second low light capture state. Stop displaying the indicator, the third low light capture state indicator, and the fourth low light capture state indicator (eg, 602c in FIG. 26A is absent). In some embodiments, the second low light capture state indicator, the third low light capture state indicator, and the fourth low light capture state indicator are visually different from each other (eg, the displayed color, texture). , With or without a visual representation of the capture duration, with a different thickness, text, or mark (eg, withdrawal to indicate inactivity). In some embodiments, the fourth low light condition indicator indicating that the low light capture mode state is available does not include a visual representation of the capture duration (eg, the third capture duration). In some embodiments, the electronic device ceases to display any low light capture state indicator according to the determination that the ambient light in the field of view of one or more cameras is in the sixth predetermined range. In some embodiments, the third predetermined range (eg, of ambient light) is smaller than the fourth predetermined range (eg, of ambient light) and the fourth predetermined range (eg, of ambient light). The range of is smaller than the fifth predetermined range (for example, of ambient light), and the fifth predetermined range is smaller than the sixth predetermined range (for example, of ambient light). In some embodiments, the predetermined ranges do not overlap (eg, non-overlapping predetermined ranges). Use an electronic device when the capture duration is outside the normal range of the capture duration by displaying a visual representation of the capture duration in the low light condition indicator when certain conditions are met. And provide the user with feedback on the current state of the capture duration, which captures the media. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve. Use an electronic device when the capture duration is outside the normal range of the capture duration by displaying a visual representation of the capture duration in the low light condition indicator when certain conditions are met. And provide the user with feedback on the current state of the capture duration, which captures the media. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve. By displaying a low light condition indicator without visual representation when certain conditions are met, the electronic device is configured to capture media during low light mode without cluttering the user interface. Provides users with feedback using the capture duration to capture media, which is the normal range of capture duration. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve. By displaying a low light capture status indicator that indicates a low light state when certain conditions are met, the user can capture media in low light mode but in low light mode (eg, user). While configurable (via input), it allows the electronic device to quickly recognize that it is not configured to capture media, in response to a user receiving a request to capture media. , Allows you to quickly understand that electronic devices do not operate according to low light mode. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life. By stopping displaying the low light capture status indicator when certain conditions are met, the user is not configured for the electronic device to capture media while in low light mode. Allows for quick recognition and allows the user to quickly understand that an electronic device does not operate according to low light mode in response to receiving a request to capture media. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.

いくつかの実施形態では、メディアをキャプチャするキャプチャ持続時間を調整するコントロール(例えば、1804)は、第1の推奨されるキャプチャ持続時間値(例えば、キャプチャ持続時間が最小値であることを示す値、複数の画像よりも単一の画像を示す値は、単一のキャプチャ要求に応答して、キャプチャされる)に対応する第1の状態(例えば、2604a)(例えば、中心の左(例えば、最も遠い左)である調整可能なコントロール(例えば、位置での調整可能なコントロールのティックマーク)上の位置)と、第2の推奨されるキャプチャ持続時間値(例えば、最小ユーザ選択可能値よりも大きく、かつ現在の条件でユーザによって設定され得る最大利用可能値よりも小さい、電子デバイスによって設定された値)に対応する第2の状態(例えば、2604b)(例えば、コントロール上の調整可能なコントロール(例えば、位置での調整可能なコントロールのティックマーク)上の中心位置)と、第3の推奨されるキャプチャ持続時間値(例えば、現在の条件でユーザによって設定され得る最大利用可能値、最大利用可能値は、照明条件及び又はカメラ安定性が変化するにつれて任意選択的に変化する(照明レベルが低下し、かつ/又はカメラがより安定であると増加し、照明レベルが増加し、かつ/又はカメラがより不安定であると減少する)に対応する第3の状態(例えば、2604c)(例えば、中心の右(例えば、最も遠い右)である調整可能なコントロール(例えば、位置での調整可能なコントロールのティックマーク)上の位置)と、を調整可能なように構成される。いくつかの実施形態では、調整可能なコントロールを表示するときに、第1の状態、第2の状態、及び第3の状態のコントロール上の位置がコントロール上に表示され、かつ互いに視覚的に区別可能である(例えば、異なるように標識される(例えば、「OFF」、「自動」、「MAX」)。いくつかの実施形態では、調整可能なコントロールを表示するときに、第1の状態、第2の状態、及び第3の状態の調整可能なコントロール(例えば、ティックマーク)上の位置が調整可能なコントロール上の他の位置(例えば、ティックマーク)から視覚的に区別可能である。いくつかの実施形態では、(例えば、第1、第2、及び第3の状態とは視覚的に異なる)1つ以上の選択可能状態が存在する。いくつかの実施形態では、調整可能なコントロールは、選択可能状態に対応する位置に設定され得る。いくつかの実施形態では、調整可能なコントロールは、選択可能状態のうちの2つ以上の位置の間である位置(例えば、中間位置)に設定され得る。低光モードにある間に電子デバイスがメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することにより、特定のキャプチャ持続時間の既定の状態(例えば、オフ状態、デフォルト状態、最大状態)に対応するキャプチャ持続時間についてのフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the control that adjusts the capture duration to capture the media (eg, 1804) is the first recommended capture duration value (eg, a value that indicates that the capture duration is the minimum). A value indicating a single image rather than a plurality of images corresponds to a first state (eg, 2604a) (eg, to the left of the center (eg, eg, captured) in response to a single capture request). The position on the adjustable control (eg, the tick mark of the adjustable control in position) that is the farthest left) and the second recommended capture duration value (eg, the minimum user selectable value). A second state (eg, 2604b) (eg, an adjustable control on the control) that corresponds to a second state (eg, 2604b) that is greater and less than the maximum available value that can be set by the user under the current conditions. A center position on (eg, a tick mark of an adjustable control in position) and a third recommended capture duration value (eg, maximum available value, maximum utilization that can be set by the user under the current conditions). Possible values change arbitrarily as the lighting conditions and / or camera stability change (the lighting level decreases and / or increases as the camera is more stable, the lighting level increases and / or Adjustable control (eg, position adjustable) that is a third state (eg, 2604c) (eg, right of the center (eg, farthest right)) corresponding to a third state (eg, 2604c) that corresponds to the camera becoming more unstable. The position on the tick mark of the control) and is configured to be adjustable. In some embodiments, when displaying the adjustable control, the first state, the second state, and The position on the control of the third state is displayed on the control and is visually distinguishable from each other (eg, labeled differently (eg, "OFF", "automatic", "MAX"). In some embodiments, when displaying an adjustable control, the position on the adjustable control (eg, tick mark) of the first, second, and third states is adjustable. It is visually distinguishable from other positions on the control (eg, tick marks). In some embodiments (eg, visually different from the first, second, and third states) 1. There are one or more selectable states. In some embodiments, The adjustable control can be set to a position corresponding to the selectable state. In some embodiments, the adjustable control may be set to a position (eg, an intermediate position) between two or more positions in the selectable state. Supports the default state of a particular capture duration (eg, off state, default state, maximum state) by displaying controls that adjust the capture duration for the electronic device to capture the media while in low light mode. Provide users with feedback on the duration of the capture. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

いくつかの実施形態では、メディアをキャプチャするキャプチャ持続時間を調整するコントロール(例えば、1804)を表示することの一部として、電子デバイスは、1組の第1のキャプチャ持続時間基準であるという判定に従って、第2の状態(例えば、図26Gの2604b)(例えば、コントロールが第1のキャプチャ持続時間に設定されているインジケーションをコントロール上の第2の推奨されるキャプチャ持続時間値に対応する位置に表示される)(ここで、第1のキャプチャ持続時間は、第2の推奨されるキャプチャ持続時間値である)へと調整されたメディアをキャプチャするキャプチャ持続時間を調整するコントロール(例えば、図26Gの1804)を(例えば、コントロールが表示される(例えば、最初に表示される)ときに)表示し;かつ1組の第2のキャプチャ持続時間基準という判定に従って、第2の状態(例えば、図26Iの2604b)(例えば、コントロールが第2のキャプチャ持続時間に設定されているインジケーションをコントロール上の第2の推奨されるキャプチャ持続時間値に対応する位置に表示される)(ここで、第2のキャプチャ持続時間は、第2の推奨されるキャプチャ持続時間値である)へと(例えば、に)調整されたメディアをキャプチャするキャプチャ持続時間を調整するコントロール(例えば、図26Iの1804)を(例えば、コントロールが表示される(例えば、最初に表示される)ときに)表示する。それぞれの所定の条件満たされるときに基づいて、キャプチャ持続時間状態に対して異なる推奨されるキャプチャ持続時間を提供することにより、ユーザは、それぞれの既定の条件が満たされるときに使用されるそれぞれのキャプチャ持続時間に基づいて、特定のキャプチャ持続時間状態に対応する値を迅速に認識することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the electronic device is determined to be a set of first capture duration criteria as part of displaying a control (eg, 1804) that adjusts the capture duration to capture the media. According to the second state (eg, 2604b in FIG. 26G) (eg, the position where the control is set to the first capture duration corresponds to the second recommended capture duration value on the control. A control that adjusts the capture duration to capture the media adjusted to (where the first capture duration is the second recommended capture duration value) (eg, Figure). 26G 1804) is displayed (eg, when the control is displayed (eg, first displayed); and according to the determination of a set of second capture duration criteria, a second state (eg, eg). 2604b in FIG. 26I) (for example, the indication for which the control is set to the second capture duration is displayed at the position corresponding to the second recommended capture duration value on the control) (where The second capture duration is a control that adjusts the capture duration to capture the media adjusted (eg, to) to (eg, the second recommended capture duration value) (eg, 1804 in FIG. 26I). (For example, when the control is displayed (for example, when it is first displayed)). By providing different recommended capture durations for the capture duration state based on when each given condition is met, the user will be able to use each of them when their respective default conditions are met. Based on the capture duration, the value corresponding to a particular capture duration state can be quickly recognized. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.

いくつかの実施形態では、メディアをキャプチャするキャプチャ持続時間を調整するコントロール(例えば、1804)を表示することの一部として、メディアをキャプチャするキャプチャ持続時間を調整するコントロールが第3の状態(例えば、2604c)であるとの判定、及び1組の第1のキャプチャ持続時間基準が満たされているという判定に従って、第3の推奨されるキャプチャ持続時間値(例えば、図26Rの2604c)は、第3のキャプチャ持続時間値であり、メディアをキャプチャするキャプチャ持続時間を調整するコントロールが第3の状態にあるとの判定、及び1組の第2のキャプチャ持続時間基準が満たされているという判定に従って、第3の推奨されるキャプチャ持続時間値(例えば、図26Sの2604c)は、第3のキャプチャ持続時間値とは異なる(例えば、より大きい)第4のキャプチャ持続時間値である。いくつかの実施形態では、最大ユーザ選択可能キャプチャ持続時間は、動的であり、かつオンカメラ安定化、環境条件、光レベル、カメラ動き、及び/又はシーン動きのうちの1つ以上に基づいて変化する。それぞれの所定の条件満たされるときに基づいて、キャプチャ持続時間状態に対して異なる推奨されるキャプチャ持続時間を提供することにより、ユーザは、それぞれの既定の条件が満たされるときに使用されるそれぞれのキャプチャ持続時間に基づいて、特定のキャプチャ持続時間状態に対応する値を迅速に認識することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, as part of displaying a control that adjusts the capture duration to capture the media (eg, 1804), the control that adjusts the capture duration to capture the media is in a third state (eg, 1804). , 2604c), and a third recommended capture duration value (eg, 2604c in FIG. 26R) is determined according to the determination that a set of first capture duration criteria is met. According to the determination that the capture duration value of 3 is in the third state and that the control that adjusts the capture duration to capture the media is in the third state, and that a set of second capture duration criteria is met. , The third recommended capture duration value (eg, 2604c in FIG. 26S) is a fourth capture duration value that is different (eg, larger) than the third capture duration value. In some embodiments, the maximum user selectable capture duration is dynamic and is based on one or more of on-camera stabilization, environmental conditions, light levels, camera movement, and / or scene movement. Change. By providing different recommended capture durations for the capture duration state based on when each given condition is met, the user will be able to use each of them when their respective default conditions are met. Based on the capture duration, the value corresponding to a particular capture duration state can be quickly recognized. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.

いくつかの実施形態では、第2のキャプチャ持続時間値は、第5のキャプチャ持続時間値であり、第3の推奨されるキャプチャ持続時間値は、第6のキャプチャ値である。いくつかの実施形態では、メディアをキャプチャするキャプチャ持続時間を調整するコントロール(例えば、1804)を表示している間に、電子デバイスは、電子デバイスの現在の条件(例えば、電子デバイスの安定化、1つ以上のカメラによって検出された周辺光、1つ以上のカメラの視野内の移動)の第1の変化を検出する。いくつかの実施形態では、電子デバイスの現在の条件の第1の変化を検出したことに応答して、及び第1の現在の条件が第3のキャプチャ持続時間基準を満たすという判定に従って、電子デバイスは、第2の推奨されるキャプチャ持続時間値(例えば、2604b)のうちの少なくとも1つを、第7のキャプチャ持続時間に変更する。いくつかの実施形態では、第5のキャプチャ持続時間は、第7のキャプチャ持続時間とは異なる。いくつかの実施形態では、第3の推奨されるキャプチャ持続時間値(例えば、2604c)は、第8のキャプチャ持続時間である。いくつかの実施形態では、第8のキャプチャ持続時間は、第6のキャプチャ持続時間とは異なる。 In some embodiments, the second capture duration value is the fifth capture duration value and the third recommended capture duration value is the sixth capture value. In some embodiments, the electronic device captures the media while displaying a control that adjusts the capture duration (eg, 1804), while the electronic device presents the electronic device's current conditions (eg, electronic device stabilization, etc.). Detects a first change in ambient light (movement within the field of view of one or more cameras) detected by one or more cameras. In some embodiments, the electronic device responds to the detection of a first change in the current condition of the electronic device, and according to the determination that the first current condition meets the third capture duration criterion. Changes at least one of the second recommended capture duration values (eg, 2604b) to the seventh capture duration. In some embodiments, the fifth capture duration is different from the seventh capture duration. In some embodiments, the third recommended capture duration value (eg, 2604c) is the eighth capture duration. In some embodiments, the eighth capture duration is different from the sixth capture duration.

いくつかの実施形態では、1組の第1のキャプチャ持続時間基準(例えば、又は第2のキャプチャ持続時間基準)は、1つ以上のカメラの視野内で検出された周辺光(例えば、対応する期間にわたって周辺光の第1の所定の範囲内にある(又は、第2のキャプチャ持続時間基準の場合、周辺光の第1の所定の範囲とは異なる周辺光の第2の所定範囲を上回る)、1つ以上のカメラの視野内で検出された周辺光)と、1つ以上のカメラの視野内で検出された移動(例えば、対応する期間にわたって1つ以上のカメラの視野内の検出された移動の第1の所定の範囲内にある(又は、第2のキャプチャ持続時間基準の場合、1つ以上のカメラの視野内の第1の所定の移動範囲とは異なる1つ以上のカメラの視野内の第2の所定の移動範囲を上回る)、1つ以上のカメラの視野内で検出された移動)と、電子デバイスの(例えば、加速度計及び/又はジャイロスコープによる)第2の安定度(例えば、対応する期間にわたって電子デバイスの現在の移動量(又は移動の欠如))(例えば、第2の安定性閾値を上回る、電子デバイスの第2の安定度(又は、第2のキャプチャ持続時間の場合、第2の安定性閾値とは異なる第3の安定性閾値を上回る)と、からなる群から選択される1つ以上のパラメータに基づく基準を含む。 In some embodiments, a set of first capture duration criteria (eg, or second capture duration criteria) is ambient light (eg, corresponding) detected within the field of view of one or more cameras. Within a first predetermined range of ambient light over a period of time (or, in the case of a second capture duration reference, above a second predetermined range of ambient light that is different from the first predetermined range of ambient light) Ambient light detected within the field of view of one or more cameras) and movement detected within the field of view of one or more cameras (eg, detected within the field of view of one or more cameras over a corresponding period). The field of view of one or more cameras that is within the first predetermined range of movement (or, in the case of the second capture duration reference, is different from the first predetermined range of movement within the field of view of the one or more cameras). A second stability (eg, by an accelerometer and / or a gyroscope) of an electronic device (eg, a movement detected within the field of view of one or more cameras) within a second predetermined range of movement within. For example, the current amount of movement (or lack of movement) of the electronic device over the corresponding period (eg, of the second stability (or second capture duration) of the electronic device above the second stability threshold. In the case of exceeding a third stability threshold that is different from the second stability threshold), and includes criteria based on one or more parameters selected from the group consisting of.

いくつかの実施形態では、メディアキャプチャユーザインタフェースを表示することの一部として、電子デバイスは、1つ以上のカメラの視野の表現(例えば、603)と同時に、メディアをキャプチャするアフォーダンス(例えば、610)(例えば、選択可能ユーザインタフェースオブジェクト)を表示する。いくつかの実施形態では、メディアをキャプチャする及びコントロール(例えば、1804)が第3のキャプチャ持続時間(例えば、第1のキャプチャ持続時間、第2のキャプチャ持続時間、又はコントロールを設定することに向けられたユーザ入力で設定された別の持続時間)に設定されているインジケーション(例えば、1818)を表示するアフォーダンスを表示している間に、電子デバイスは、メディアをキャプチャするアフォーダンスの選択を含む第1の入力(例えば、2650j)(例えば、タップ)を検出する。いくつかの実施形態では、メディアをキャプチャするアフォーダンスの選択は、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に対応する。いくつかの実施形態では、メディアをキャプチャするアフォーダンスに対応する第1の入力(例えば、2650j)を検出したことに応答して、電子デバイスは、第1のキャプチャ持続時間にわたって第4の複数の画像のキャプチャを開始する。 In some embodiments, as part of displaying the media capture user interface, the electronic device captures the media at the same time as the representation of the field of view of one or more cameras (eg, 603), as well as the affordance (eg, 610). ) (For example, selectable user interface objects). In some embodiments, the media is captured and the control (eg, 1804) is directed towards setting a third capture duration (eg, first capture duration, second capture duration, or control). While displaying an affordance that displays an indication (eg, 1818) that is set to an indication (eg, 1818) that is set to a different duration set by the user input, the electronic device includes a selection of the affordance to capture the media. The first input (eg, 2650j) (eg, tap) is detected. In some embodiments, the choice of affordance to capture the media corresponds to a single requirement to capture an image corresponding to the field of view of one or more cameras. In some embodiments, in response to detecting a first input (eg, 2650j) corresponding to the affordance to capture the media, the electronic device has a fourth plurality of images over the first capture duration. Start capturing.

いくつかの実施形態では、コントロール(例えば、1804)が第3のキャプチャ持続時間に設定されているというインジケーション(例えば、1818)は、第1のインジケーションである。いくつかの実施形態では、第1のインジケーションは、第3のキャプチャ持続時間に対応するコントロール上の第1の位置に表示される。いくつかの実施形態では、メディアをキャプチャするアフォーダンスに対応する第1の入力(例えば、2650j)を検出したことに応答して、電子デバイスは、コントロール上の第1の位置からコントロール上の第2の位置(例えば、第3のキャプチャ持続時間とは異なる、ゼロのキャプチャ持続時間に対応するコントロール上の位置)へと第1のインジケーションを動かすアニメーション(例えば、図26J〜図26Q)を表示する(例えば、コントロール上の第2の位置は、コントロール上の第1の位置とは異なる)(例えば、スライダにわたってインジケーション(例えば、スライダバー)をスライドする)(例えば、巻き出す(例えば、値からゼロへのカウントダウン))。いくつかの実施形態では、第2の位置に第1のインジケーションを表示したことに応答して、電子デバイスは、コントロール上の第1の位置に第1のインジケーションを再表示する(例えば、図26Q〜図26Rの1818)(及びコントロール上の第2の位置での第1のインジケーションの表示を停止する)。予め設定されたキャプチャ持続時間に対応する位置に戻って、キャプチャ持続時間を調整するコントロール上のインジケーションを再表示することにより、ユーザは、直近にキャプチャされたメディアをキャプチャするために使用されたキャプチャ持続時間を迅速に認識することができ、ユーザがキャプチャ持続時間を調整するコントロールをリセットする必要がある入力の数を低減する。改善された視覚的フィードバックをユーザに提供し、操作を行うために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the indication (eg, 1818) that the control (eg, 1804) is set to the third capture duration is the first indication. In some embodiments, the first indication appears in the first position on the control that corresponds to the third capture duration. In some embodiments, in response to detecting a first input (eg, 2650j) corresponding to the affordance to capture the media, the electronic device moves from the first position on the control to the second on the control. Display an animation (eg, FIGS. 26J-26Q) that moves the first indication to the position of (eg, a position on the control that corresponds to a capture duration of zero, which is different from the third capture duration). (For example, the second position on the control is different from the first position on the control) (eg, slide the indication (eg, slider bar) over the slider) (eg, unwind (eg, from the value) Countdown to zero)). In some embodiments, in response to displaying the first indication in the second position, the electronic device redisplays the first indication in the first position on the control (eg, for example. 1818 of FIGS. 26Q to 26R (and stop displaying the first indication at the second position on the control). The user was used to capture the most recently captured media by returning to the position corresponding to the preset capture duration and redisplaying the indication on the control that adjusts the capture duration. The capture duration can be recognized quickly, reducing the number of inputs that the user needs to reset the controls that adjust the capture duration. By providing users with improved visual feedback and reducing the number of inputs required to perform operations, the device is more user-friendly and the user-device interface (eg, interacting with the device / with the device). By assisting the user in providing proper input when interacting (by reducing user error), and by allowing the user to use the device faster and more efficiently. Reduces device power usage and improves battery life.

いくつかの実施形態では、コントロール(例えば、1804)が第3のキャプチャ持続時間に設定されているというインジケーション(例えば、1818)は、第2のインジケーションである。いくつかの実施形態では、第2のインジケーションは、第3のキャプチャ持続時間に対応するコントロール上の第3の位置に表示される。いくつかの実施形態では、メディアをキャプチャするアフォーダンスに対応する第1の入力を検出したことに応答して、電子デバイスは、コントロール上の第3の位置からコントロール上の第4の位置(例えば、第3のキャプチャ持続時間とは異なる、ゼロのキャプチャ持続時間に対応するコントロール上の位置)へと第2のインジケーションを動かすアニメーションを表示する(例えば、コントロール上の第2の位置は、コントロール上の第1の位置とは異なる)(例えば、スライダにわたってインジケーション(例えば、スライダバー)をスライドする)(例えば、巻き出す(例えば、値からゼロへのカウントダウン))。いくつかの実施形態では、アニメーションを表示している間に、電子デバイスは、電子デバイスの現在の条件の第2の変化を検出する。いくつかの実施形態では、条件の第2の変化を検出したことに応答して、及び第2の現在の条件が第4のキャプチャ持続時間基準を満たすという判定に従って、及び第4の位置(例えば、最大キャプチャ持続時間値(又は第3の推奨されるキャプチャ持続時間値)の位置に対応する位置)に第1のインジケーションを表示したことに応答して、電子デバイスは、第3のキャプチャ持続時間とは異なる第4のキャプチャ持続時間に対応するコントロール上の第5の位置に、第2のインジケーションを表示する。いくつかの実施形態では、現在の条件が第4のキャプチャ持続時間基準を満たさないという判定に従って、及び第4の位置に第2のインジケーションを表示したことに応答して、電子デバイスは、コントロール上の第3の位置に第2のインジケーションを再表示する。所定の条件であるときにキャプチャ持続時間を異なるキャプチャ持続時間値に調整するためのコントロール上のインジケーションを表示することにより、ユーザは、最も最近キャプチャされたメディアをキャプチャするために使用されたキャプチャ持続時間が変化したことを迅速に認識することができ、ユーザが、キャプチャ持続時間を所定の条件に好ましい(例えば、キャプチャの長さをバランスしている間により良い品質画像を生成する可能性が高い)新しいキャプチャ持続時間に調整するためのコントロールをリセットする必要がある入力の数を低減する。改善された視覚的フィードバックをユーザに提供し、操作を行うために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the indication (eg, 1818) that the control (eg, 1804) is set to the third capture duration is the second indication. In some embodiments, the second indication is displayed at a third position on the control that corresponds to the third capture duration. In some embodiments, in response to detecting a first input corresponding to the affordance that captures the media, the electronic device moves from a third position on the control to a fourth position on the control (eg, for example. Display an animation that moves the second indication to a position on the control that corresponds to a capture duration of zero, which is different from the third capture duration (for example, the second position on the control is on the control). Different from the first position of) (eg, slide the indication (eg, slider bar) over the slider) (eg, unwind (eg, count down from value to zero)). In some embodiments, the electronic device detects a second change in the current conditions of the electronic device while displaying the animation. In some embodiments, in response to detecting a second change in condition, and according to the determination that the second current condition meets the fourth capture duration criterion, and in a fourth position (eg, for example). In response to displaying the first indication at the position corresponding to the position of the maximum capture duration value (or the third recommended capture duration value), the electronic device has a third capture duration. A second indication is displayed at the fifth position on the control corresponding to the fourth capture duration, which is different from the time. In some embodiments, the electronic device controls according to the determination that the current conditions do not meet the fourth capture duration criterion and in response to displaying the second indication in the fourth position. Redisplay the second indication in the third position above. By displaying an indication on the control to adjust the capture duration to a different capture duration value under certain conditions, the user can use the capture used to capture the most recently captured media. It is possible to quickly recognize that the duration has changed and the user may prefer the capture duration to a given condition (eg, to produce a better quality image while balancing the capture length). Higher) Reduces the number of inputs that need to be reset to adjust to a new capture duration. By providing users with improved visual feedback and reducing the number of inputs required to perform operations, the device is more user-friendly and the user-device interface (eg, interacting with the device / with the device). By assisting the user in providing proper input when interacting (by reducing user error), and by allowing the user to use the device faster and more efficiently. Reduces device power usage and improves battery life.

いくつかの実施形態では、(例えば、1つ以上のカメラにより)メディアをキャプチャする間に(例えば、キャプチャを開始した後に)、第1のキャプチャ持続時間にわたる第1の複数の画像のキャプチャを開始した後の第1の時間において、電子デバイスは、第1の時間の前に(例えば、第1の時間の前に、及びキャプチャが開始された時間の後に)1つ以上のカメラによってキャプチャされた複数の画像からの少なくともいくつかのコンテンツに基づく第3の合成画像の表現(例えば、630)表現(例えば、図18A〜図18Xの624)を表示し、第1のキャプチャ持続時間にわたる第1の複数の画像のキャプチャを開始した後の第2の時間において、電子デバイスは、第2の時間の前に(例えば、第2の時間の前に、及びキャプチャが開始された時間の後に)1つ以上のカメラによってキャプチャされた複数の画像からの少なくともいくつかのコンテンツに基づく第4の合成画像の表現(例えば、630)(例えば、図18A〜図18Xの624)を表示する。いくつかの実施形態では、第1の時間は、第2の時間とは異なる。いくつかの実施形態では、第3の合成画像の表現は、第4の合成画像の表現と視覚的に区別される。 In some embodiments, while capturing the media (eg, with one or more cameras) (eg, after initiating the capture), the capture of the first plurality of images over the first capture duration is initiated. In the first time after the capture, the electronic device was captured by one or more cameras before the first time (eg, before the first time and after the time when the capture was started). A first composite image representation (eg, 630) representation (eg, 624 of FIGS. 18A-18X) based on at least some content from the plurality of images is displayed and the first capture duration spans the first. In the second time after starting the capture of multiple images, the electronic device is one before the second time (eg, before the second time and after the time when the capture was started). Display a representation of a fourth composite image (eg, 630) (eg, 624 of FIGS. 18A-18X) based on at least some content from the plurality of images captured by the camera. In some embodiments, the first time is different from the second time. In some embodiments, the representation of the third composite image is visually distinguished from the representation of the fourth composite image.

いくつかの実施形態では、メディアをキャプチャするアフォーダンス(例えば、610)に対応する第1の入力(例えば、2650j)を検出したことに応答して、電子デバイスは、メディアをキャプチャするアフォーダンスの視覚外観(例えば、暗くする)を変更する。動作を実行せずにアクティブ化状態を反映するようにアイコンの視覚特性を更新することにより、アイコンの現在の状態についてのフィードバックをユーザに提供し、電子デバイスがメディアをキャプチャしているが、メディアのキャプチャを、メディアキャプチャ中に中断又は停止することができないことを示す視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in response to detecting a first input (eg, 2650j) corresponding to an affordance that captures the media (eg, 610), the electronic device has a visual appearance of the affordance that captures the media. Change (for example, darken). By updating the visual characteristics of the icon to reflect the activation state without performing any action, it provides the user with feedback on the current state of the icon, and the electronic device is capturing the media, but the media. Provides the user with visual feedback indicating that the capture of the can not be interrupted or stopped during the media capture. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

いくつかの実施形態では、メディア(例えば、2650j)をキャプチャするアフォーダンス(例えば、610)に対応する第1の入力を検出したことに応答して、電子デバイスは、メディアをキャプチャするアフォーダンスの表示を、メディアをキャプチャするアフォーダンスと視覚的に異なる、メディアのキャプチャを終了するアフォーダンス(例えば、1806)(例えば、停止アフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト))の表示に置き換える。いくつかの実施形態では、停止アフォーダンスは、カメラ持続時間に基づいて、時間中に表示される。いくつかの実施形態では、停止アフォーダンスがカメラ持続時間に基づいて、時間中に表示された後、電子デバイスは、カメラ持続時間が満了すると、停止アフォーダンスの表示を、メディアをキャプチャする要求のためのアフォーダンスに置き換える。いくつかの実施形態では、停止アフォーダンスを表示している間に、電子デバイスは、キャプチャ持続時間の終了前に停止アフォーダンスの選択に対応する入力を受信し、停止ボタンに対応する入力を受信したことに応答して、電子デバイスは、複数の画像をキャプチャするのを停止する。いくつかの実施形態では、キャプチャの終了前に停止アフォーダンスを選択することにより、より少ない画像をキャプチャさせる。いくつかの実施形態では、より少ない画像で生成された合成画像は、より多くの画像(例えば、又はフルキャプチャ持続時間中に撮影された画像)で生成された合成画像よりも暗くなる。動作を実行せずにアクティブ化状態を反映するようにアイコンの視覚特性を更新することにより、アイコンの現在の状態についてのフィードバックをユーザに提供し、電子デバイスがメディアをキャプチャしているが、メディアのキャプチャを、メディアキャプチャ中に中断又は停止することができ、かつユーザがアイコンを1回以上アクティブ化する場合には、アイコンに関連付けられた動作が行われることを示す視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in response to detecting a first input corresponding to an affordance (eg, 610) that captures the media (eg, 2650j), the electronic device displays an affordance that captures the media (eg, 610). Replace with a display of affordances (eg, 1806) (eg, stop affordances (eg, selectable user interface objects)) that end the capture of the media, which is visually different from the affordances that capture the media. In some embodiments, the stop affordance is displayed in time based on the camera duration. In some embodiments, after the stop affordance is displayed during the time based on the camera duration, the electronic device displays the stop affordance when the camera duration expires, for a request to capture the media. Replace with affordance. In some embodiments, while displaying the stop affordance, the electronic device receives the input corresponding to the stop affordance selection and the input corresponding to the stop button before the end of the capture duration. In response, the electronic device stops capturing multiple images. In some embodiments, less images are captured by selecting a stop affordance before the end of the capture. In some embodiments, the composite image produced with fewer images will be darker than the composite image produced with more images (eg, or images taken during the full capture duration). By updating the visual characteristics of the icon to reflect the activation state without performing any action, it provides the user with feedback about the icon's current state, and the electronic device is capturing the media, but the media. Can be interrupted or stopped during a media capture, and provides the user with visual feedback that the action associated with the icon will occur if the user activates the icon more than once. do. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

いくつかの実施形態では、メディアをキャプチャするアフォーダンスに対応する第1の入力(例えば、2650j)を検出したことに応答して、電子デバイスは、表示デバイスを介して、メディアのキャプチャが開始されたときの電子デバイスのポーズ(例えば、向き及び/又は位置)と、メディアのキャプチャを開始した後の第1の時間における電子デバイスのポーズ(例えば、向き及び/又は位置)との差(例えば、1つ以上の異なる回転角度又は回転軸間の度合い(例えば、ゼロ度を含む任意の値)、メディアのキャプチャが開始されたときの電子デバイスの向きの間の度合い、及び差の閾値レベルがより大きい、メディアのキャプチャを開始された後の電子デバイスの向き)の視覚インジケーション(例えば、2670)(例えば、異なる色を有する1つ以上の形状、異なる色を有する線を含むボックス)を表示する(例えば、図26J〜図26Q及び図28A〜図28Bの方法2800に関連して後述及び上述したように)。いくつかの実施形態では、ポーズの差は、電子デバイスの先行ポーズに対して測定される。いくつかの実施形態では、ポーズの差は、1つ以上のカメラの視野内の対象の先行ポーズ(例えば、電子デバイスの現在の又は時間遅延の向き)に対して測定される。いくつかの実施形態では、差はゼロではない差である。いくつかの実施形態では、差はゼロである。いくつかの実施形態では、1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、電子デバイスは、a)メディアのキャプチャを開始する時間で電子デバイスの向きからの第1の差値を有する第1の時間での電子デバイスの向きに従って、第1の外観を有し、b)メディアのキャプチャを開始する時間で電子デバイスの向きからの第2の差値を有する第1の時間での電子デバイスの向きに従って、第1の外観とは異なる第2の外観を有する、視覚ガイドを表示する。視覚ガイダンスを提供することにより、ユーザは、メディアのキャプチャが開始された後に、いつ電子デバイスがその元の位置から動いたかを迅速に認識することができ、かつユーザは、画像の最大数が使用可能であり、容易に組み合わされて使用可能な又は改善されたマージ写真を形成することができるように、複数の画像をキャプチャするときと同一のフレーミングを維持することができる。改善された視覚的フィードバックを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the electronic device initiates media capture via the display device in response to detecting a first input (eg, 2650j) corresponding to the media capturing affordance. The difference between the pose of the electronic device (eg, orientation and / or position) at the time and the pose of the electronic device (eg, orientation and / or position) at the first time after starting the capture of the media (eg, 1). Greater degree between two or more different rotation angles or axes (eg, any value, including zero degree), degree between orientations of the electronic device when media capture is initiated, and difference threshold level Display a visual indication (eg, 2670) (eg, a box containing one or more shapes with different colors, lines with different colors) of the orientation of the electronic device after the media capture is started (eg, 2670). For example, as described below and above in connection with Method 2800 of FIGS. 26J-26Q and 28A-28B). In some embodiments, the pose difference is measured with respect to the preceding pose of the electronic device. In some embodiments, the pose difference is measured with respect to the preceding pose of the object in the field of view of one or more cameras (eg, the current or time delay orientation of the electronic device). In some embodiments, the difference is a non-zero difference. In some embodiments, the difference is zero. In some embodiments, in the first time after starting the capture of the media through one or more cameras, the electronic device is a) from the orientation of the electronic device at the time to start capturing the media. It has a first appearance according to the orientation of the electronic device at the first time with the first difference, and b) has a second difference from the orientation of the electronic device at the time to start capturing the media. A visual guide having a second appearance different from the first appearance is displayed according to the orientation of the electronic device in the first time. By providing visual guidance, the user can quickly recognize when the electronic device has moved from its original position after the media capture has started, and the user can use the maximum number of images. It is possible to maintain the same framing as when capturing multiple images so that they can be easily combined to form a usable or improved merged photo. By providing improved visual feedback, the usability of the device is enhanced and the user-device interface (eg, assists the user in providing appropriate input when manipulating / interacting with the device). By making the device more efficient (by reducing user error) and, in addition, allowing the user to use the device faster and more efficiently, the power usage of the device is reduced and battery life is improved.

いくつかの実施形態では、第1のキャプチャ持続時間にわたる第1の複数の画像のキャプチャを開始した後に、及び第1のキャプチャ持続時間にわたる第1の複数の画像のキャプチャの終了を検出する前に、電子デバイスは、第1のキャプチャ持続時間が閾値を上回るという判定に従って(例えば、図26Jの2604b)(例えば、1秒(単数又は複数)などの閾値を下回る)、1つ以上の低光モードアニメーションを表示し(例えば、図26J〜図26Q)、第1のキャプチャ持続時間が閾値を上回るという判定に従って(例えば、図26Fの2604b)、1つ以上の低光モードアニメーションを表示するのをやめる(例えば、図26F〜図26G)(例えば、シャッターアフォーダンスを退色させる、アニメーションを展開する、ガイダンスを示すなど)。いくつかの実施形態では、低光モードアニメーションは、デバイスを依然として保持するための視覚ガイダンス(例えば、メディアのキャプチャが開始されたときの電子デバイスのポーズ(例えば、向き及び/又は位置)と、電子デバイスのポーズ(例えば、向き及び/又は位置)と、の間の差の視覚インジケーション)、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを更新するアニメーション、調整可能なコントロール上のインジケーションを更新すること、1つ以上のカメラの視野の表現を更新するアニメーションを含む。いくつかの実施形態では、電子デバイスは、キャプチャを開始する前の状態で表示を維持することによって、1つ以上の低光モードアニメーションを表示するのをやめる。所定の条件が満たされているときにのみ、アニメーションを表示することにより、ユーザは、電子デバイスがメディアをキャプチャしているかどうかを迅速に認識することができ、キャプチャされたメディアの状態のインジケーション、及びデバイスがメディアをキャプチャしている間のメディアキャプチャの改善方法に関するガイダンスを提供する。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, after starting the capture of the first plurality of images over the first capture duration and before detecting the end of the capture of the first plurality of images over the first capture duration. , The electronic device has one or more low light modes according to the determination that the first capture duration exceeds the threshold (eg, 2604b in FIG. 26J) (eg, below the threshold such as 1 second (s)). Display the animation (eg, FIGS. 26J-26Q) and stop displaying one or more low light mode animations according to the determination that the first capture duration exceeds the threshold (eg, 2604b in FIG. 26F). (For example, FIGS. 26F to 26G) (for example, fading the shutter affordance, developing an animation, showing guidance, etc.). In some embodiments, the low light mode animation is an electronic with visual guidance for still holding the device (eg, the pose (eg, orientation and / or position) of the electronic device when the capture of the media is started). Visual indication of the difference between the device's pose (eg orientation and / or position), capture the media, update the controls to adjust the capture duration, update the indications on the adjustable controls Includes animations that update the representation of the field of view of one or more cameras. In some embodiments, the electronic device ceases to display one or more low light mode animations by maintaining the display in its pre-capture state. By displaying the animation only when certain conditions are met, the user can quickly recognize whether the electronic device is capturing the media, and the state of the captured media is indicated. , And provide guidance on how to improve media capture while the device is capturing media. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.

方法2700に関して上述された処理(例えば、図27A〜図27C)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2500、2800、3000、3200、3400、3600、及び3800は、方法2700を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法2800は、任意選択的に、方法2700に関連して上述した様々な技術を使用して、合成画像を生成するために、複数の画像をキャプチャする1つ以上の技術を採用する。 It should be noted that the details of the processes described above for method 2700 (eg, FIGS. 27A-27C) are also applicable to the methods described above in a similar manner. For example, methods 700, 900, 1100, 1300, 1500, 1700, 1900, 2100, 2300, 2500, 2800, 3000, 3200, 3400, 3600, and 3800 are of the various methods described above with reference to Method 2700. Includes one or more of the properties optionally. For example, the method 2800 optionally employs one or more techniques for capturing a plurality of images in order to generate a composite image using the various techniques described above in connection with the method 2700.

図28A〜図28Bは、いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。方法2800は、表示デバイス(例えば、タッチ感知ディスプレイ)を備えたデバイス(例えば、100、300、500、600)にて行われる。方法2800のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 28A-28B are flow diagrams illustrating a method for editing media captured using an electronic device according to some embodiments. Method 2800 is performed on a device (eg, 100, 300, 500, 600) equipped with a display device (eg, a touch-sensitive display). Some actions of Method 2800 are optionally combined, some actions are optionally changed in order, and some actions are optionally omitted.

後述するように、方法2800は、メディアをキャプチャする間にガイダンスを提供するための直感的な仕方を提供する。この方法は、メディアをキャプチャする間にガイダンスを提供する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアをキャプチャすることを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, Method 2800 provides an intuitive way to provide guidance while capturing media. This method reduces the user's cognitive burden in providing guidance while capturing media, thereby creating a more efficient human-machine interface. For battery-powered computing devices, it saves power and prolongs the time between battery charges by enabling users to capture media faster and more efficiently.

電子デバイス(例えば、600)は、表示デバイス(例えば、タッチ感知ディスプレイ)及び1つ以上のカメラ(例えば、電子デバイスの同じ側又は異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を有する。電子デバイスは、表示デバイスを介して、1つ以上のカメラ(例えば、カメラに視認可能である開放観測可能エリア、カメラレンズから所与の距離の画像の水平(又は垂直又は対角線)長さ)の視野の表現(例えば、630)(例えば、表現オーバータイム、カメラからのデータのライブプレビューフィード)を含むメディアキャプチャユーザインタフェースを表示する(2802)。 An electronic device (eg, 600) includes a display device (eg, a touch-sensitive display) and one or more cameras (eg, a front camera, a rear camera) on the same or different side of the electronic device. (For example, dual camera, triple camera, quad camera, etc.). An electronic device is an image of one or more cameras (eg, an open observable area visible to the camera, a horizontal (or vertical or diagonal) length of an image at a given distance from a camera lens) through a display device. Display a media capture user interface that includes a representation of the field of view (eg, 630) (eg, representation overtime, live preview feed of data from the camera) (2802).

表示デバイスを介して、メディアキャプチャユーザインタフェースを表示している間に、電子デバイスは、メディアをキャプチャする要求(例えば、2650j)(例えば、表示デバイスに表示されている又は物理的に接続されたシャッターアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)上でのユーザ入力)を受信する(2804)。 While displaying the media capture user interface through the display device, the electronic device requests to capture the media (eg, 2650j) (eg, the shutter displayed or physically connected to the display device). Receives affordances (eg user input on selectable user interface objects) (2804).

メディアをキャプチャする要求を受信したことに応答して、電子デバイスは、1つ以上のカメラを介して(例えば、1つ以上のカメラの少なくとも第1のカメラを介して)、メディアのキャプチャを開始する(2806)。 In response to receiving a request to capture media, the electronic device initiates media capture through one or more cameras (eg, through at least the first camera of one or more cameras). (2806).

1つ以上のカメラを介して、メディアのキャプチャを開始した(例えば、メディアをキャプチャする要求を受信したことに応答して、メディアのキャプチャを開始した、1つ以上のカメラを初期化した、メディアキャプチャインタフェースを表示又は更新した)後の第1の時間において(2808)、低光モードがアクティブであるとき(例えば、図26Jの602c)(例えば、1つ以上のカメラのうちの少なくとも1つが低光環境でメディアをキャプチャするように構成されているとき)に満たされる基準を含む、1組のガイダンス基準(低光モードがアクティブであるときのキャプチャ持続時間(例えば、時間(例えば、合計キャプチャ時間、露出時間)、ピクチャ/フレームの数で測定)に基づく1組のガイダンス基準)が満たされているという判定に従って、電子デバイスは、表示デバイスを介して、メディアのキャプチャが開始されたときの電子デバイスのポーズ(例えば、向き及び/又は位置)と、メディアのキャプチャを開始した後の第1の時間における電子デバイスのポーズ(例えば、向き及び/又は位置)との差(例えば、1つ以上の異なる回転角度又は回転軸間の度合い(例えば、ゼロ度を含む任意の値)、メディアのキャプチャが開始されたときの電子デバイスの向きの間の度合い、及び差の閾値レベルがより大きい、メディアのキャプチャを開始された後の電子デバイスの向き)の視覚インジケーション(例えば、図2670)(例えば、異なる色を有する1つ以上の形状、異なる色を有する線を含むボックス)を表示する(2810)。いくつかの実施形態では、低光カメラモードは、低光条件が満たされているときにアクティブである。いくつかの実施形態では、低光条件は、1つ以上のカメラの視野内の周辺光がそれぞれの閾値を下回るとき、電子デバイスが低光モードで動作していることを示す低光状態インジケータをユーザが選択する(例えば、オンにする)とき、低光カメラモードをアクティブ化する設定をユーザがオンにする、又はアクティブ化するとき、に満たされる条件を低光条件が含むと満たされる。いくつかの実施形態では、ポーズの差は、電子デバイスの先行ポーズに対して測定される。いくつかの実施形態では、ポーズの差は、1つ以上のカメラの視野内の対象の先行ポーズ(例えば、電子デバイスの現在の又は時間遅延の向き)に対して測定される。いくつかの実施形態では、差はゼロではない差である。いくつかの実施形態では、差はゼロである。いくつかの実施形態では、1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、メディアのキャプチャを開始する時間で電子デバイスの向きからの第1の差値を有する第1の時間での電子デバイスの向きに従って、第1の外観を有し、メディアのキャプチャを開始する時間で電子デバイスの向きからの第2の差値を有する第1の時間での電子デバイスの向きに従って、第1の外観とは異なる第2の外観を有する、視覚ガイドを表示する。所定の条件が満たされているときにのみ、視覚ガイダンスを提供することにより、ユーザは、メディアのキャプチャが開始された場合、いつ電子デバイスがその元の位置から動いたかを迅速に認識することができ、かつユーザは、画像の最大数が使用可能であり、容易に組み合わされて使用可能な又は改善されたマージ写真を形成することができるように、複数の画像をキャプチャするときと同一のフレーミングを維持することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 Media that started capturing media through one or more cameras (eg, initialized one or more cameras that started capturing media in response to receiving a request to capture media) In the first time after (displaying or updating the capture interface) (2808), when the low light mode is active (eg, 602c in FIG. 26J) (eg, at least one of one or more cameras is low). A set of guidance criteria (eg, time (eg, total capture time) when low light mode is active), including criteria that meet the criteria that are met when the media is configured to capture in a light environment. According to the determination that a set of guidance criteria) based on (exposure time), measured by the number of pictures / frames) is met, the electronic device is electronically captured through the display device when media capture is initiated. The difference (eg, one or more) between the pose of the device (eg, orientation and / or position) and the pose of the electronic device (eg, orientation and / or position) in the first time after starting the capture of the media. The degree between different rotation angles or axes of rotation (eg, any value, including zero degrees), the degree between the orientations of the electronic devices when the capture of the media was started, and the threshold level of the difference is greater for the media. Display visual indications (eg, FIG. 2670) (eg, one or more shapes with different colors, boxes containing lines with different colors) of the orientation of the electronic device after the capture is initiated (2810). .. In some embodiments, the low light camera mode is active when low light conditions are met. In some embodiments, the low light condition provides a low light condition indicator indicating that the electronic device is operating in low light mode when the ambient light in the field of view of one or more cameras falls below their respective thresholds. The low light condition is satisfied when the user turns on or activates the setting to activate the low light camera mode when the user selects (for example, turns on) the low light condition. In some embodiments, the pose difference is measured with respect to the preceding pose of the electronic device. In some embodiments, the pose difference is measured with respect to the preceding pose of the object in the field of view of one or more cameras (eg, the current or time delay orientation of the electronic device). In some embodiments, the difference is a non-zero difference. In some embodiments, the difference is zero. In some embodiments, in the first time after starting the capture of the media through one or more cameras, the first difference from the orientation of the electronic device at the time to start the capture of the media. According to the orientation of the electronic device at the first time it has, the electronic device at the first time has a first appearance and a second difference from the orientation of the electronic device at the time to start capturing the media. Displays a visual guide that has a second appearance that is different from the first appearance according to the orientation of. By providing visual guidance only when certain conditions are met, the user can quickly recognize when the electronic device has moved from its original position when media capture begins. Same framing as when capturing multiple images so that the user can and can use a maximum number of images and easily combine them to form a usable or improved merged photo. Can be maintained. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.

いくつかの実施形態では、1組のガイダンス基準が、閾値持続時間を上回る第1のキャプチャ持続時間にわたって複数の画像をキャプチャするように電子デバイスが構成されていると満たされる基準を更に含む(例えば、図26J〜図26Q)。いくつかの実施形態では、メディアをキャプチャするキャプチャ持続時間を調整するコントロール(例えば、スライダ)は、第1のキャプチャ持続時間のインジケーション(例えば、スライダバー)を含む。コントロールにより、電子デバイスに、インジケーションの持続時間に対応する持続時間(例えば、第1のキャプチャ持続時間)を構成させる。所定の条件が満たされているときにのみ、視覚ガイダンスを提供することにより、ユーザは、キャプチャ持続時間が閾値キャプチャ持続時間を超える場合、いつ電子デバイスがその元の位置から動いたかを、バッテリ寿命を無駄にすることなく、及び視覚ガイダンスが必要ない状況で視覚注意散漫を引き起こすことなく(例えば、これらの条件が満たされていないときに視覚ガイダンスを提供することによって)、迅速に認識することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, a set of guidance criteria further includes criteria that are met when the electronic device is configured to capture multiple images over a first capture duration that exceeds a threshold duration (eg,). , FIGS. 26J to 26Q). In some embodiments, the control (eg, slider) that adjusts the capture duration to capture the media includes an indication of the first capture duration (eg, slider bar). The control causes the electronic device to configure a duration corresponding to the duration of the indication (eg, the first capture duration). By providing visual guidance only when certain conditions are met, the user can tell when the electronic device has moved from its original position if the capture duration exceeds the threshold capture duration. To recognize quickly without wasting and without causing visual distraction in situations where visual guidance is not needed (eg, by providing visual guidance when these conditions are not met). can. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.

いくつかの実施形態では、第1の1組の1つ以上の形状(例えば、2670b)(例えば、第1のボックス、十字、円/楕円、1つ以上の線)は、メディアのキャプチャを開始したときの電子デバイスのポーズを表す。いくつかの実施形態では、第1の1組の1つ以上の形状は、メディアキャプチャユーザインタフェース上の第1の位置に表示される。いくつかの実施形態では、第2の1組の1つ以上の形状(例えば、2670c)(例えば、第2のボックス、十字、円/楕円、1つ以上の線)は、メディアのキャプチャを開始した後の第1の時間での電子デバイスのポーズを表す。いくつかの実施形態では、第2の1組の1つ以上の形状は、第2の位置に表示される。いくつかの実施形態では、メディアのキャプチャを開始したときの電子デバイスのポーズと、メディアのキャプチャを開始した後の第1の時間での電子デバイスのポーズと間の差が存在するときに、メディアキャプチャユーザインタフェース上の第1の位置とは異なるディスプレイ上の第2の位置(例えば、オフセット位置)。 In some embodiments, the first set of one or more shapes (eg, 2670b) (eg, first box, cross, circle / ellipse, one or more lines) initiates media capture. Represents the pose of the electronic device when In some embodiments, the first set of one or more shapes is displayed in a first position on the media capture user interface. In some embodiments, a second set of one or more shapes (eg, 2670c) (eg, a second box, cross, circle / ellipse, one or more lines) initiates media capture. Represents the pose of the electronic device in the first time after. In some embodiments, the second set of one or more shapes is displayed in the second position. In some embodiments, the media is present when there is a difference between the pose of the electronic device when the capture of the media is started and the pose of the electronic device at the first time after the start of the capture of the media. A second position on the display (eg, an offset position) that is different from the first position on the capture user interface.

いくつかの実施形態では、第1の1組の1つ以上の形状(例えば、2670b)は、第1の色(例えば、第1の色)を含む。いくつかの実施形態では、第2の1組の1つ以上の(例えば、2670c)は、第1の色とは異なる第2の色(例えば、第2の色)を含む。いくつかの実施形態では、第1の1組の1つ以上の形状は、第2の1組の1つ以上の形状とは異なる視覚外観(例えば、より太い、より高い不透明度、異なる勾配、よりぼけた、又は画像に適用され得る別のタイプの視覚効果)を有する。キャプチャを開始したときの電子デバイスのポーズを反映する1組の形状及びキャプチャを開始した後の電子デバイスのポーズを反映する別の1組の形状を含む視覚ガイダンスを表示することにより、ユーザは、電子デバイスのポーズの関係的な変化を迅速に識別することができ、これにより、(ユーザは、デバイスの一定の移動に起因して使用可能な写真をキャプチャするために、画像を再キャプチャする必要がない場合があるように)ユーザは、メディアキャプチャを改善するためにポーズを迅速に補正することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, one or more shapes in the first set (eg, 2670b) include a first color (eg, a first color). In some embodiments, one or more of the second set (eg, 2670c) comprises a second color (eg, a second color) that is different from the first color. In some embodiments, one or more shapes in the first set have a different visual appearance than one or more shapes in the second set (eg, thicker, higher opacity, different gradients, etc.) It has another type of visual effect that is more blurry or can be applied to the image). By displaying visual guidance that includes a set of shapes that reflect the pose of the electronic device when the capture is started and another set of shapes that reflect the pose of the electronic device after the start of capture. Relevant changes in the pose of the electronic device can be quickly identified, which requires the user to recapture the image in order to capture the available photo due to the constant movement of the device. The user can quickly correct the pose to improve media capture (as it may not be). By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

いくつかの実施形態では、第1の1組の1つ以上の形状は、第2の色を含まず、及び/又は第2の1組の1つ以上の形状は、第1の色を含まない。キャプチャを開始したときの電子デバイスのポーズを反映する色及びキャプチャを開始した後の電子デバイスのポーズを反映する異なる色を含む視覚ガイダンスを表示することにより、ユーザは、電子デバイスのポーズの関係的な変化を迅速に識別することができ、これにより、(ユーザは、デバイスの一定の移動に起因して使用可能な写真をキャプチャするために、画像を再キャプチャする必要がない場合があるように)ユーザは、メディアキャプチャを改善するためにポーズを迅速に補正することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, one or more shapes in the first set do not contain a second color, and / or one or more shapes in a second set contain a first color. No. By displaying visual guidance that includes a color that reflects the pose of the electronic device when the capture is started and a different color that reflects the pose of the electronic device after the capture is started, the user can relate the pose of the electronic device. Changes can be quickly identified (so that the user may not need to recapture the image in order to capture the available photo due to constant movement of the device). ) The user can quickly correct the pose to improve the media capture. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

いくつかの実施形態では、キャプチャを開始した後の第2の時間において、電子デバイスは、電子デバイスのポーズの変化(例えば、図26K〜図26O)を検出する(2812)。いくつかの実施形態では、電子デバイスのポーズの変化を検出したことに応答して、電子デバイスは、メディアカメラユーザインタフェース上の第2の位置とは異なるメディアカメラユーザインタフェース上の第3の位置(例えば、図26L〜図260の2670c)に第2の1組の1つ以上の形状(又は第1の1組の1つ以上の形状)を表示する(2814)。いくつかの実施形態では、第1の1組の1つ以上の形状の表示は、カメラユーザインタフェース上の同一の位置で維持される。1つ以上の形状の視覚特性を更新することにより、ユーザは、電子デバイスの現在のポーズが電子デバイスの元のポーズにどのように関連するかを迅速に識別することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, at a second time after initiating the capture, the electronic device detects a change in the pose of the electronic device (eg, FIGS. 26K-26O) (2812). In some embodiments, in response to detecting a change in the pose of the electronic device, the electronic device is placed in a third position on the media camera user interface that is different from the second position on the media camera user interface. For example, one or more shapes of the second set (or one or more shapes of the first set) are displayed in FIGS. 26L to 2670c of FIG. 260 (2814). In some embodiments, the display of one or more shapes in the first set is maintained in the same position on the camera user interface. By updating the visual properties of one or more shapes, the user can quickly identify how the current pose of the electronic device relates to the original pose of the electronic device. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

いくつかの実施形態では、電子デバイスのポーズの変化を検出したことに応答して、第1の1組の1つ以上の形状の第1の位置と、第2の1組の1つ以上の形状の第3の位置との間の差が、第1の閾値差内にあるという判定に従って、電子デバイスは、第1の1組の1つ以上の形状又は第2の1組の1つ以上の形状のうちの少なくとも1つをやめ(例えば、図26Oの2670b)、第1の1組の1つ以上の形状の第1の位置と、第2の1組の1つ以上の形状の第3の位置との間の差が、第1の閾値差内にないという判定に従って、電子デバイスは、第1の1組の1つ以上の形状又は第2の1組の1つ以上の形状の表示を維持する(例えば、図26Nの2670b〜c)。いくつかの実施形態では、キャプチャを開始した後の第1の時間における電子デバイスのポーズが、メディアのキャプチャが開始されたときに電子デバイスのポーズに対して所定の近接性内にあるとき、第1の1組の1つ以上の形状又は第2の1組の1つ以上の形状のうちの少なくとも1つは、表示を停止される。所定の条件が満たされているときにのみ、1組の1つ以上の形状のうちの少なくとも1つの表示を自動的に停止することにより、ユーザは、電子デバイスの現在のポーズが電子デバイスの元のポーズにあることを迅速に認識することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in response to detecting a change in pose of the electronic device, a first position of one or more shapes in a first set and one or more in a second set. According to the determination that the difference between the shape and the third position is within the first threshold difference, the electronic device is one or more of the first set of shapes or one or more of the second set. (Eg, 2670b in FIG. 26O), the first position of one or more shapes in the first set and the first position of one or more shapes in the second set. According to the determination that the difference from the third position is not within the first threshold difference, the electronic device is of one or more shapes of the first set or one or more shapes of the second set. The display is maintained (eg, 2670b-c in FIG. 26N). In some embodiments, when the pose of the electronic device at the first time after the start of capture is within a predetermined proximity to the pose of the electronic device when the capture of the media is started, the first. At least one of a set of one or more shapes or a second set of one or more shapes is stopped displaying. By automatically stopping the display of at least one of a set of one or more shapes only when certain conditions are met, the user can see that the current pose of the electronic device is the source of the electronic device. You can quickly recognize that you are in the pose of. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.

いくつかの実施形態では、キャプチャを開始した後の第2の時間において、電子デバイスは、電子デバイスのポーズの変化を検出する。いくつかの実施形態では、電子デバイスのポーズの変化を検出したことに応答して、メディアのキャプチャが開始されたときの電子デバイスのポーズと、メディアのキャプチャを開始した後の第2の時間における電子デバイスのポーズとの間の差が、第2の閾値差内にあるという判定に従って、電子デバイスは、触知出力(例えば、2620a)(例えば、1つ以上の触知出力生成器で生成された触覚(例えば、振動)出力)を生成し、メディアのキャプチャが開始されたときの電子デバイスのポーズと、メディアのキャプチャを開始した後の第2の時間における電子デバイスのポーズとの間の差が、第2の閾値差内にないという判定に従って、電子デバイスは、触知出力を生成するのをやめる。所定の条件が満たされているときにのみ、触知出力を提供することにより、ユーザは、電子デバイスの現在のポーズが電子デバイスの元のポーズにあることを迅速に認識することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in a second time after initiating the capture, the electronic device detects a change in the pose of the electronic device. In some embodiments, in response to detecting a change in the pose of the electronic device, the pose of the electronic device when the media capture is initiated and the second time after the media capture is initiated. The electronic device is generated by a tactile output (eg, 2620a) (eg, one or more tactile output generators) according to the determination that the difference from the pose of the electronic device is within a second threshold difference. The difference between the pause of the electronic device when the media capture is started and the electronic device pose at the second time after the media capture is started, producing a tactile (eg, vibration) output). However, according to the determination that it is not within the second threshold difference, the electronic device stops producing the tactile output. By providing the tactile output only when certain conditions are met, the user can quickly recognize that the current pose of the electronic device is in the original pose of the electronic device. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.

いくつかの実施形態では、1組のガイダンス基準が満たされているという判定に従って、及びメディアをキャプチャする間に、電子デバイスは、電子デバイスを安定化させる(例えば、電子デバイスの現在のポーズを維持する)ために、要求に対応する表現(例えば、命令2670a)を表示する(例えば、1組の特性又はシンボル(例えば、「一時停止」)を表示する)。電子デバイスを安定化させる命令を含む視覚ガイダンスを提供することにより、ユーザは、デバイスがメディアをキャプチャしていることを迅速に認識できる視覚的フィードバックを提供し、かつデバイスが一時停止しなければならないメディアのキャプチャを最適化するために、ユーザは、画像の最大数が使用可能であり、容易に組み合わされて使用可能な又は改善されたマージ写真を形成することができるように、複数の画像をキャプチャするときと同一のフレーミングを維持することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the electronic device stabilizes the electronic device (eg, maintains the current pose of the electronic device, according to the determination that a set of guidance criteria is met, and while capturing the media. To display the representation corresponding to the request (eg, instruction 2670a) (eg, display a set of characteristics or symbols (eg, "pause")). By providing visual guidance, including instructions to stabilize the electronic device, the user must provide visual feedback that allows the device to quickly recognize that it is capturing media, and the device must pause. To optimize media capture, users can use multiple images so that the maximum number of images is available and can be easily combined to form usable or improved merged photos. You can maintain the same framing as when capturing. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

いくつかの実施形態では、1組のガイダンス基準が満たされていないという判定に従って、電子デバイスは、表示デバイスを介して、差の視覚インジケーション(例えば、視覚ガイダンス2670)を表示するのをやめる。 In some embodiments, according to the determination that a set of guidance criteria is not met, the electronic device ceases to display the difference visual indication (eg, visual guidance 2670) through the display device.

いくつかの実施形態では、視覚インジケーションは、第1の時間で表示される。いくつかの実施形態では、第1の時間とは異なる第3の時間において、電子デバイスは、メディアのキャプチャの終了を検出する。いくつかの実施形態では、メディアのキャプチャの終了を検出したことに応答して、電子デバイスは、表示デバイスを介して、視覚インジケーション(例えば、視覚ガイダンス2670)を表示するのをやめる(例えば、図26Q〜図26R)。キャプチャ持続時間が終了したときにガイダンスの表示を停止することにより、ユーザは、メディアのキャプチャが終了し、かつメディアのキャプチャを改善するために、電子デバイスのポーズを維持する必要がもはやないことを、迅速に認識することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the visual indication is displayed at the first time. In some embodiments, the electronic device detects the end of media capture at a third time, which is different from the first time. In some embodiments, in response to detecting the end of media capture, the electronic device ceases to display the visual indication (eg, visual guidance 2670) through the display device (eg, visual guidance 2670). 26Q-26R). By stopping the display of guidance when the capture duration ends, the user no longer needs to keep the electronic device paused to finish capturing the media and improve the capture of the media. , Can be recognized quickly. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

方法2800に関して上述された処理(例えば、図28A〜図28B)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2500、2700、3000、3200、3400、3600、及び3800は、方法2800を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法2700は、任意選択的に、方法2800に関連して上述した様々な技術を使用して、低光モードで画像をキャプチャしている間に、視覚ガイダンスを表示することを採用する。簡潔にするために、これらの詳細は、以下で繰り返さない。 It should be noted that the details of the processes described above for Method 2800 (eg, FIGS. 28A-28B) are also applicable to the methods described above in a similar manner. For example, methods 700, 900, 1100, 1300, 1500, 1700, 1900, 2100, 2300, 2500, 2700, 3000, 3200, 3400, 3600, and 3800 are of the various methods described above with reference to Method 2800. Includes one or more of the properties optionally. For example, the method 2700 optionally employs the use of various techniques described above in connection with the method 2800 to display visual guidance while capturing an image in low light mode. For the sake of brevity, these details will not be repeated below.

図29A〜図29Pは、いくつかの実施形態による複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図30A〜図30Cにおける処理を含む、以下で説明される処理を例示するために使用される。 29A-29P show exemplary user interfaces for managing controlled media captures using electronic devices with multiple cameras according to some embodiments. The user interfaces in those figures are used to illustrate the processes described below, including the processes in FIGS. 30A-30C.

図29A〜図29Jは、1つ以上のカメラの視野内の1つ以上のオブジェクトに特定の距離で焦点を合わせる間にライブプレビュー630を表示するためのユーザインタフェースを示す。理解を向上させるために、図29A〜図29Jは、電子デバイス600の花2986と木2988との間の空間的関係を示すシーン2980のグラフィック表現を含む。例えば、図29Aにおいて、シーン2980は、デバイス600の側面プロファイルを含み、ここで、デバイス600の裏側は、木2988の前に位置する花2986を含む環境に面している。デバイス600の裏側は、広い視野を有するカメラと、狭い視野を有するカメラとを含み、これらは、以下の図29A〜図29Pを説明するとき、総称して「後カメラ」と呼ばれる。デバイス600が1×ズームレベルでメディアをキャプチャするように構成されるため(例えば、選択されている1×ズームアフォーダンス2622bによって示されるように)、デバイス600の裏側の1組のカメラで(例えば、前カメラとは対照的に)、デバイス600は、広い視野を有するカメラ及び狭い視野を有するカメラを使用してメディアをキャプチャするように現在構成されている。それにより、花2986及び/又は木2988のうちの少なくとも一部分は、広いカメラ(WFOV)の視野内にあり、花2986及び/又は木2988のうちの少なくとも一部分は、狭いカメラ(NFOV)の視野内にある。図29Aにおいて、デバイス600は、花2986から距離2982a内及び木2988から距離2984a内である。 29A-29J show a user interface for displaying a live preview 630 while focusing on one or more objects in the field of view of one or more cameras at a particular distance. To improve understanding, FIGS. 29A-29J include a graphic representation of scene 2980 showing the spatial relationship between flower 2896 and tree 2988 of electronic device 600. For example, in FIG. 29A, scene 2980 includes a side profile of device 600, where the back side of device 600 faces an environment containing flowers 2896 located in front of tree 2988. The back side of the device 600 includes a camera having a wide field of view and a camera having a narrow field of view, which are collectively referred to as "rear cameras" when the following FIGS. 29A-29P are described. Because the device 600 is configured to capture media at a 1x zoom level (eg, as indicated by the selected 1x zoom affordance 2622b), a pair of cameras behind the device 600 (eg, as indicated by the selected 1x zoom affordance 2622b). (In contrast to the previous camera), the device 600 is currently configured to capture media using a camera with a wide field of view and a camera with a narrow field of view. Thereby, at least a portion of the flower 2896 and / or the tree 2988 is within the field of view of the wide camera (WFOV) and at least a portion of the flower 2896 and / or the tree 2988 is within the field of view of the narrow camera (NFOV). It is in. In FIG. 29A, the device 600 is within a distance of 2982a from the flower 2896 and within a distance of 2984a from the tree 2988.

図29Aに示すように、デバイス600は、ディスプレイの上部からディスプレイの底部まで延在するライブプレビュー630を含むカメラユーザインタフェースを表示する。ライブプレビュー630は、後カメラ(FOV)の視野(例えば、WFOV及びNFOV)内で検出された画像に基づく。ライブプレビュー630は、木2988の前に位置する花2986を示す表現を含む(シーン2980に関連して上述したように)。いくつかの実施形態では、ライブプレビュー630は、デバイス600の上部及び/又は底部まで延びない。 As shown in FIG. 29A, device 600 displays a camera user interface that includes a live preview 630 that extends from the top of the display to the bottom of the display. The live preview 630 is based on images detected within the field of view of the rear camera (FOV) (eg, WFOV and NFOV). Live preview 630 includes a representation of flower 2896 located in front of tree 2988 (as described above in connection with scene 2980). In some embodiments, the live preview 630 does not extend to the top and / or bottom of the device 600.

図29Aに示すように、図29Aのカメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含み、これらは、インジケータ及びコントロールがライブプレビュー630と同時に表示され得るように、ライブプレビュー630上に重ねられる。インジケータ領域602及びコントロール領域606にライブプレビュー630の部分を表示するために、デバイス600は、WFOV内にあるシーン2980の部分(例えば、花2986及び木2988)を使用する。更には、図29Aのカメラユーザインタフェースはまた、カメラディスプレイ領域604を含み、これは、ライブプレビュー630上に重ねられ、領域602及び606とは対照的に、インジケータ又はコントロールと実質的に重ならない。カメラディスプレイ領域604の部分を表示するために、デバイス600は、NFOV内にあるシーン2980の部分を使用する。 As shown in FIG. 29A, the camera user interface of FIG. 29A includes an indicator area 602 and a control area 606, which are overlaid on the live preview 630 so that the indicators and controls can be displayed at the same time as the live preview 630. .. To display the portion of the live preview 630 in the indicator region 602 and the control region 606, the device 600 uses a portion of the scene 2980 (eg, flowers 2896 and trees 2988) within the WFOV. Furthermore, the camera user interface of FIG. 29A also includes a camera display area 604, which is superimposed on the live preview 630 and, in contrast to the areas 602 and 606, does not substantially overlap the indicator or control. To display the portion of the camera display area 604, the device 600 uses the portion of the scene 2980 within the NFOV.

図29Aに示すように、インジケータ領域602は、灰色オーバーレイを含み、カメラディスプレイ領域604は、灰色オーバーレイを含まない。インジケータ領域602とカメラディスプレイ領域604との間の色の遷移では、視覚境界部608は、インジケータ領域602とカメラディスプレイ領域604との間に表示される。インジケータ領域602は、フラッシュインジケータ602aを含み、フラッシュインジケータ602aは、フラッシュが自動モード、オン、オフ、又は別のモード(例えば、赤目低減モード)であるかどうかを示す。いくつかの実施形態では、他のインジケータ(例えば、インジケータ602b〜602fはまた、インジケータ領域602に含まれる。 As shown in FIG. 29A, the indicator area 602 includes a gray overlay and the camera display area 604 does not include a gray overlay. In the color transition between the indicator area 602 and the camera display area 604, the visual boundary 608 is displayed between the indicator area 602 and the camera display area 604. The indicator area 602 includes a flash indicator 602a, which indicates whether the flash is in automatic mode, on, off, or another mode (eg, red-eye reduction mode). In some embodiments, other indicators (eg, indicators 602b-602f) are also included in the indicator region 602.

図29Aに示すように、コントロール領域606はまた、灰色オーバーレイを含み、視覚境界部608は、コントロール領域606とカメラディスプレイ領域604との間にこれらの領域の間の色の遷移時に表示される。コントロール領域606は、カメラモードアフォーダンス620、メディアコレクションの一部分624、シャッターアフォーダンス610、及びカメラスイッチャアフォーダンス612を含む。カメラモードアフォーダンス620は、どのカメラモードが現在選択されているか(例えば、太字で示された「写真」モード)を示し、ユーザがカメラモードを変更することを可能にする。いくつかの実施形態では、視覚境界部608は、領域602、604、及び608の間に実線又は点線として表示される。 As shown in FIG. 29A, the control area 606 also includes a gray overlay, and the visual boundary 608 is displayed between the control area 606 and the camera display area 604 during the color transition between these areas. The control area 606 includes a camera mode affordance 620, a portion of the media collection 624, a shutter affordance 610, and a camera switcher affordance 612. The camera mode affordance 620 indicates which camera mode is currently selected (eg, the "photo" mode shown in bold) and allows the user to change the camera mode. In some embodiments, the visual boundary 608 is displayed as a solid or dotted line between the areas 602, 604, and 608.

図29B〜図29Eは、別のオブジェクト(例えば、木2988)よりもFOV内で近いオブジェクト(例えば、花2986)に焦点を当てている間に、ライブプレビュー630を表示するユーザインタフェースを示す。図29Aでは、デバイス600は、カメラディスプレイ領域604における場所に対応する場所(例えば、カメラディスプレイ領域604内に表示された花2986の一部分に対応する場所)でのタップジェスチャ2950aを検出する。 29B-29E show a user interface that displays a live preview 630 while focusing on an object (eg, flower 2896) that is closer in the FOV than another object (eg, tree 2988). In FIG. 29A, the device 600 detects a tap gesture 2950a at a location corresponding to a location in the camera display area 604 (eg, a location corresponding to a portion of the flower 2896 displayed within the camera display area 604).

図29Bに示すように、タップジェスチャ2950aを検出したことに応答して、デバイス600は、タップジェスチャ2950aに対応する場所で、花2986の一部分の周りに焦点インジケータ2936aを表示する。更に、タップジェスチャ2950aを検出したことに応答して、デバイス600は、(例えば、図14N〜図14Oの入力1495G及び図14P〜図14Qの入力部分1495H1に関連して上述したものと同様の技術を使用して、)後カメラが焦点インジケータ2936aに取り囲まれた花2986の部分に焦点を合わせるように、焦点設定を変更する。デバイス600が後カメラの焦点設定を変更した後、デバイス600は、後カメラが現在、花2986に焦点を合わせているため、図29Aにおいて以前に表示されたものよりもぼかしが少ない(例えば、太線で示される)花2986を表示する。更なる理解のために、図29Bにおいて、シーン2980はまた、デバイス600が花2986の部分に現在焦点を合わせていることを示すための現在の焦点インジケータボックス2990を含む。図29Bでは、デバイス600は、デバイス600と花2986(例えば、焦点が合っているオブジェクト)との間の距離の変化を検出し、ここで、デバイス600及び花2986は、互いに接近して動いている。 As shown in FIG. 29B, in response to detecting the tap gesture 2950a, the device 600 displays a focus indicator 2936a around a portion of the flower 2896 at a location corresponding to the tap gesture 2950a. Further, in response to detecting the tap gesture 2950a, the device 600 has a technique similar to that described above in connection with (eg, input 1495G of FIGS. 14N-14O and input portion 1495H1 of FIGS. 14P-14Q). After that, the focus setting is changed so that the camera focuses on the part of the flower 2896 surrounded by the focus indicator 2936a. After the device 600 changes the focus setting of the rear camera, the device 600 has less blur than what was previously displayed in FIG. 29A because the rear camera is now focusing on the flower 2896 (eg, thick line). Display the flower 2896 (indicated by). For further understanding, in FIG. 29B, scene 2980 also includes a current focus indicator box 2990 to indicate that device 600 is currently in focus on a portion of flower 2896. In FIG. 29B, the device 600 detects a change in distance between the device 600 and the flower 2896 (eg, an object in focus), where the device 600 and the flower 2896 move in close proximity to each other. There is.

図29Cに示すように、デバイス600と花2986との距離の変化を検出したことに応答して、デバイス600は、インジケータ領域602及びコントロール領域606(「外側部分」)内におけるライブプレビュー630の部分の視覚プロミネンスを減少させ、一方、カメラディスプレイ領域604(「内側部分」)内に表示されたライブプレビュー630の部分の視覚プロミネンスを維持する。ここで、デバイス600は、デバイス600と花2986(例えば、焦点が合っているオブジェクト)との間の距離2982bが距離の第1の範囲内にあるため、外側部分のプロミネンスを減少させる。具体的には、デバイス600は、外側部分が、それらの視覚プロミネンスを減少させるために、より暗く表示されるように、領域602及び606の不透明度を増加させる。いくつかの実施形態では、デバイス600は、輝度、色彩度、及び/又はコントラストを減少させることによって、外側部分の視覚プロミネンスを減少させる。いくつかの実施形態では、視覚プロミネンスを減少させることは、図29Aに表示された外側部分の状態から図29B(又は視覚プロミネンスが減少している任意の他の図)に表示された外側部分の状態へと外側部分を徐々に退色させることを含む。いくつかの実施形態では、視覚プロミネンスを減少させることは、領域602及び/又は606の不透明度を徐々に減少させることを含む。 As shown in FIG. 29C, in response to detecting a change in the distance between the device 600 and the flower 2896, the device 600 is a portion of the live preview 630 within the indicator area 602 and the control area 606 (“outer part”). The visual prominence of the live preview 630 is reduced while maintaining the visual prominence of the live preview 630 portion displayed within the camera display area 604 (“inner portion”). Here, the device 600 reduces the prominence of the outer portion because the distance 2982b between the device 600 and the flower 2896 (eg, the in-focus object) is within the first range of the distance. Specifically, the device 600 increases the opacity of the areas 602 and 606 so that the outer portions appear darker in order to reduce their visual prominence. In some embodiments, the device 600 reduces the visual prominence of the outer portion by reducing brightness, color saturation, and / or contrast. In some embodiments, reducing visual prominence is from the state of the outer portion displayed in FIG. 29A to that of the outer portion displayed in FIG. 29B (or any other figure in which visual prominence is reduced). Includes gradual fading of the outer part to the state. In some embodiments, reducing visual prominence involves gradually reducing the opacity of regions 602 and / or 606.

図29Cに示すように、デバイス600と花2986との距離の変化を検出したことに応答して、デバイス600は、ライブプレビュー630を更新する。ライブプレビュー630を更新するときに、デバイス600は、WFOVに基づいて外側部分を更新し(例えば、広いカメラの視野を使用して、上述のように、領域602及び606内のライブプレビュー630の部分を表示するため)、NFOVに基づいて外側部分を更新する(例えば、狭いカメラの視野を使用して、上述のように、カメラディスプレイ領域604内のライブプレビュー630の部分を表示するため)。特に、サイズ(例えば、幅)が異なる視野を有するカメラでライブプレビュー630の異なる領域を更新することにより、デバイス600に、デバイス600が花2986から距離2982bだけ離れている(例えば、又は距離の第1の範囲内である)場合、視覚境界部608に沿った視覚的引裂きを有するライブプレビュー630を表示させる。すなわち、デバイス600は、デバイス600が花2986から距離2982bだけ離れている場合、内側部分に対してシフトされているように外側部分を表示する。図29Cに示すように、コントロール領域606内に表示された花2986の茎部は、カメラディスプレイ領域604内の花2986の茎部の右にシフトされる。更には、インジケータ領域602内に表示された花2986の花弁のうちのいくつかは、カメラディスプレイ領域604内の花2986の同じ花弁の右にシフトされる。図29Cにおいて、デバイス600は、外側部分の視覚プロミネンスを減少させ、これは、外側領域に対するカメラディスプレイ領域の相対的視覚プロミネンスを増加させる(例えば、視覚的引裂きを顕著に低下させる)。 As shown in FIG. 29C, the device 600 updates the live preview 630 in response to detecting a change in the distance between the device 600 and the flower 2896. When updating the live preview 630, the device 600 updates the outer portion based on the WFOV (eg, using a wide camera field of view, the portion of the live preview 630 within regions 602 and 606, as described above. Update the outer portion based on the NFOV (eg, to display the portion of the live preview 630 within the camera display area 604, as described above, using a narrow camera field of view). In particular, by updating different regions of the live preview 630 with cameras having different sizes (eg, widths) of the field of view, the device 600 is separated from the flower 2896 by a distance of 2982b (eg, or a distance th). If (within 1), a live preview 630 with a visual tear along the visual boundary 608 is displayed. That is, the device 600 displays the outer portion as if it were shifted relative to the inner portion when the device 600 is separated from the flower 2896 by a distance of 2882b. As shown in FIG. 29C, the stem of the flower 2896 displayed in the control area 606 is shifted to the right of the stem of the flower 2896 in the camera display area 604. Furthermore, some of the petals of the flower 2896 displayed in the indicator area 602 are shifted to the right of the same petal of the flower 2896 in the camera display area 604. In FIG. 29C, device 600 reduces the visual prominence of the outer portion, which increases the relative visual prominence of the camera display area relative to the outer region (eg, significantly reduces visual tearing).

図29Aに戻ると、デバイス600が花2986から2982bよりも大きい特定の距離だけ離れているとき、デバイス600が1×ズームレベルでメディアをキャプチャするように構成されている間に、視覚的引裂きが実質的にない(例えば、まったく若しくは小さい)又は視覚的引裂きの機会がより少ないため、デバイス600は、外側部分の視覚プロミネンスを減少させない。図29Cでは、デバイス600は、デバイス600と花2986(例えば、焦点が合っているオブジェクト)との間の距離の変化を検出し、ここで、デバイス600及び花2986は、互いに接近して動いている。 Returning to FIG. 29A, when the device 600 is separated from the flower 2896 by a specific distance greater than 2982b, a visual tear occurs while the device 600 is configured to capture media at a 1x zoom level. The device 600 does not reduce the visual prominence of the outer portion because it is virtually non-existent (eg, at all or small) or has less chance of visual tearing. In FIG. 29C, the device 600 detects a change in distance between the device 600 and the flower 2896 (eg, an in-focus object), where the device 600 and the flower 2896 move in close proximity to each other. There is.

図29Dに示すように、デバイス600と花2986との距離の変化を検出したことに応答して、デバイス600は、デバイス600と花2986との間の距離2982cが距離の第2の範囲内にあるため、外側部分の視覚プロミネンスを更に減少させ、一方、内側部分の視覚プロミネンスを維持する。ここで、距離の第2の範囲は、図29Cに関連して述べられた距離の第1の範囲よりも小さい。図29Dにおいて、デバイス600は、外側部分を不明瞭にする(例えば、退色させる、又はブラックアウトする)ことによって、外側部分の視覚プロミネンスを減少させる。具体的には、デバイス600は、外側部分が区別可能ではないようにインジケータ領域602及びコントロール領域606の不透明度レベルを増加させており、領域602及び606内に表示されたライブプレビュー630の部分は、黒であるように見え、図29Cに以前に表示されたライブプレビュー630のいくらかの部分(例えば、花2986の茎部)の表示が停止されている。いくつかの実施形態では、デバイス600が花2986から距離2982cだけ離れている(例えば、又は距離の第2の範囲内である)場合、デバイス600は、実際の視覚的引裂き又は視覚的引裂きの可能性が極端であると判定した。したがって、いくつかの実施形態では、デバイス600は、デバイス600が視覚的引裂き又は視覚的引裂きの変化が極端であると判定したときに、距離に基づいて外側部分の表示を停止する。図29Dでは、デバイス600は、デバイス600と花2986(例えば、焦点が合っているオブジェクト)との間の距離の変化を検出し、ここで、デバイス600及び花2986は、互いに更に離れて動いている(例えば、図29Aに示すように、距離2982aに戻る)。 As shown in FIG. 29D, in response to detecting a change in the distance between the device 600 and the flower 2896, the device 600 has a distance 2982c between the device 600 and the flower 2896 within a second range of distances. Therefore, the visual prominence of the outer part is further reduced, while the visual prominence of the inner part is maintained. Here, the second range of distances is smaller than the first range of distances mentioned in relation to FIG. 29C. In FIG. 29D, device 600 reduces the visual prominence of the outer portion by obscuring (eg, fading or blacking out) the outer portion. Specifically, the device 600 increases the opacity level of the indicator area 602 and the control area 606 so that the outer parts are indistinguishable, and the part of the live preview 630 displayed in the areas 602 and 606 is , Appears to be black, and some portion of the live preview 630 previously displayed in FIG. 29C (eg, the stem of flower 2896) has been discontinued. In some embodiments, if the device 600 is separated from the flower 2896 by a distance of 2892c (eg, or within a second range of distance), the device 600 is capable of actual visual tearing or visual tearing. It was judged that the sex was extreme. Therefore, in some embodiments, the device 600 stops displaying the outer portion based on distance when the device 600 determines that the visual tear or the change in visual tear is extreme. In FIG. 29D, the device 600 detects a change in distance between the device 600 and the flower 2896 (eg, an in-focus object), where the device 600 and the flower 2896 move further apart from each other. (For example, as shown in FIG. 29A, it returns to the distance 2982a).

図29Eに示すように、バイス600と花2986との距離の変化を検出したことに応答して、デバイス600は、花2986から距離2982aだけ離れているため、外側部分の視覚プロミネンスを増加させる。換言すれば、図29Eにおいて、デバイス600は、図29Bに関連して論じられるように、距離2982aが距離の第1又は第2の範囲内でないため、図29B及び図29Cに表示された、視覚プロミネンスを有する外側部分を表示するのをやめる。特に、図29Fでは、デバイス600は、実質的に視覚的引裂きがないライブプレビュー630を表示する。いくつかの実施形態では、デバイス600は、距離2982aが、実際の視覚的引裂きがないか又は視覚的引裂きの機会がほとんどない距離の第3の範囲内であると判定している。いくつかの実施形態では、デバイス600は、距離2982aが、距離の第3の範囲内であると判定し、視覚プロミネンスを最大視覚プロミネンスまで増加させる。 As shown in FIG. 29E, in response to detecting a change in the distance between the vise 600 and the flower 2896, the device 600 increases the visual prominence of the outer portion by a distance of 2982a from the flower 2896. In other words, in FIG. 29E, the device 600 is displayed in FIGS. 29B and 29C because the distance 2982a is not within the first or second range of the distance, as discussed in connection with FIG. 29B. Stop displaying the outer part with prominence. In particular, in FIG. 29F, device 600 displays a live preview 630 with virtually no visual tears. In some embodiments, the device 600 determines that the distance 2982a is within a third range of distances where there is no actual visual tear or there is little chance of visual tear. In some embodiments, the device 600 determines that the distance 2982a is within a third range of distances and increases the visual prominence to the maximum visual prominence.

図29E〜図29Iは、別のオブジェクト(例えば、花2986)よりもデバイス600からもっと遠く離れているオブジェクト(例えば、木2988)に焦点を当てている間に、ライブプレビュー630を表示するユーザインタフェースを示す。図29Eでは、デバイス600は、カメラディスプレイ領域604における場所に対応する場所(例えば、カメラディスプレイ領域604内に表示された木2988の一部分に対応する場所)でのタップジェスチャ2950eを検出する。 29E-29I are user interfaces that display a live preview 630 while focusing on an object (eg, tree 2988) that is farther away from the device 600 than another object (eg, flower 2896). Is shown. In FIG. 29E, the device 600 detects a tap gesture 2950e at a location corresponding to a location in the camera display area 604 (eg, a location corresponding to a portion of the tree 2988 displayed within the camera display area 604).

図29Fに示すように、タップジェスチャ2950eを検出したことに応答して、デバイス600は、タップジェスチャ2950eに対応するカメラディスプレイ領域604上の場所で、木2988の一部分の周りに焦点インジケータ2936bを表示する。更に、タップジェスチャ2950eを検出したことに応答して、デバイス600は、(図14N〜図14Oの入力1495G及び図14P〜図14Qの入力部分1495H1に関連して上述したものと同様の技術を使用して、)後カメラが花2986の部分の焦点から、焦点インジケータ2936bに取り囲まれた木2988の部分に焦点を合わせるように、焦点設定を変更する。デバイス600が後カメラの焦点設定を変更した後、デバイス600は、図29Eにおいて以前に表示されたものよりも、ぼかしが少ない(例えば、太線で示される)木2988及びぼかしが多い(例えば、点線で示される)花を表示する。図29Fでは、シーン2980は、デバイス600が木2988の一部分に現在焦点が合っているため、木2988の周りに現在の焦点インジケータボックス2990を示す。図29Fでは、デバイス600は、デバイス600と木2988(例えば、焦点が合っているオブジェクト)との間の距離の変化を検出し、ここで、デバイス600及び木2988は、互いに接近して動いている。 As shown in FIG. 29F, in response to detecting the tap gesture 2950e, the device 600 displays a focus indicator 2936b around a portion of the tree 2988 at a location on the camera display area 604 corresponding to the tap gesture 2950e. do. Further, in response to detecting the tap gesture 2950e, the device 600 uses a technique similar to that described above in connection with the input 1495G of FIGS. 14N-14O and the input portion 1495H1 of FIGS. 14P-14Q. Then, the focus setting is changed so that the rear camera focuses from the part of the flower 2896 to the part of the tree 2988 surrounded by the focus indicator 2936b. After the device 600 changes the focus setting of the rear camera, the device 600 has less blur (eg, indicated by a thick line) and more blur (eg, dotted line) than previously displayed in FIG. 29E. Display flowers (indicated by). In FIG. 29F, scene 2980 shows the current focus indicator box 2990 around tree 2988 because device 600 is currently in focus on a portion of tree 2988. In FIG. 29F, device 600 detects a change in distance between device 600 and tree 2988 (eg, an object in focus), where device 600 and tree 2988 move in close proximity to each other. There is.

図29Gに示すように、デバイス600と木2988との間の距離の変化を検出したことに応答して、デバイス600は、デバイス600と木2988との間の距離2984bが、第1の範囲の距離内にないため(例えば、図29Cに関連して、距離2982bとは対照的に)、外側部分の視覚プロミネンスを減少させるのをやめる。換言すれば、デバイス600が、距離2984b(及び距離2982bではない)が閾値距離の第1の範囲内であることに基づいて判定を行うことにより、デバイス600は、外側部分の視覚プロミネンスを変更しない。更には、視覚プロミネンスを変更しないことによって、領域602及び606が暗色化されていないため、視覚境界部608での視覚的引裂きは、図29Bよりも図29Gにおいてより明らかである。具体的には、デバイス600は、ライブプレビュー630の任意の部分の視覚プロミネンスを減少させることなく、カメラディスプレイ領域604内の花2986の茎部の右にシフトされたコントロール領域606の花2986の茎部、及びカメラディスプレイ領域604内の花2986の同じ花弁の右にシフトされたインジケータ領域602内に表示された花2986の花弁のうちのいくつかを表示する。図29Gでは、デバイス600は、デバイス600と木2988(例えば、焦点が合っているオブジェクト)との間の距離の変化を検出し、ここで、デバイス600及び木2988は、互いに接近して動いている。 As shown in FIG. 29G, in response to detecting a change in the distance between the device 600 and the tree 2988, the device 600 has a distance 2984b between the device 600 and the tree 2988 in the first range. Stop reducing the visual prominence of the outer part because it is not within distance (eg, in relation to FIG. 29C, as opposed to distance 2982b). In other words, the device 600 does not change the visual prominence of the outer portion by making a determination based on that the distance 2984b (and not the distance 2982b) is within the first range of the threshold distance. .. Furthermore, the visual tear at the visual boundary 608 is more pronounced in FIG. 29G than in FIG. 29B because the regions 602 and 606 are not darkened by not changing the visual prominence. Specifically, the device 600 shifts the stem of the flower 2896 in the control area 606 to the right in the camera display area 604 without reducing the visual prominence of any part of the live preview 630. The part and some of the petals of the flower 2896 displayed in the indicator area 602 shifted to the right of the same petal of the flower 2896 in the camera display area 604 are displayed. In FIG. 29G, device 600 detects a change in distance between device 600 and tree 2988 (eg, an object in focus), where device 600 and tree 2988 move in close proximity to each other. There is.

図29Hに示すように、デバイス600と木2988との間の距離の変化を検出したことに応答して、デバイス600は、デバイス600と木2988との間の距離2984cが、第1の範囲の距離内にないため(例えば、図29Cに関連して、距離2982cとは対照的に)、外側部分の視覚プロミネンスを減少させるのをやめる。デバイス600がライブプレビュー630の任意の部分の視覚プロミネンスを減少させていないため、デバイス600は、外側部分が内側部分の右に更にシフトされる図29Gよりも、視覚境界部608で視覚的引裂きをより多く表示する。図29Hでは、デバイス600は、シャッターアフォーダンス610に対応する場所でのタップジェスチャ2950hを検出する。 As shown in FIG. 29H, in response to detecting a change in the distance between the device 600 and the tree 2988, the device 600 has a distance 2984c between the device 600 and the tree 2988 in the first range. Stop reducing the visual prominence of the outer part because it is not within distance (eg, in relation to FIG. 29C, as opposed to distance 2982c). Since the device 600 has not reduced the visual prominence of any part of the live preview 630, the device 600 has a visual tear at the visual boundary 608 than in FIG. 29G, where the outer part is further shifted to the right of the inner part. Show more. In FIG. 29H, the device 600 detects the tap gesture 2950h at a location corresponding to the shutter affordance 610.

図29Iに示すように、タップジェスチャ2950hを検出したことに応答して、デバイス600は、図29Hに表示されるように視覚境界部608での視覚的引裂きを含む、ライブプレビュー630の現在の状態に基づいて、メディアをキャプチャする(図8Q〜図8Rに関連して論じられたのと同様の技術を使用して)。更に、タップジェスチャ2950hを検出したことに応答して、デバイス600は、新たにキャプチャされたメディアの表現で更新されたメディアコレクション624を更新する。図29Iでは、デバイス600は、インジケータ領域602に対応する場所でのタップジェスチャ2950iを検出する。 As shown in FIG. 29I, in response to detecting the tap gesture 2950h, the device 600 includes a visual tear at the visual boundary 608 as shown in FIG. 29H, the current state of the live preview 630. Based on, capture the media (using techniques similar to those discussed in connection with FIGS. 8Q-8R). Further, in response to detecting the tap gesture 2950h, the device 600 updates the updated media collection 624 with a representation of the newly captured media. In FIG. 29I, the device 600 detects the tap gesture 2950i at a location corresponding to the indicator area 602.

図29Iに示すように、タップジェスチャ2950iを検出したことに応答して、デバイス600は、(例えば、ジェスチャ2950b及び2950fとは対照的に)タップジェスチャ2950iがカメラディスプレイ領域604の外側の場所に向けられているため、焦点設定を変更又は焦点インジケータを表示するのをやめる。図29Iにおいて、タップジェスチャ2950iを検出したことに応答して、デバイス600は、カメラユーザインタフェースを維持し、電子デバイスは、カメラユーザインタフェースの部分を更新するのをやめる(例えば、カメラユーザインタフェースは同じままである)。図29Iでは、デバイス600は、カメラディスプレイ領域604における場所に対応する場所(例えば、カメラディスプレイ領域604内に表示された花2986の一部分に対応する場所)でのタップジェスチャ2950jを検出する。 As shown in FIG. 29I, in response to detecting the tap gesture 2950i, the device 600 directs the tap gesture 2950i (as opposed to, for example, gestures 2950b and 2950f) to a location outside the camera display area 604. Change the focus setting or stop displaying the focus indicator. In FIG. 29I, in response to detecting the tap gesture 2950i, the device 600 maintains the camera user interface and the electronic device stops updating parts of the camera user interface (eg, the camera user interface is the same). There is up to). In FIG. 29I, the device 600 detects a tap gesture 2950j at a location corresponding to a location in the camera display area 604 (eg, a location corresponding to a portion of the flower 2896 displayed within the camera display area 604).

図29Kに示すように、タップジェスチャ2950jを検出したことに応答して、デバイス600は、タップジェスチャ2950jに対応するカメラディスプレイ領域604上の場所で、花2986の一部分の周りに焦点インジケータ2936cを表示する。更に、タップジェスチャ2950jを検出したことに応答して、デバイス600は、(図29A〜図29Bにおいて上述したものと同様の技術を使用して、)後カメラが木2988の部分の焦点から、焦点インジケータ2936cに取り囲まれた花2986の部分に焦点を合わせるように、焦点設定を変更する。デバイス600が木2988の一部分の代わりに、花2986の一部分に焦点を合わせているため、デバイス600は、デバイス600と花2986(例えば、焦点が合っているオブジェクト)との間の距離が、距離の第3の範囲内にあるため、外側部分の視覚プロミネンスを減少させる。ここで、デバイス600が焦点を当てていたオブジェクトに切り替えたため、どの距離(例えば、距離2982c又は距離2984c)で外側部分の視覚プロミネンスを減少させるか(又はあるいは、増加させる)かどうかをトリガする判定を変更する。それにより、デバイス600は、デバイス600と花2986との間の距離2982c(又はデバイス600と木2988との間の距離2984c)が、距離の第3の範囲内であるという判定を行い、その判定に従って、図29Cに関連して上述したように、外側部分の視覚プロミネンスを減少させる(例えば、外側部分の表示を停止する)。理解を助けるために、図29Kでは、シーン2980は、デバイス600が花2986の一部分に現在焦点が合っているため、花2986の周りに現在の焦点インジケータボックス2990を示す。 As shown in FIG. 29K, in response to detecting the tap gesture 2950j, the device 600 displays a focus indicator 2936c around a portion of the flower 2896 at a location on the camera display area 604 corresponding to the tap gesture 2950j. do. Further, in response to detecting the tap gesture 2950j, the device 600 is focused (using a technique similar to that described above in FIGS. 29A-29B) from the focus of the portion of the tree 2988 by the rear camera. Change the focus setting to focus on the portion of the flower 2896 surrounded by the indicator 2936c. The device 600 focuses on a portion of the flower 2896 instead of a portion of the tree 2988, so that the device 600 has a distance between the device 600 and the flower 2896 (eg, an in-focus object). Because it is within the third range of, it reduces the visual prominence of the outer part. Here, a determination that triggers at what distance (eg, distance 2882c or distance 2984c) the visual prominence of the outer portion is reduced (or increased) because the device 600 has switched to the object of focus. To change. As a result, the device 600 determines that the distance 2982c (or the distance 2988c between the device 600 and the tree 2988) between the device 600 and the flower 2896 is within the third range of the distance, and the determination is made. According to, as described above in connection with FIG. 29C, the visual prominence of the outer portion is reduced (eg, the display of the outer portion is stopped). To aid understanding, in FIG. 29K, scene 2980 shows the current focus indicator box 2990 around the flower 2896 because the device 600 is currently in focus on a portion of the flower 2896.

図29Lに戻る前に、図29A〜図29Kは、特定のシナリオに基づいて視覚プロミネンスを増加又は減少させるかどうかに基づく技術を説明する。いくつかの実施形態では、図29A〜図29Kの説明は、反転され(例えば、図29K〜図29A)、スキップされ、再順序付けされてもよい(例えば、これにより、例えば、デバイス600は、上記の説明において視覚プロミネンスを減少させる視覚プロミネンスを増加させることができ、又は逆もまた同様である)。更には、図29A〜図29Kにおいて、デバイス600は、デバイス600と、焦点が合っているオブジェクトとの間の距離が閾値内又は閾値の外側であるかどうかに基づいて、ライブプレビュー630の一部分の視覚プロミネンスを変更する(又は変更するのをやめる)。いくつかの実施形態では、デバイス600は、他の基準に基づいて、ライブプレビュー630の一部分の視覚プロミネンスを変更する(又は変更するのをやめる)。いくつかの実施形態では、デバイス600は、オブジェクトに焦点が合っているかどうかに加えて、又はその代わりに、それぞれのオブジェクトとの所定の関係状態(例えば、オブジェクトが最も近い又は最も遠いオブジェクトであるかどうか)に基づいて、ライブプレビュー630の一部分の視覚プロミネンスを変更する(又は変更するのをやめる)。いくつかの実施形態では、デバイス600は、デバイス600を使用して、ライブプレビュー630を表示しているタイプのカメラに基づいて、ライブプレビュー630の一部分の視覚プロミネンスを変更する(又は変更するのをやめる)。いくつかの実施形態では、デバイス600、デバイス600は、視覚的引裂きが1つ以上の環境条件(例えば、デバイス600とオブジェクトとの間の距離、照明条件など)に基づいて(例えば、視覚境界部608で)発生する可能性の判定に基づいて、ライブプレビュー630の一部分の視覚プロミネンスを変更する(又は変更するのをやめる)。いくつかの実施形態では、デバイス600が同じサイズ視野(単数又は複数)を有する1つ以上のカメラ(単数又は複数)のみを使用する(例えば、望遠写真カメラのみを使用する)場合、デバイス600は、カメラの視野(単数又は複数)内のオブジェクトとデバイス600との間の距離に関係なく、ライブプレビュー630の一部分の視覚プロミネンスをやめる。図29Kでは、デバイス600は、メディアコレクション624に対応する場所でのタップジェスチャ2950kを検出する。 Before returning to FIG. 29L, FIGS. 29A-29K describe techniques based on whether visual prominence is increased or decreased based on a particular scenario. In some embodiments, the description of FIGS. 29A-29K may be reversed (eg, FIGS. 29K-29A), skipped and reordered (eg, thereby, for example, the device 600 may be described above. Decreasing visual prominence in the description can increase visual prominence, and vice versa). Further, in FIGS. 29A-29K, the device 600 is a portion of the live preview 630 based on whether the distance between the device 600 and the in-focus object is within or outside the threshold. Change (or stop changing) the visual preview. In some embodiments, the device 600 modifies (or ceases to) the visual prominence of a portion of the live preview 630 based on other criteria. In some embodiments, the device 600, in addition to or instead of whether the objects are in focus, is in a predetermined relationship state with each object (eg, the objects are the closest or farthest objects). Change (or stop changing) the visual prominence of a portion of the live preview 630 based on (whether or not). In some embodiments, the device 600 uses the device 600 to change (or change) the visual prominence of a portion of the live preview 630 based on the type of camera displaying the live preview 630. Stop). In some embodiments, the device 600, the device 600, has a visual tear based on one or more environmental conditions (eg, distance between the device 600 and an object, lighting conditions, etc.) (eg, a visual boundary). Change (or stop changing) the visual prominence of a portion of the live preview 630 based on the determination of the possibility of occurrence (at 608). In some embodiments, if the device 600 uses only one or more cameras (s) having the same size field of view (s), the device 600 (eg, uses only a telephoto camera). , Abandon the visual prominence of a portion of the live preview 630, regardless of the distance between the object and the device 600 in the camera's field of view (s). In FIG. 29K, device 600 detects tap gesture 2950k at a location corresponding to media collection 624.

図29L〜図29Pは、デバイス600がキャプチャし、かつ視覚的引裂きが発生したが、メディアを編集するための追加のコンテンツ(例えば、図29Hの領域602及び606内に表示されたライブプレビュー630の部分)を使用するために利用可能であることを示すメディアを編集するユーザインタフェースを示す。図29Lに示すように、タップジェスチャ2950kを検出したことに応答して、デバイス600は、カメラユーザインタフェースの表示を、写真ビューワインタフェースの表示に置き換える。メディア閲覧インタフェースは、表現2930を含み、これは、図29Hのタップジェスチャ2950hを検出したことに応答して、キャプチャされたメディアの表現である。更には、メディアビューワユーザインタフェースは、メディアを編集するための編集アフォーダンス644aと、キャプチャされたメディアを伝送するための送信アフォーダンス644bと、キャプチャされたメディアをお気に入りのメディアとしてマーキングするためのお気に入りアフォーダンス644cと、キャプチャされたメディアを削除するためのごみ箱アフォーダンス644dと、ライブプレビュー630の表示に戻るための戻るアフォーダンス644eと、を含む。図29Lでは、デバイス600は、編集アフォーダンス644aに対応する場所でのタップジェスチャ2950lを検出する。 29L-29P show live preview 630 captured by device 600 and with visual tearing, but with additional content for editing media (eg, in areas 602 and 606 of FIG. 29H). Part) shows a user interface for editing media indicating that it is available for use. As shown in FIG. 29L, in response to detecting the tap gesture 2950k, the device 600 replaces the display of the camera user interface with the display of the photo viewer interface. The media viewing interface includes representation 2930, which is a representation of the captured media in response to detecting tap gesture 2950h in FIG. 29H. Further, the media viewer user interface includes an edit affordance 644a for editing the media, a transmit affordance 644b for transmitting the captured media, and a favorite affordance 644c for marking the captured media as favorite media. Includes a recycle bin affordance 644d for deleting captured media and a return affordance 644e for returning to the live preview 630 display. In FIG. 29L, the device 600 detects a tap gesture 2950 l at a location corresponding to the edit affordance 644a.

図29Mに示すように、タップジェスチャ2950lを検出したことに応答して、デバイス600は、メディアビューワユーザインタフェースを、メディア編集ユーザインタフェースに置き換える(図22A〜図22B及び図24Aのものと同様の技術を使用して)。メディア編集ユーザインタフェースは、表現2930及び画像コンテンツ編集アフォーダンス2210dを含む。図29Mでは、デバイス600は、画像コンテンツ編集アフォーダンス2210dに対応する場所でのタップジェスチャ2950mを検出する。 As shown in FIG. 29M, in response to detecting the tap gesture 2950l, the device 600 replaces the media viewer user interface with a media editing user interface (similar techniques to those of FIGS. 22A-22B and 24A). using). The media editing user interface includes representation 2930 and image content editing affordances 2210d. In FIG. 29M, the device 600 detects a tap gesture 2950 m at a location corresponding to the image content editing affordance 2210d.

図29Nに示すように、タップジェスチャ2950mを検出したことに応答して、デバイス600は、デバイス600の上部付近にアスペクト比コントロールアフォーダンス626cを表示する。図29Nでは、デバイス600は、アスペクト比コントロールアフォーダンス626cに対応する場所でのタップジェスチャ2950nを(24J〜24Oに記載されるものと同様のものを使用して)検出する。 As shown in FIG. 29N, in response to detecting the tap gesture 2950 m, the device 600 displays an aspect ratio control affordance 626c near the top of the device 600. In FIG. 29N, the device 600 detects a tap gesture 2950n at a location corresponding to the aspect ratio control affordance 626c (using something similar to that described in 24J-24O).

図29Oに示すように、タップジェスチャ2950nを検出したことに応答して、デバイス600は、表現2930上に視覚境界部608を表示する。図29Oでは、デバイス600は、表現2930上のピンチングジェスチャ2950oを検出する。 As shown in FIG. 29O, in response to detecting the tap gesture 2950n, the device 600 displays a visual boundary 608 on the representation 2930. In FIG. 29O, device 600 detects the pinching gesture 2950o on representation 2930.

図29Pに示すように、ピンチングジェスチャ2950oを検出したことに応答して、デバイス600は、ライブプレビュー630のインジケータ領域602及びコントロール領域606内に表示された、図29Hにおいてキャプチャされたメディアの部分を表示するように、表現2930を更新する。ここで、図29Hのライブプレビュー630とは対照的に、デバイス600は、図29Pにおいて表現2930に実質的に視覚的引裂きがないように、領域602、604、606内のライブプレビュー630の部分を一緒にステッチした。いくつかの実施形態では、デバイス600は、ブラックアウトしている外側部分をキャプチャし(例えば、29D)、外側部分を内側部分にステッチして、視覚的引裂きがほとんど又はまったくないメディアの表現(領域602、604、606内のライブプレビュー630)を表示することができる。いくつかの実施形態では、デバイス600は、要求(例えば、ピンチングジェスチャ2950o)が受信されない限り、ステッチされた表現を表示するのをやめ、代わりに、ステッチされていないキャプチャされたメディアの表現を表示する(例えば、図29Lの表現2930、29Hのカメラディスプレイ領域604内に表示されたライブプレビュー630の部分の表現によって示されるように)。 As shown in FIG. 29P, in response to detecting the pinching gesture 2950o, the device 600 captures the portion of the media captured in FIG. 29H displayed within the indicator area 602 and control area 606 of the live preview 630. Update expression 2930 to display. Here, in contrast to the live preview 630 of FIG. 29H, the device 600 provides a portion of the live preview 630 within regions 602, 604, 606 so that the representation 2930 is substantially free of visual tears in FIG. 29P. Stitched together. In some embodiments, the device 600 captures a blacked out outer portion (eg, 29D) and stitches the outer portion to the inner portion to represent the media with little or no visual tear (area). Live preview 630) in 602, 604, 606 can be displayed. In some embodiments, the device 600 stops displaying the stitched representation unless a request (eg, pinching gesture 2950o) is received and instead displays a representation of the unstitched captured media. (For example, as shown by the representation of the portion of the live preview 630 displayed within the camera display area 604 of representations 2930 and 29H of FIGS. 29L).

図30A〜図30Cは、いくつかの実施形態による複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための方法を示すフロー図である。方法3000は、表示デバイス(例えば、タッチ感知ディスプレイ)を備えたデバイス(例えば、100、300、500、600)にて行われる。方法3000のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 30A-30C are flow diagrams illustrating a method for managing controlled media capture using an electronic device with a plurality of cameras according to some embodiments. Method 3000 is performed on a device (eg, 100, 300, 500, 600) equipped with a display device (eg, a touch-sensitive display). Some actions of Method 3000 are optionally combined, some actions are arbitrarily modified in order, and some actions are optionally omitted.

後述するように、方法3000は、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための直感的方法を提供する。この方法は、複数のカメラを有する電子デバイスを使用してメディアのキャプチャを管理する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアをキャプチャすることを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, Method 3000 provides an intuitive way to manage controlled media captures using electronic devices with multiple cameras. This method reduces the user's cognitive burden in managing media captures using electronic devices with multiple cameras, thereby creating a more efficient human-machine interface. For battery-powered computing devices, it saves power and prolongs the time between battery charges by enabling users to capture media faster and more efficiently.

電子デバイス(例えば、600)は、表示デバイス(例えば、タッチ感知ディスプレイ)及び1つ以上のカメラ(例えば、電子デバイスの異なる側(例えば、前カメラ、後カメラ)の1つ以上のカメラ(例えば、第1のカメラ及び第2のカメラ(例えば、第2のカメラは第1のカメラよりも広い視野を有する))(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど)))を含む。電子デバイスは、表示デバイスを介して、カメラユーザインタフェース、そのカメラユーザインタフェースを表示する(3002)。カメラユーザは、第1の領域(例えば、604)(例えば、カメラディスプレイ領域)であって、1つ以上のカメラ(例えば、カメラに視認可能である開放観測可能エリア、カメラレンズから所与の距離の画像の水平(又は垂直又は対角線)長さ)(例えば、第1のカメラ)の視野の第1の部分(例えば、第1のカメラの視野の第1の部分)の第1の表現(例えば、表現オーバータイム、カメラからのデータのライブプレビューフィード)を含む第1の領域と(3004)、第1の領域の外側にあり、第1の領域と視覚的に区別される第2の領域(例えば、602及び/又は606)(例えば、カメラコントロール領域)と、を含む。第1の領域とは視覚的に異なる第2の領域を表示することにより、メディアを表示するためにキャプチャ及び使用されるメインコンテンツ及びメディアを表示するためにキャプチャされ得る追加のコンテンツであるコンテンツについてのフィードをユーザに提供し、ユーザが、メディアをキャプチャするときに、異なる領域内/外に物を維持するために、メディアをフレーム化できるようにする。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 The electronic device (eg, 600) is a display device (eg, a touch-sensitive display) and one or more cameras (eg, a front camera, a rear camera) on different sides of the electronic device (eg, a front camera, a rear camera). It includes a first camera and a second camera (eg, the second camera has a wider field of view than the first camera) (eg, dual cameras, triple cameras, quad cameras, etc.)). The electronic device displays the camera user interface and the camera user interface via the display device (3002). A camera user is in a first area (eg, 604) (eg, a camera display area) and is a given distance from one or more cameras (eg, an open observable area visible to the camera, a camera lens). The first representation (eg, the first portion of the field of view of the first camera) of the horizontal (or vertical or diagonal) length of the image) (eg, the first camera). , Representation overtime, live preview feed of data from the camera) and (3004), a second area outside the first area that is visually distinguishable from the first area (3004). For example, 602 and / or 606) (eg, camera control area). For content that is the main content captured and used to display the media and additional content that can be captured to display the media by displaying a second area that is visually different from the first area. Provide the feed to the user so that the user can frame the media to keep things in and out of different areas when capturing the media. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

第2の領域は、1つ以上のカメラの視野内の第1のそれぞれのオブジェクト(例えば、2986)(例えば、検出された観察可能なオブジェクト、焦点が合っているオブジェクト、1つ以上のカメラの焦点面内のオブジェクト)が1つ以上のカメラから第1の距離(例えば、2982b)であると満たされる基準を含む、1組の第1のそれぞれの基準が満たされているという判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観(例えば、図29Cの602)で表示する(3008)ことを含む(3006)。所定の条件が満たされているか満たされていないときに基づいて第2の領域内に視野の一部分を表示するように選択することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性があると判定されたときに、第2の領域のプロミネンスを減少するように、及び/又は電子デバイスの1つ以上のカメラの視野が、カメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性がないと判定されたときに、第2の領域のプロミネンスを増加するように、最適化されたユーザインタフェースを提供することができる。これにより、メディアをキャプチャする際に、視覚的引裂きがユーザにもたらす注意散漫が減り、例えば、ユーザが、画像のフレーミング及びキャプチャにかかる時間を短縮することを可能にする。更には、これは、デバイスがキャプチャされた画像を補正するために実行するコンピュータ集約的なステッチ動作をデバイスが実行する可能性を低減し、したがって、これは、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 The second region is an object of each of the first objects in the field of view of one or more cameras (eg, 2896) (eg, a detected observable object, an in-focus object, of one or more cameras. According to the determination that each of the first set of criteria is met, including the criteria that the object in the focal plane) is met at a first distance (eg, 2882b) from one or more cameras. The device comprises displaying, within the second region, a second portion of the field of view of one or more cameras with a first visual appearance (eg, 602 in FIG. 29C) (30086). By choosing to display a portion of the field of view within a second area based on whether certain conditions are met or not, the electronic device can be viewed by one or more cameras of the electronic device. To reduce the prominence of the second area, and / or one of the electronic devices, when it is determined that it may cause a visual tear when rendered on the camera user interface of the electronic device. A user optimized to increase the prominence of the second area when it is determined that the above camera field of view is unlikely to cause a visual tear when rendered on the camera user interface. An interface can be provided. This reduces the distraction that visual tearing brings to the user when capturing the media, allowing, for example, the user to reduce the time it takes to frame and capture the image. Furthermore, this reduces the likelihood that the device will perform computer-intensive stitching actions that the device will perform to correct the captured image, thus allowing the user to perform the device faster and more efficiently. Reduce power consumption and improve device battery life by making it available for use. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.

第2の領域は、1つ以上のカメラの視野内の第1のそれぞれのオブジェクト(例えば、検出された観察可能なオブジェクト、焦点が合っているオブジェクト、1つ以上のカメラの焦点面内のオブジェクト)が1つ以上のカメラから第2の距離(例えば、2982a)であると満たされる基準を含む、1組の第2のそれぞれの基準が満たされているという判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観(例えば、図29Bの602)で表示するのをやめる(3010)ことを含む。所定の条件が満たされているか満たされていないときに基づいて第2の領域内に視野の一部分を表示するように選択することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性があると判定されたときに、第2の領域のプロミネンスを減少するように、及び/又は電子デバイスの1つ以上のカメラの視野が、カメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性がないと判定されたときに、第2の領域のプロミネンスを増加するように、最適化されたユーザインタフェースを提供することができる。これにより、メディアをキャプチャする際に、視覚的引裂きがユーザにもたらす注意散漫が減り、例えば、ユーザが、画像のフレーミング及びキャプチャにかかる時間を短縮することを可能にする。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 The second region is each of the first objects in the field of view of one or more cameras (eg, detected observable objects, in-focus objects, objects in the focal plane of one or more cameras. ) Is a second distance from one or more cameras (eg, 2882a), the electronic device is second according to the determination that each of the second set of criteria is met, including the criteria being met. Includes (3010) stopping displaying a second portion of the field of view of one or more cameras with a first visual appearance (eg, 602 in FIG. 29B) within the region of. By choosing to display a portion of the field of view within a second area based on whether certain conditions are met or not, the electronic device can be viewed by one or more cameras of the electronic device. To reduce the prominence of the second area, and / or one of the electronic devices, when it is determined that it may cause a visual tear when rendered on the camera user interface of the electronic device. A user optimized to increase the prominence of the second area when it is determined that the above camera field of view is unlikely to cause a visual tear when rendered on the camera user interface. An interface can be provided. This reduces the distraction that visual tearing brings to the user when capturing the media, allowing, for example, the user to reduce the time it takes to frame and capture the image. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.

いくつかの実施形態では、第2の領域は、複数のカメラ設定(例えば、620)(例えば、フラッシュ、タイマー、フィルタ効果、f値、アスペクト比、ライブフォトなど)を制御する(例えば、カメラモードを変更する)(例えば、写真を撮影する)(例えば、異なるカメラ(例えば、前面から背面)をアクティブ化する)複数のコントロールアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、プロアクティブコントロールアフォーダンス、シャッターアフォーダンス、カメラ選択アフォーダンス、複数のカメラモードアフォーダンス)を含む。 In some embodiments, the second area controls multiple camera settings (eg, 620) (eg, flash, timer, filter effect, f-value, aspect ratio, live photo, etc.) (eg, camera mode). Change) (eg, take a picture) (eg, activate different cameras (eg, front to back)) Multiple control affordances (eg, selectable user interface objects) (eg, proactive control affordance, Includes shutter affordance, camera selection affordance, multiple camera mode affordance).

いくつかの実施形態では、電子デバイスは、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトに焦点を合わせるように電子デバイスが構成される(3012)。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示している間に、電子デバイスは、電子デバイスの焦点設定を調整する第1の要求(例えば、2950a)を受信する(3014)。いくつかの実施形態では、電子デバイスの焦点設定を調整する第1の要求(例えば、第1の領域に向けられたジェスチャ(例えば、タップ))を受信したことに応答して、電子デバイスは、1つ以上のカメラの視野内(例えば、2936a)の第2のそれぞれのオブジェクトに焦点を合わせるように電子デバイスを構成する(3016)。いくつかの実施形態では、1つ以上のカメラの視野内の第2のそれぞれのオブジェクトに焦点を合わせるように電子デバイスが構成されている間に(3018)、及び1つ以上のカメラの視野内の第2のそれぞれのオブジェクト(例えば、2988)(例えば、検出された観察可能なオブジェクト、焦点が合っているオブジェクト、1つ以上のカメラの焦点面内のオブジェクト)が1つ以上のカメラから第3の距離(例えば、2984b)(例えば、第1のそれぞれのオブジェクトから更に離れた1つ以上のカメラからの距離)であると満たされる基準を含む、1組の第3のそれぞれの基準が満たされているという判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示するのをやめる(例えば、29Gの602)(3020)。いくつかの実施形態では、1つ以上のカメラの視野内の第2のそれぞれのオブジェクトであると満たされる基準を含む、1組の第3のそれぞれの基準が満たされていないという判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示する(又は表示を維持する)。電子デバイスの1つ以上のカメラの焦点が合っているオブジェクトに関して所定の条件が満たされているか満たされていないときに基づいて第2の領域内に視野の一部分を表示するように選択することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性があると判定されたときに、第2の領域のプロミネンスを減少するように、及び/又は電子デバイスの1つ以上のカメラの視野が、カメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性がないと判定されたときに、第2の領域のプロミネンスを増加するように、最適化されたユーザインタフェースを提供することができる。これにより、メディアをキャプチャする際に、視覚的引裂きがユーザにもたらす注意散漫が減り、例えば、ユーザが、画像のフレーミング及びキャプチャにかかる時間を短縮することを可能にする。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the electronic device is configured to focus on each of the first objects in the field of view of one or more cameras (3012). In some embodiments, the electronic device has a first requirement to adjust the focus setting of the electronic device while displaying a second portion of the field of view of one or more cameras with a first visual appearance. For example, 2950a) is received (3014). In some embodiments, the electronic device responds to receiving a first request to adjust the focus setting of the electronic device (eg, a gesture directed to a first region (eg, a tap)). Configure the electronic device to focus on each of the second objects in the field of view of one or more cameras (eg, 2936a) (3016). In some embodiments, while the electronic device is configured to focus on each second object within the field of view of one or more cameras (3018), and within the field of view of one or more cameras. Each of the second objects (eg, 2988) (eg, detected observable objects, in-focus objects, objects in the focal plane of one or more cameras) from one or more cameras. Each set of third criteria is met, including criteria that are met as a distance of 3 (eg, 2984b) (eg, a distance from one or more cameras further away from each of the first objects). According to the determination, the electronic device ceases to display the second portion of the field of view of one or more cameras in the second region with the first visual appearance (eg, 29G 602) (eg, 29G 602). 3020). In some embodiments, the electron is subject to a determination that each of the set of third criteria is not met, including criteria that are met as being each of the second objects in the field of view of one or more cameras. The device displays (or maintains) a second portion of the field of view of one or more cameras in a second area with a first visual appearance. By choosing to display a portion of the field of view within a second area based on when certain conditions are met or not met for the focused object of one or more cameras in the electronic device. A second area, when the electronic device is determined to have the potential to cause a visual tear when the field of view of one or more cameras of the electronic device is rendered on the camera user interface of the electronic device. To reduce the prominence of, and / or when it is determined that the field of view of one or more cameras of the electronic device is unlikely to cause a visual tear when rendered on the camera user interface. An optimized user interface can be provided to increase the prominence of the two areas. This reduces the distraction that visual tearing brings to the user when capturing the media, allowing, for example, the user to reduce the time it takes to frame and capture the image. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.

いくつかの実施形態では、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示している間に(例えば、図29Cの602)、電子デバイスは、1つ以上のカメラの視野内の第1のそれぞれのオブジェクト(例えば、2986)と1つ以上のカメラとの間の距離の第1の変化(例えば、第1のそれぞれのオブジェクトに焦点が合っているときの距離の増加)を検出する。いくつかの実施形態では、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトと1つ以上のカメラとの間の距離の第1の変化を検出したことに応答して、及び1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第4の距離(例えば、2982c)であると満たされる基準を含む、1組の第4のそれぞれの基準が満たされているという判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示するのをやめる(例えば、図29Dの602)。いくつかの実施形態では、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第4の距離であると満たされる基準を含む、1組の第4のそれぞれの基準が満たされていないという判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を、第1の視覚外観よりも視覚的に目立たない第3の視覚外観で表示する(例えば、表示を維持する)。電子デバイスとオブジェクトとの距離に基づく所定の条件が満たされているか満たされていないときに基づいて第2の領域内に視野の一部分を表示するように選択することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性があると判定されたときに、第2の領域のプロミネンスを減少するように、及び/又は電子デバイスの1つ以上のカメラの視野が、カメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性がないと判定されたときに、第2の領域のプロミネンスが増加するように、最適化されたユーザインタフェースを提供することができる。これにより、メディアをキャプチャする際に、視覚的引裂きがユーザにもたらす注意散漫が減り、例えば、ユーザが、画像のフレーミング及びキャプチャにかかる時間を短縮することを可能にする。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the electronic device is one or more cameras while displaying a second portion of the field of view of one or more cameras with a first visual appearance (eg, 602 in FIG. 29C). The first change in the distance between each of the first objects in the field of view (eg, 2896) and one or more cameras (eg, the distance when each of the first objects is in focus). Increase) is detected. In some embodiments, in response to detecting a first change in distance between each first object in the field of view of one or more cameras and one or more cameras, and one. Each set of fourth criteria is met, including a criterion that each first object in the field of view of the above cameras is met at a fourth distance (eg, 2892c) from one or more cameras. According to the determination, the electronic device ceases to display the second portion of the field of view of one or more cameras in the second region with the first visual appearance (eg, 602 in FIG. 29D). In some embodiments, each of the fourth set includes a criterion in which each first object in the field of view of one or more cameras is satisfied to be a fourth distance from the one or more cameras. According to the determination that the criteria are not met, the electronic device makes the second portion of the field of view of one or more cameras within the second region visually less noticeable than the first visual appearance. Display with visual appearance (eg, maintain display). An electronic device is an electronic device by choosing to display a portion of the field of view within a second area based on whether certain conditions based on the distance between the electronic device and the object are met or not met. To reduce the prominence of the second area when it is determined that the field of view of one or more cameras can cause a visual tear when rendered on the camera user interface of the electronic device. And / or the prominence of the second area increases when it is determined that the field of view of one or more cameras of the electronic device is unlikely to cause a visual tear when rendered on the camera user interface. As such, an optimized user interface can be provided. This reduces the distraction that visual tearing brings to the user when capturing the media, allowing, for example, the user to reduce the time it takes to frame and capture the image. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.

いくつかの実施形態では、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示するのをやめることの一部として、電子デバイスは、第2の領域内に、第2の領域内に以前に表示されなかった1つ以上のカメラの視野の第3の部分の少なくともいくつかの表示を停止する(例えば、図29Dの602)。1つ以上のカメラの視野の部分の表示を停止することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性があると判定されたときに、第2の領域のプロミネンスが減少するように、最適化されたユーザインタフェースを提供することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the electronic device is a second, as part of stopping the display of a second portion of the field of view of one or more cameras in the second region with a first visual appearance. In the area of, at least some of the third part of the field of view of one or more cameras that was not previously displayed in the second area is stopped (eg, 602 in FIG. 29D). By stopping the display of parts of the field of view of one or more cameras, the electronic device causes a visual tear when the field of view of one or more cameras of the electronic device is rendered on the camera user interface of the electronic device. It is possible to provide an optimized user interface so that the prominence of the second area is reduced when it is determined that it can cause it. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

いくつかの実施形態では、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示するのをやめることの一部として、電子デバイスは、第2の領域上に重ねられた(例えば、より詳細ではなく、より少ない色彩度、より低い輝度、及び/又はより小さいコントラストで表示された、より不透明なマスキング/黒化層とともに表示された)(例えば、第2の領域は、第1の領域よりも輝度、コントラスト、及び/又は色彩度がより少なく見える)、第1の黒化層(例えば、シミュレートされた黒化層、シミュレートされたマスキング層)の不透明度を増加させる(例えば、図29Dの602)。第2の領域上に重ねられた、黒化層の不透明度を増加させて視覚を低減することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性があると判定されたときに、第2の領域のプロミネンスが減少するように、最適化されたユーザインタフェースを提供することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the electronic device is a second, as part of stopping the display of a second portion of the field of view of one or more cameras with a first visual appearance within the second region. Overlaid over the area of (eg, displayed with a less opaque masking / blackening layer, displayed with less detail, less color saturation, lower brightness, and / or less contrast) (eg, displayed with less detail) , The second region appears to have less brightness, contrast, and / or color saturation than the first region), the first blackening layer (eg, simulated blackening layer, simulated masking). The opacity of the layer) is increased (eg, 602 in FIG. 29D). By increasing the opacity of the blackening layer overlaid on the second region to reduce vision, the electronic device allows the field of view of one or more cameras of the electronic device to be on the camera user interface of the electronic device. An optimized user interface can be provided to reduce the prominence of the second region when it is determined that it may cause a visual tear when rendered in. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

いくつかの実施形態では、電子デバイスは、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトに焦点を合わせるように電子デバイスが構成される。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示していない間に、電子デバイスは、電子デバイスの焦点設定を調整する第2の要求(例えば、2950j)を受信する。いくつかの実施形態では、電子デバイスの焦点設定を調整する第2の要求を受信したことに応答して、電子デバイスは、1つ以上のカメラの視野内の第3のそれぞれのオブジェクトに焦点を合わせるように電子デバイスを構成する。いくつかの実施形態では、1つ以上のカメラの視野内の第3のそれぞれのオブジェクトに焦点を合わせるように電子デバイスが構成されている間に、及び1つ以上のカメラの視野内の第3のそれぞれのオブジェクト(例えば、検出された観察可能なオブジェクト、焦点が合っているオブジェクト、1つ以上のカメラの焦点面内のオブジェクト)が1つ以上のカメラから第5の距離(例えば、第1のそれぞれのオブジェクトよりも近い1つ以上のカメラからの距離)であると満たされる基準を含む、1組の第5のそれぞれの基準が満たされているという判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示する。いくつかの実施形態では、1つ以上のカメラの視野内の第3のそれぞれのオブジェクト(例えば、検出された観察可能なオブジェクト、焦点が合っているオブジェクト、1つ以上のカメラの焦点面内のオブジェクト)が1つ以上のカメラから第5の距離(例えば、第1のそれぞれのオブジェクトよりも近い1つ以上のカメラからの距離)であると満たされる基準を含む、1組の第5のそれぞれの基準が満たされていないという判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示するのをやめる。焦点が合っているオブジェクトに関して所定の条件が満たされているか満たされていないときに基づいて第2の領域内に視野の一部分を表示するように選択することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性があると判定されたときに、第2の領域のプロミネンスを減少するように、及び/又は電子デバイスの1つ以上のカメラの視野が、カメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性がないと判定されたときに、第2の領域のプロミネンスを増加するように、最適化されたユーザインタフェースを提供することができる。これにより、メディアをキャプチャする際に、視覚的引裂きがユーザにもたらす注意散漫が減り、例えば、ユーザが、画像のフレーミング及びキャプチャにかかる時間を短縮することを可能にする。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the electronic device is configured to focus on each of the first objects in the field of view of one or more cameras. In some embodiments, the electronic device has a second requirement to adjust the focus setting of the electronic device while not displaying the second portion of the field of view of one or more cameras in the first visual appearance. For example, 2950j) is received. In some embodiments, in response to receiving a second request to adjust the focus setting of the electronic device, the electronic device focuses on each of the third objects in the field of view of one or more cameras. Configure the electronic device to match. In some embodiments, while the electronic device is configured to focus on each third object in the field of view of one or more cameras, and in the field of view of one or more cameras. Each object (eg, a detected observable object, an in-focus object, an object in the focal plane of one or more cameras) is at a fifth distance (eg, first) from one or more cameras. According to the determination that each of the fifth set of criteria is met, the electronic device is in the second Within the area, a second portion of the field of view of one or more cameras is displayed with a first visual appearance. In some embodiments, each third object in the field of view of one or more cameras (eg, a detected observable object, an in-focus object, within the focal plane of one or more cameras). Each of a set of fifths, including a criterion that satisfies the object) being a fifth distance from one or more cameras (eg, a distance from one or more cameras closer than each of the first objects). According to the determination that the criteria of the above are not met, the electronic device stops displaying the second part of the field of view of one or more cameras in the second area with the first visual appearance. By choosing to display a portion of the field of view within the second region based on whether certain conditions are met or not met for the in-focus object, the electronic device is one of the electronic devices. To reduce the prominence of the second area when it is determined that the field of view of one or more cameras can cause a visual tear when rendered on the camera user interface of the electronic device, and / Or increase the prominence of the second area when it is determined that the field of view of one or more cameras of the electronic device is unlikely to cause a visual tear when rendered on the camera user interface. Can provide an optimized user interface. This reduces the distraction that visual tearing brings to the user when capturing the media, allowing, for example, the user to reduce the time it takes to frame and capture the image. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.

いくつかの実施形態では、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示していない間に、電子デバイスは、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトと1つ以上のカメラとの間の距離(例えば、2982c)の第2の変化(例えば、第1のそれぞれのオブジェクトに焦点が合っているときの距離の減少)を検出する。いくつかの実施形態では、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトと1つ以上のカメラとの間の距離の第2の変化を検出したことに応答して、及び1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第6の距離(例えば、2982a)であると満たされる基準を含む、1組の第6のそれぞれの基準が満たされているという判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示する(例えば、図29E)。いくつかの実施形態では、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第6の距離であると満たされる基準を含む、1組の第6のそれぞれの基準が満たされていないという判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示するのをやめる。電子デバイスとオブジェクトとの距離に基づく所定の条件が満たされているか満たされていないときに基づいて第2の領域内に視野の一部分を表示するように選択することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性があると判定されたときに、第2の領域のプロミネンスを減少するように、及び/又は電子デバイスの1つ以上のカメラの視野が、カメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性がないと判定されたときに、第2の領域のプロミネンスを増加するように、最適化されたユーザインタフェースを提供することができる。これにより、メディアをキャプチャする際に、視覚的引裂きがユーザにもたらす注意散漫が減り、例えば、ユーザが、画像のフレーミング及びキャプチャにかかる時間を短縮することを可能にする。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the electronic device is a first in the field of view of the one or more cameras, while the second portion of the field of view of the one or more cameras is not displayed in the first visual appearance. Detects a second change in distance (eg, 2882c) between an object and one or more cameras (eg, a decrease in distance when each of the first objects is in focus). In some embodiments, in response to detecting a second change in the distance between each of the first objects in the field of view of one or more cameras and one or more cameras, and one. Each set of sixth criteria is met, including a criterion that each first object in the field of view of the above cameras is met at a sixth distance (eg, 2982a) from one or more cameras. According to the determination, the electronic device displays a second portion of the field of view of one or more cameras in the second region with a first visual appearance (eg, FIG. 29E). In some embodiments, each of the sixth set includes a criterion in which each first object in the field of view of one or more cameras is satisfied to be a sixth distance from the one or more cameras. According to the determination that the criteria are not met, the electronic device ceases to display a second portion of the field of view of one or more cameras in the second region with a first visual appearance. An electronic device is an electronic device by choosing to display a portion of the field of view within a second area based on whether certain conditions based on the distance between the electronic device and the object are met or not met. To reduce the prominence of the second area when it is determined that the field of view of one or more cameras can cause a visual tear when rendered on the camera user interface of the electronic device. And / or increase the prominence of the second area when it is determined that the field of view of one or more cameras of the electronic device is unlikely to cause a visual tear when rendered on the camera user interface. As such, an optimized user interface can be provided. This reduces the distraction that visual tearing brings to the user when capturing the media, allowing, for example, the user to reduce the time it takes to frame and capture the image. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.

いくつかの実施形態では、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することの一部として、含み(例えば、第1の視覚外観は、視野の第2の部分の以前の外観がより視覚的に目立つ(例えば、より詳細に、より大きい色彩度、より大きい輝度、及び/又はより大きいコントラストで表示された、より少ないマスキング/黒化層とともに表示された))、電子デバイスは、第2の領域内に、第2の領域内に以前に表示されなかった1つ以上のカメラの視野の第4の部分を表示する(例えば、図29Eの602)。追加のコンテンツをユーザに示すことにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性がないと判定されたときに、第2の領域のプロミネンスを増加するように、最適化されたユーザインタフェースを提供することができ、ユーザは、ユーザが、カメラユーザインタフェースを使用してメディアを迅速にフレーム化し、かつメディアをキャプチャすることができる、追加のコンテキスト情報を提供するために画像を撮影するときに、より多くの1つ以上のカメラの視野を見ることができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, within the second region, a second portion of the field of view of one or more cameras is included as part of displaying the first visual appearance (eg, the first visual appearance). Less masking / black, where the previous appearance of the second part of the field of view is more visually noticeable (eg, in more detail, with greater color saturation, greater brightness, and / or greater contrast. (Displayed with the chemical layer)), the electronic device displays, within the second region, a fourth portion of the field of view of one or more cameras that was not previously displayed within the second region (eg, displayed). 602 in FIG. 29E. By presenting additional content to the user, the electronic device determines that the field of view of one or more cameras of the electronic device is unlikely to cause a visual tear when rendered on the camera user interface of the electronic device. When done, an optimized user interface can be provided to increase the prominence of the second area, allowing the user to quickly frame the media using the camera user interface. You can see more than one camera's field of view when taking an image to provide additional contextual information that can also capture the media. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

いくつかの実施形態では、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することの一部として、含み(例えば、より詳細に、より大きい色彩度、より大きい輝度、及び/又はより大きいコントラストで表示された、より不透明でないマスキング/黒化層とともに表示された)(例えば、第1の視覚外観は、視野の第2の部分の以前の外観がより視覚的に目立つ(例えば、より詳細に、より大きい色彩度、より大きい輝度、及び/又はより大きいコントラストで表示された、より少ないマスキング/黒化層とともに表示された))、電子デバイスは、第2の領域上に重ねられた(例えば、第2の領域は、第1の領域よりも輝度、コントラスト、及び/又は色彩度がより多く見える)、第2の黒化層(例えば、シミュレートされた黒化層、シミュレートされたマスキング層)の不透明度を減少させる(例えば、図29Eの602)。第2の領域上に重ねられた黒化層の不透明度を減少させて視覚を低減することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性がないと判定されたときに、第2の領域のプロミネンスを増加するように、最適化されたユーザインタフェースを提供することができ、ユーザは、ユーザが、カメラユーザインタフェースを使用してメディアを迅速にフレーム化し、かつメディアをキャプチャすることができ、これは、例えば、ユーザがメディアを生成するために実行する必要があるメディアキャプチャの数を低減する、追加のコンテキスト情報を提供するために画像を撮影するときに、より多くの1つ以上のカメラの視野を見ることができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, within the second region, a second portion of the field of view of one or more cameras is included as part of displaying the second portion of the field of view in the first visual appearance (eg, in more detail, more). Displayed with a less opaque masking / blackening layer displayed with greater color saturation, greater brightness, and / or greater contrast) (eg, the first visual appearance is before the second portion of the field of view. The appearance of is more visually noticeable (eg, displayed in more detail, with less masking / blackening layers displayed with greater color saturation, greater brightness, and / or greater contrast). The device was overlaid on the second region (eg, the second region appears to have more brightness, contrast, and / or color saturation than the first region), a second blackening layer (eg, the second region). , Simulated blackening layer, simulated masking layer) to reduce opacity (eg, 602 in FIG. 29E). By reducing the opacity of the blackening layer overlaid on the second region to reduce vision, the electronic device allows the field of view of one or more cameras of the electronic device to be on the camera user interface of the electronic device. A user interface can be provided that is optimized to increase the prominence of the second area when it is determined that it is unlikely to cause a visual tear when rendered, allowing the user to use the user. However, the camera user interface can be used to quickly frame the media and capture the media, which reduces, for example, the number of media captures the user must perform to generate the media. You can see more than one camera's field of view when taking an image to provide additional contextual information. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

いくつかの実施形態では、第1の視覚外観は、第1の視覚プロミネンスを含む。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することの一部として、電子デバイスは、1つ以上のカメラの視野の第2の部分を第2の視覚外観から第1の視覚外観に徐々に遷移させるアニメーションを表示する(例えば、第1の視覚外観を表示する前に第1の視覚外観及び第2の視覚外観とは異なる、異なる外観で表示される)。いくつかの実施形態では、第2の視覚外観は、第1の視覚プロミネンスとは異なる第2の視覚プロミネンス(例えば、より詳細に/より詳細ではなく、より大きい/より少ない色彩度、より大きい/より低い輝度、及び/又はより大きい/より小さいコントラストで表示された、より不透明でない/より不透明なマスキング/黒化層とともに表示された)を有する。いくつかの実施形態では、第1の視覚外観は、第2の視覚外観とは異なる。第2の領域をある状態の視覚プロミネンスから第2の状態の視覚プロミネンスに徐々に遷移させるアニメーションを表示することにより、ユーザに、視覚プロミネンスの突然の変化が、カメラユーザインタフェースを使用してメディアをフレーム化及びキャプチャするユーザの能力を中断する、又はメディアをフレーム化及びキャプチャする時間を増加させるユーザアクション(例えば、デバイスを揺さぶる又は動かす)を引き起こし得る、注意散漫の可能性を低減させている間に、視覚的引裂きを低減させたユーザインタフェースを提供する。第2の領域上に重ねられた黒化層の不透明度を減少させて視覚を低減することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性がないと判定されたときに、第2の領域のプロミネンスを増加するように、最適化されたユーザインタフェースを提供することができ、ユーザは、ユーザが、カメラユーザインタフェースを使用してメディアを迅速にフレーム化し、かつメディアをキャプチャすることができる、追加のコンテキスト情報を提供するために画像を撮影するときに、より多くの1つ以上のカメラの視野を見ることができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the first visual appearance comprises a first visual prominence. In some embodiments, the electronic device is a second portion of the field of view of one or more cameras as part of displaying a second portion of the field of view of one or more cameras with a first visual appearance. To display an animation that gradually transitions from the second visual appearance to the first visual appearance (eg, different, different from the first visual appearance and the second visual appearance before displaying the first visual appearance). Appearance). In some embodiments, the second visual appearance is a second visual prominence that differs from the first visual prominence (eg, more detailed / less detailed, greater / less color saturation, greater / It has lower brightness and / or displayed with a less opaque / more opaque masking / blackening layer, displayed with greater / less contrast. In some embodiments, the first visual appearance is different from the second visual appearance. By displaying an animation that gradually transitions the second area from one state of visual prominence to a second state of visual prominence, a sudden change in visual prominence gives the user media using the camera user interface. While reducing the possibility of distraction, which can disrupt the user's ability to frame and capture, or cause user actions (eg, rocking or moving the device) that increase the time it takes to frame and capture the media. Provides a user interface with reduced visual tearing. By reducing the opacity of the blackening layer overlaid on the second region to reduce vision, the electronic device allows the field of view of one or more cameras of the electronic device to be on the camera user interface of the electronic device. A user interface can be provided that is optimized to increase the prominence of the second area when it is determined that it is unlikely to cause a visual tear when rendered. But more than one camera when taking an image to provide additional contextual information that allows you to quickly frame the media and capture the media using the camera user interface. You can see the field of view. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

いくつかの実施形態では、第1の部分は、第1の視覚外観とは異なる(例えば、より詳細に/より詳細ではなく、色彩度、輝度、及び/又はコントラストで表示された、より不透明でない/より不透明なマスキング/黒化層とともに表示された)第3の視覚外観で表示される。いくつかの実施形態では、第1の部分が、第3の視覚外観で表示され、かつ1つ以上のカメラの視野の第2の部分が、第1の視覚外観で表示されることを表示している間に、電子デバイスは、メディアをキャプチャする要求(例えば、2950h)を受信する。いくつかの実施形態では、第2の部分は、ブラックアウトしており、領域は、ブラックアウトしていない。いくつかの実施形態では、メディアをキャプチャする要求を受信したことに応答して、電子デバイスは、1つ以上のカメラの視野に対応するメディアをキャプチャすることであって、メディアが、1つ以上のカメラの視野の第1の部分からのコンテンツ及び1つ以上のカメラの視野の第2の部分からのコンテンツを含む、メディアをキャプチャする。いくつかの実施形態では、1つ以上のカメラの視野に対応するメディアをキャプチャした後に、電子デバイスは、1つ以上のカメラの視野の第1の部分からのコンテンツ及び1つ以上のカメラの視野の第2の部分からのコンテンツを含む、メディアの表現(例えば、図26Pの2930)を表示する。いくつかの実施形態では、メディアの表現は、第1の視覚外観を有さない。 In some embodiments, the first portion is different from the first visual appearance (eg, less opaque, displayed in more detail / less detail, color saturation, brightness, and / or contrast). Displayed with a third visual appearance (displayed with / more opaque masking / blackening layer). In some embodiments, the first portion is displayed with a third visual appearance, and the second portion of the field of view of one or more cameras is displayed with a first visual appearance. While the electronic device receives a request to capture the media (eg, 2950h). In some embodiments, the second part is blacked out and the area is not blacked out. In some embodiments, in response to receiving a request to capture media, the electronic device captures media corresponding to the field of view of one or more cameras, wherein the media is one or more. Captures media, including content from a first portion of the field of view of one or more cameras and content from a second portion of the field of view of one or more cameras. In some embodiments, after capturing the media corresponding to the field of view of one or more cameras, the electronic device presents the content from the first portion of the field of view of the one or more cameras and the field of view of the one or more cameras. Display a representation of the media (eg, 2930 in FIG. 26P), including content from the second portion of. In some embodiments, the representation of the media does not have a first visual appearance.

いくつかの実施形態では、第2の領域の少なくとも第1の部分(例えば、602)は、第1の領域の上である(例えば、デバイスのカメラにより近い、デバイスの上部により近い)。いくつかの実施形態では、第2の領域の少なくとも第2の部分(例えば、606)は、第2の領域の下である(例えば、デバイスのカメラから更に離れる、デバイスの底部により近い)。 In some embodiments, at least the first portion of the second region (eg, 602) is above the first region (eg, closer to the camera of the device, closer to the top of the device). In some embodiments, at least a second portion of the second region (eg, 606) is below the second region (eg, further away from the device's camera, closer to the bottom of the device).

いくつかの実施形態では、電子デバイスは、カメラユーザインタフェース上の場所で入力を受信する。いくつかの実施形態では、カメラユーザインタフェース上の場所で入力を受信したことに応答して、電子デバイスは、入力(例えば、2950j)の場所が第1の領域(例えば、604)内にあるという判定に従って、入力(例えば、2936c)の場所に、焦点を合わせるように電子デバイスを構成し(及び任意選択的に、露出又はホワイトバランスなどの1つ以上の他のカメラ設定を、1つ以上のカメラの視野の特性に基づいて設定し)、電子デバイスは、入力(例えば、2950hi)の場所が第2の領域(例えば、602)内にあるという判定に従って、入力の場所に、焦点を合わせるように電子デバイスを構成するのをやめる(及び任意選択的に、露出又はホワイトバランスなどの1つ以上の他のカメラ設定を、1つ以上のカメラの視野の特性に基づいて設定するのをやめる)。 In some embodiments, the electronic device receives input at a location on the camera user interface. In some embodiments, in response to receiving an input at a location on the camera user interface, the electronic device states that the location of the input (eg, 2950j) is within a first region (eg, 604). According to the determination, the electronic device is configured to focus on the location of the input (eg, 2936c) (and optionally one or more other camera settings such as exposure or white balance). The electronic device should focus on the location of the input (eg, 2950hi) according to the determination that the location of the input (eg, 2950hi) is within the second region (eg, 602). Stop configuring electronic devices in (and optionally stop setting one or more other camera settings, such as exposure or white balance, based on the characteristics of the field of view of one or more cameras) ..

いくつかの実施形態では、第1の外観で表示されると、第2の領域(例えば、602)は、第1の領域(例えば、604)と視覚的に区別される(例えば、第2の領域内の1つ以上のカメラの視野に対応するコンテンツは、フェードされ、及び/又は半透明のオーバーレイとともに表示され、第1の領域内の1つ以上のカメラの視野に対応するコンテンツは、フェードされず、及び/又は半透明のオーバーレイとともに表示されない)。第1の領域とは視覚的に異なる第2の領域を表示することにより、メディアを表示するためにキャプチャ及び使用されるメインコンテンツ及びメディアを表示するためにキャプチャされ得る追加のコンテンツであるコンテンツについてのフィードをユーザに提供し、ユーザが、メディアをキャプチャするときに、異なる領域内/外に物を維持するために、メディアをフレーム化できるようにする。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the second region (eg, 602) is visually distinguished from the first region (eg, 604) when displayed in the first appearance (eg, second). Content corresponding to the field of view of one or more cameras in the area is faded and / or displayed with a translucent overlay, and content corresponding to the field of view of one or more cameras in the first area is faded. Not displayed and / or displayed with a translucent overlay). For content that is the main content captured and used to display the media and additional content that can be captured to display the media by displaying a second area that is visually different from the first area. Provide the feed to the user so that the user can frame the media to keep things in and out of different areas when capturing the media. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

いくつかの実施形態では、1組の第1のそれぞれの基準は、第1のそれぞれのオブジェクトが1つ以上のカメラの視野内で特定された最も近いオブジェクトであると満たされる基準を更に含む。いくつかの実施形態では、1組の第1のそれぞれの基準は、第1のそれぞれのオブジェクトが1つ以上のカメラの視野内の焦点の場所にあると満たされる基準を更に含む。 In some embodiments, each set of first criteria further includes criteria for satisfying that each first object is the closest object identified within the field of view of one or more cameras. In some embodiments, each set of first criteria further includes criteria that are satisfied that each first object is at a focal point within the field of view of one or more cameras.

いくつかの実施形態では、第1の領域は、境界部(例えば、608)によって第2の領域から分離される。いくつかの実施形態では、1組の第1のそれぞれの基準は、視覚的引裂きが検出されたと満たされる基準を更に含む(例えば、図26H)(例えば、境界部に隣接する(例えば、隣の、上の)スクリーン引裂き(例えば、第1の領域内に表示された表現が第2の領域内に表示された表現と視覚的に同期していない(例えば、視覚アーチファクトの)外観(例えば、単一のオブジェクトが第1の表現を横切って表示され、かつ第2の表現が変更されて見えるように(例えば、第1の表現に表示されたオブジェクトの一部が、第2の表現に表示されたオブジェクトの一部と並んで見えるように)、第2の表現が方向(例えば、右又は左)にシフトするように見える)が視覚的引裂きの閾値レベルを上回る)。 In some embodiments, the first region is separated from the second region by a boundary (eg, 608). In some embodiments, each of the first set of criteria further includes criteria that are satisfied that a visual tear has been detected (eg, FIG. 26H) (eg, adjacent to the boundary (eg, adjacent). , Above) Screen tear (eg, the representation displayed in the first area is not visually synchronized with the representation displayed in the second area (eg, visual artifacts) appearance (eg, simply) A part of the object displayed in the first representation is displayed in the second representation so that one object is displayed across the first representation and the second representation appears modified (eg, a portion of the object displayed in the first representation is displayed in the second representation. The second representation (eg, appears to shift in the direction (eg, right or left)) exceeds the threshold level of visual tear).

いくつかの実施形態では、1組の第1のそれぞれの基準は、1つ以上のカメラの視野の第1の部分が第1のカメラの視野の一部分であると満たされる基準を更に含み。いくつかの実施形態では、1組の第2のそれぞれの基準は、1つ以上のカメラの視野の第2の部分が第1のカメラとは異なる第2のカメラの視野の一部分であると満たされる基準を更に含む(例えば、図31A〜図31I、及び図32A〜図32Cて記載された方法3200に関連して後述するように)。いくつかの実施形態では、第1のカメラは、第2のタイプの第2のカメラ(例えば、異なる幅の異なるレンズを有するカメラ(例えば、超広角、広角、望遠写真カメラ)とは異なる第1のタイプのカメラ(例えば、異なる幅の異なるレンズを有するカメラ(例えば、超広角、広角、望遠写真カメラ))である。 In some embodiments, each of the first set of criteria further includes criteria in which the first portion of the field of view of one or more cameras is satisfied as part of the field of view of the first camera. In some embodiments, each of the second sets of criteria satisfies that the second portion of the field of view of one or more cameras is part of the field of view of a second camera that is different from the first camera. Further includes criteria such as (eg, as described below in connection with the method 3200 described in FIGS. 31A-31I and 32A-32C). In some embodiments, the first camera is different from a second type of second camera (eg, a camera with different lenses of different widths (eg, ultra-wide-angle, wide-angle, telephoto camera). Type of camera (eg, cameras with different lenses of different widths (eg, ultra-wide-angle, wide-angle, telephoto camera)).

いくつかの実施形態では、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示している間に、電子は、メディアをキャプチャする要求を受信する。いくつかの実施形態では、メディアをキャプチャする要求を受信したことに応答して、電子デバイスは、1つ以上のカメラの視野に対応するメディアを受信することであって、メディアが、1つ以上のカメラの視野の第1の部分からのコンテンツ及び1つ以上のカメラの視野の第2の部分からのコンテンツを含む、メディアを受信する。いくつかの実施形態では、メディアをキャプチャした後に、電子デバイスは、キャプチャされたメディアを編集する要求(例えば、2950o)を受信する。いくつかの実施形態では、キャプチャされたメディアを編集する要求を受信したことに応答して、電子デバイスは、1つ以上のカメラの視野の第1の部分からのコンテンツのうちの少なくともいくらか及び1つ以上のカメラの視野の第2の部分からのコンテンツのうちの少なくともいくらかを含む、キャプチャされたメディアの表現(例えば、図26Pの2930)を表示する。いくつかの実施形態では、部分からのコンテンツ及び第2の部分からのコンテンツを含むメディアアイテムの表現は、メディアの表現の補正されたバージョン(例えば、安定化、水平補正、垂直視点補正、水平視点補正)である。いくつかの実施形態では、部分からのコンテンツ及び第2の部分からのコンテンツを含むメディアアイテムの表現は、第1及び第2のコンテンツの組み合わせを含み、第1の部分からのコンテンツの少なくともいくつかの表現及び第2の部分からのコンテンツの少なくともいくつかの表現を表示することを含む。いくつかの実施形態では、表現は、第2の部分(又は第1の部分)のコンテンツの少なくともいくつかの表現を表示することを含まず、メディアアイテムの表現は、第2の部分のコンテンツの少なくともいくつかを表示することなく、第2の部分からのコンテンツの少なくともいくつかを使用して生成される。 In some embodiments, while displaying a second portion of the field of view of one or more cameras with a first visual appearance, the electrons receive a request to capture the media. In some embodiments, in response to receiving a request to capture media, the electronic device receives media corresponding to the field of view of one or more cameras, wherein the media is one or more. Receives media, including content from a first portion of the field of view of one or more cameras and content from a second portion of the field of view of one or more cameras. In some embodiments, after capturing the media, the electronic device receives a request to edit the captured media (eg, 2950o). In some embodiments, in response to receiving a request to edit the captured media, the electronic device has at least some of the content from the first part of the field of view of one or more cameras and one. Display a representation of the captured media (eg, 2930 on page 26P), including at least some of the content from the second portion of the field of view of one or more cameras. In some embodiments, the representation of the media item, including the content from the part and the content from the second part, is a corrected version of the representation of the media (eg, stabilization, horizontal correction, vertical viewpoint correction, horizontal viewpoint). Correction). In some embodiments, the representation of the content from the part and the media item containing the content from the second part comprises a combination of the first and second content and at least some of the content from the first part. And including displaying at least some representations of the content from the second part. In some embodiments, the representation does not include displaying at least some representation of the content of the second part (or the first part), and the representation of the media item is of the content of the second part. Generated using at least some of the content from the second part without displaying at least some.

方法3000に関して上述された処理(例えば、図30A〜図30C)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2500、2700、2800、3200、3400、3600、及び3800は、方法3000を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法3200は、任意選択的に、方法3000に関連して上述した様々な技術を使用して、カメラユーザインタフェースの様々な領域の視覚プロミネンスを変更することを採用する。簡潔にするために、これらの詳細は、以下で繰り返さない。 It should be noted that the details of the processes described above for Method 3000 (eg, FIGS. 30A-30C) are also applicable to the methods described above in a similar manner. For example, methods 700, 900, 1100, 1300, 1500, 1700, 1900, 2100, 2300, 2500, 2700, 2800, 3200, 3400, 3600, and 3800 are of the various methods described above with reference to Method 3000. Includes one or more of the properties optionally. For example, the method 3200 optionally employs to modify the visual prominence of different areas of the camera user interface using the various techniques described above in connection with the method 3000. For the sake of brevity, these details will not be repeated below.

図31A〜図31Iは、いくつかの実施形態による電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図32A〜図32Cにおける処理を含む、以下で説明される処理を例示するために使用される。いくつかの実施形態では、図29A〜図29P及び図30A〜図30Cで論じられた1つ以上の技術を、以下で論じられた図31A〜図31I及び図32A〜図32Cの1つ以上の技術と任意選択的に組み合わせてもよい。 31A-31I show exemplary user interfaces for displaying camera user interfaces at various zoom levels using different cameras of electronic devices according to some embodiments. The user interfaces in those figures are used to illustrate the processes described below, including the processes in FIGS. 32A-32C. In some embodiments, one or more techniques discussed in FIGS. 29A-29P and 30A-30C, one or more of FIGS. 31A-31I and 32A-32C discussed below. It may be optionally combined with the technology.

図31Aは、前側3106aと裏側3106bとを含む電子デバイス600を示す。タッチ感知ディスプレイは、デバイス600の前側3106aに配置され、カメラユーザインタフェースを表示するのに使用される。カメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含み、これらは、インジケータ及びコントロールがライブプレビュー630と同時に表示され得るように、ライブプレビュー630上に重ねられる。カメラディスプレイ領域604は、インジケータ又はコントロールと実質的に重ならない。この例では、ライブプレビュー630は、周囲環境内の人の肩に乗っている犬を含む。図31Aのカメラユーザインタフェースはまた、インジケータ領域602とカメラディスプレイ領域604との境界部及びカメラディスプレイ領域604とコントロール領域606との境界部を示す視覚境界部608を含む。 FIG. 31A shows an electronic device 600 including a front side 3106a and a back side 3106b. The touch-sensitive display is located on the front side 3106a of the device 600 and is used to display the camera user interface. The camera user interface includes an indicator area 602 and a control area 606, which are overlaid on the live preview 630 so that the indicators and controls can be displayed at the same time as the live preview 630. The camera display area 604 does not substantially overlap the indicator or control. In this example, live preview 630 includes a dog on the shoulder of a person in the surrounding environment. The camera user interface of FIG. 31A also includes a visual boundary 608 indicating a boundary between the indicator area 602 and the camera display area 604 and a boundary between the camera display area 604 and the control area 606.

図31Aに示すように、インジケータ領域602は、ライブプレビュー630上に重ねられ、任意選択的に着色された(例えば、灰色;半透明)オーバーレイを含む。インジケータ領域602は、フラッシュインジケータ602aを含む。フラッシュインジケータ602aは、フラッシュが自動モード、オン、オフ、又は別のモード(例えば、赤目低減モード)であるかどうかを示す。 As shown in FIG. 31A, the indicator area 602 includes an optionally colored (eg, gray; translucent) overlay overlaid on the live preview 630. The indicator area 602 includes a flash indicator 602a. The flash indicator 602a indicates whether the flash is in automatic mode, on, off, or another mode (eg, red-eye reduction mode).

図31Aに示すように、カメラディスプレイ領域604は、ライブプレビュー630及びズームアフォーダンス2622を含み、ズームアフォーダンス2622は、0.5×ズームアフォーダンス2622a、1×ズームアフォーダンス2622b、及び2×ズームアフォーダンス2622cを含む。この例では、0.5×ズームアフォーダンス2622aが選択され、これは、0.5×ズームレベルでライブプレビュー630が表されることを示す。 As shown in FIG. 31A, the camera display area 604 includes a live preview 630 and a zoom affordance 2622, and the zoom affordance 2622 includes 0.5 × zoom affordance 2622a, 1 × zoom affordance 2622b, and 2 × zoom affordance 2622c. .. In this example, 0.5 × zoom affordance 2622a is selected, which indicates that the live preview 630 is represented at 0.5 × zoom level.

図31Aに示すように、コントロール領域606は、ライブプレビュー630上に重ねられ、任意選択的に着色された(例えば、灰色;半透明)オーバーレイを含む。コントロール領域606は、カメラモードアフォーダンス620、メディアコレクションの一部分624、シャッターアフォーダンス610、及びカメラスイッチャアフォーダンス612を含む。カメラモードアフォーダンス620は、どのカメラモードが現在選択されているかを示し、ユーザがカメラモードを変更することを可能にする。 As shown in FIG. 31A, the control area 606 includes an optionally colored (eg, gray; translucent) overlay overlaid on the live preview 630. The control area 606 includes a camera mode affordance 620, a portion of the media collection 624, a shutter affordance 610, and a camera switcher affordance 612. The camera mode affordance 620 indicates which camera mode is currently selected and allows the user to change the camera mode.

図31Aに示すように、ライブプレビュー630は、ディスプレイの上部からディスプレイの底部まで延在する。ライブプレビュー630は、1つ以上のカメラ(例えば、又はカメラセンサ)によって検出されたコンテンツの表現である。いくつかの実施形態では(例えば、特定の条件下では)、デバイス600は、異なる1組の1つ以上のカメラを使用して、異なるズームレベルでライブプレビュー630を表示する。いくつかの実施形態では、あるズームレベルでは、デバイス600は、カメラディスプレイ領域604に表示されるライブプレビュー630の部分を表示するための第1のカメラ、並びにインジケータ領域602及びコントロール領域606内に表示されるライブプレビュー630の部分を表示するための第2のカメラ(例えば、第1のカメラよりも広い視野(FOV)を有するカメラ)からのコンテンツを使用する。いくつかの実施形態では、デバイス600は、1つだけのカメラからのコンテンツを使用して、ライブプレビュー630の全体を表示する。いくつかの実施形態では、ライブプレビュー630は、デバイス600の上部及び/又は底部まで延びない。 As shown in FIG. 31A, the live preview 630 extends from the top of the display to the bottom of the display. The live preview 630 is a representation of the content detected by one or more cameras (eg, or camera sensors). In some embodiments (eg, under certain conditions), the device 600 uses a different set of one or more cameras to display a live preview 630 at different zoom levels. In some embodiments, at a zoom level, the device 600 displays within a first camera for displaying a portion of the live preview 630 displayed in the camera display area 604, as well as within the indicator area 602 and the control area 606. Content from a second camera (eg, a camera with a wider field of view (FOV) than the first camera) for displaying a portion of the live preview 630 to be performed is used. In some embodiments, the device 600 uses content from only one camera to display the entire live preview 630. In some embodiments, the live preview 630 does not extend to the top and / or bottom of the device 600.

特定のズームレベルでライブプレビュー630の表示に寄与する例示的な1組のカメラに関する理解を改善するために、図26A〜図26Sは、デバイス600の裏側3106bの例示的な表現を含む。デバイス600の裏側3106bは、カメラ3180を含む。カメラ3180の各FOVは、異なる幅(例えば、FOV内に包含される角度の異なる幅)を有し、これは、カメラセンサとレンズとの異なる組み合わせを有する各カメラ3180に起因する。カメラ3180は、超広角カメラ3180a、広角カメラ3180b、及び望遠写真カメラ3180cを含み、これは、最も広いFOVから最も狭いFOVを有する裏側3106bに示される。更には、特定のズームレベルでライブプレビュー630の表示に寄与する例示的な1組のカメラに関する理解を改善するために、FOVボックス3182aはまた、デバイス600の前側3106aを包含するように示される。ライブプレビュー630に関するFOVボックス3182aは、カメラディスプレイ領域604(例えば、図31Aの超広角カメラ3180a)内に表示されるライブプレビュー630の部分を表示するために、デバイス600を使用している、カメラのFOVの部分を表す。FOVボックス3182aは、縮尺どおりに表示されない。図31Aにおいて、FOVボックス3182aは、超広角カメラ3180aのFOVがカメラディスプレイ領域604、インジケータ領域602、及びコントロール領域606を含む、ライブプレビュー630全体のコンテンツを提供するのに十分である(例えば、十分に広い)ことを示す。対照的に、以下でより詳細に論じられる図31Cにおいて、広角カメラ3180bは、カメラディスプレイ領域604のコンテンツを提供するために使用されているが、広角カメラ3180bのFOVは、FOVボックス3182bによって示されるように、インジケータ領域602及びコントロール領域606全体のコンテンツを提供するのに十分ではない。 To improve the understanding of an exemplary set of cameras that contribute to the display of the live preview 630 at a particular zoom level, FIGS. 26A-26S include an exemplary representation of the backside 3106b of the device 600. The backside 3106b of the device 600 includes a camera 3180. Each FOV of the camera 3180 has a different width (eg, different widths of angles contained within the FOV), which is due to each camera 3180 having a different combination of camera sensor and lens. The camera 3180 includes an ultra-wide-angle camera 3180a, a wide-angle camera 3180b, and a telephoto photographic camera 3180c, which are shown on the backside 3106b with the widest FOV to the narrowest FOV. Furthermore, to improve the understanding of an exemplary set of cameras that contributes to the display of the live preview 630 at a particular zoom level, the FOV box 3182a is also shown to include the front 3106a of the device 600. The FOV box 3182a for the live preview 630 uses the device 600 to display a portion of the live preview 630 displayed within the camera display area 604 (eg, the ultra-wide angle camera 3180a of FIG. 31A) of the camera. Represents the FOV part. The FOV box 3182a is not displayed to scale. In FIG. 31A, the FOV box 3182a is sufficient for the FOV of the ultra-wide angle camera 3180a to provide the entire live preview 630 content, including the camera display area 604, the indicator area 602, and the control area 606 (eg, sufficient). Wide). In contrast, in FIG. 31C, discussed in more detail below, the wide-angle camera 3180b is used to provide the content of the camera display area 604, while the FOV of the wide-angle camera 3180b is indicated by the FOV box 3182b. As such, it is not sufficient to provide the content of the entire indicator area 602 and control area 606.

上述のように、デバイス600は、図31Aにおいて0.5×ズームレベルでライブプレビュー630を表示している。0.5×ズームレベルが第1のズーム値範囲内(例えば、1×ズームレベル未満)であるため、デバイス600は、領域602、604、及び606内のライブプレビュー630の部分を表示するように、超広角カメラ3180aのみを使用する。図31Aに示すように、FOVボックス3182aは、超広角カメラ3180aのFOVである。更には、FOVボックス3182aは、ライブプレビュー630を包含し、これは、超広角カメラ3180aのFOVが、ライブプレビュー630全体(例えば、領域602、604、及び606内のライブプレビュー630の部分を含む)を表示するように、超広角カメラ3180aを使用するのに、デバイス600に対して十分に大きい(例えば、十分に広い)ことを示す。ここで、広角カメラ3180aのFOVがライブプレビュー630全体(及び/又は第1のズーム値範囲である0.5×ズームレベル)を提供するのに十分に大きいため、デバイス600は、領域602、604、及び606内のライブプレビュー630の部分を提供するように、超広角カメラ3180aのみを使用する。図31Aでは、デバイス600は、カメラディスプレイ領域604に対応する場所でのデピンチジェスチャ3150aを検出する。 As described above, the device 600 is displaying the live preview 630 at 0.5 × zoom level in FIG. 31A. Since the 0.5 × zoom level is within the first zoom value range (eg, less than 1 × zoom level), the device 600 will now display the portion of the live preview 630 within the areas 602, 604, and 606. , Only the ultra-wide-angle camera 3180a is used. As shown in FIG. 31A, the FOV box 3182a is the FOV of the ultra-wide-angle camera 3180a. Further, the FOV box 3182a includes a live preview 630, which means that the FOV of the ultra-wide angle camera 3180a includes the entire live preview 630 (eg, including the portion of the live preview 630 within the areas 602, 604, and 606). Indicates that the ultra-wide-angle camera 3180a is large enough (eg, wide enough) for the device 600 to be used. Here, the device 600 has regions 602,604 because the FOV of the wide-angle camera 3180a is large enough to provide the entire live preview 630 (and / or 0.5 × zoom level, which is the first zoom value range). , And only the ultra-wide-angle camera 3180a is used to provide a portion of the live preview 630 within the 606. In FIG. 31A, the device 600 detects the depinch gesture 3150a at a location corresponding to the camera display area 604.

図31Bに示すように、デピンチジェスチャ3150aを検出したことに応答して、デバイス600は、ライブプレビュー630にズームインし、ライブプレビュー630のズームレベルを0.5×ズームレベルから0.9×ズームレベルまで変更する(例えば、新たに選択されかつ表示された0.9×ズームアフォーダンス2622dによって示すように)。0.9×ズームレベルが第1のズーム値範囲内(例えば、0.99ズームレベル未満)であるため、デバイス600は、領域602、604、及び606内のライブプレビュー630の部分を表示するように、超広角カメラ3180aのみを使用し続ける。ライブプレビュー630内でズームするとき、デバイス600は、ライブプレビュー630を表示するのに、図31Aで使用されるよりも少ない超広角カメラ3180aのFOVのパーセンテージを使用し、これは、ライブプレビュー630に対してサイズが増加するFOVボックス3182aによって表される(例えば、ライブプレビュー630は、FOVボックス3182のより大きな部分を占有する)。より少ない超広角カメラ3180aのFOVのパーセンテージを使用することによって、デバイス600は、図31Aに適用されたデジタルズームよりも高い超広角カメラ3180aのFOVに、デジタルズームを適用している。したがって、いくつかの実施形態では、図31Bのライブプレビュー630は、図31Aのライブプレビュー630よりも画像歪みが大きい。ライブプレビュー630内でのズームに加えて、デバイス600はまた、デピンチジェスチャ3150aを検出したことに応答して、0.5×ズームアフォーダンス2622aの表示を、0.9×ズームアフォーダンス2622dの表示に置き換える。ここで、デバイス600は、.9×ズームレベルがズームアフォーダンスを置き換えるための閾値ズームレベル(例えば、1×)を下回るため、0.5×ズームアフォーダンス2622aを、0.9×ズームアフォーダンス2622dに置き換える。図31Bに示すように、デピンチジェスチャ3150aを検出したことに応答して、デバイス600は、更に、選択されているものとして0.5×ズームアフォーダンス2622aの表示を停止し、かつ選択されているものとして0.9×ズームアフォーダンス2622dを表示して、ライブプレビュー630が0.9×ズームレベルで表示されることを示す。図31Bでは、デバイス600は、カメラディスプレイ領域604に対応する場所でのデピンチジェスチャ3150bを検出する。 As shown in FIG. 31B, in response to detecting the depinch gesture 3150a, the device 600 zooms in on the live preview 630 and zooms the live preview 630 from 0.5 × zoom level to 0.9 × zoom. Change to level (eg, as indicated by the newly selected and displayed 0.9x Zoom Affordance 2622d). Since 0.9 × zoom level is within the first zoom value range (eg, less than 0.99 zoom level), the device 600 will display the portion of live preview 630 within areas 602, 604, and 606. In addition, I will continue to use only the ultra-wide-angle camera 3180a. When zooming within the live preview 630, the device 600 uses a smaller percentage of the FOV of the ultra-wide-angle camera 3180a to display the live preview 630 than that used in FIG. 31A, which is to the live preview 630. In contrast, it is represented by an increasing size FOV box 3182a (eg, live preview 630 occupies a larger portion of the FOV box 3182). By using a smaller percentage of the FOV of the ultra-wide-angle camera 3180a, the device 600 applies the digital zoom to the FOV of the ultra-wide-angle camera 3180a, which is higher than the digital zoom applied in FIG. 31A. Therefore, in some embodiments, the live preview 630 of FIG. 31B has greater image distortion than the live preview 630 of FIG. 31A. In addition to zooming within the live preview 630, the device 600 also changes the display of 0.5x zoom affordance 2622a to the display of 0.9x zoom affordance 2622d in response to detecting the depinch gesture 3150a. replace. Here, the device 600 is ... Since the 9 × zoom level is below the threshold zoom level (eg, 1 ×) for replacing the zoom affordance, 0.5 × zoom affordance 2622a is replaced with 0.9 × zoom affordance 2622d. As shown in FIG. 31B, in response to detecting the depinch gesture 3150a, the device 600 further stops displaying 0.5 × zoom affordance 2622a as selected and is selected. As a result, 0.9 × zoom affordance 2622d is displayed to indicate that the live preview 630 is displayed at 0.9 × zoom level. In FIG. 31B, the device 600 detects the depinch gesture 3150b at a location corresponding to the camera display area 604.

図31Cに示すように、デピンチジェスチャ3150bを検出したことに応答して、デバイス600は、ライブプレビュー630にズームインし、ライブプレビュー630のズームレベルを0.9×ズームレベルから1×ズームレベルまで変更する(例えば、新たに選択されかつ再表示された1×ズームアフォーダンス2622bによって示すように)。1×ズームレベルが第2のズーム値範囲内(例えば、1×ズームレベルと1.89ズームレベルとの間)であるため、デバイス600は、他の領域(例えば、領域602及び606)内にライブプレビュー630の部分を表示するように、超広角カメラ3180aのFOVの使用を維持している間に、カメラディスプレイ領域604内に表示されたライブプレビュー630の部分を表示するように、カメラ広角カメラ3180bのFOVを使用するように切り替える。いくつかの実施形態では、デバイス600は、カメラディスプレイ領域604内のライブプレビュー630の部分の画像歪みを低減するように、広角カメラ3180bを使用するように切り替える。換言すれば、デバイス600が超広角カメラ3180aを使用してライブプレビュー630全体を表示することができるものの、デバイス600は、デバイス600がまた、より狭いFOVのカメラを使用して歪みがより少なく及び/又は忠実度が増加したライブプレビュー630のカメラディスプレイ領域604を表示する(例えば、より高い光学ズームレベルを有するため、より狭いFOVを有するカメラは、歪みがより少なく及び/又は忠実度が増加した画像を生成することができる)ように、より狭い視野を有するカメラ(例えば、広角カメラ3180b)を使用するように切り替える。図31Cにおいて、デバイス600がライブプレビュー630の部分を表示するように、広角カメラ3180bを使用するように切り替えたため、FOVボックス3182bは、広角カメラ3180bのFOVを表すように示される。 As shown in FIG. 31C, in response to detecting the depinch gesture 3150b, the device 600 zooms in on the live preview 630 and zooms the live preview 630 from 0.9 × zoom level to 1 × zoom level. Change (eg, as shown by the newly selected and redisplayed 1x Zoom Affordance 2622b). Since the 1x zoom level is within the second zoom value range (eg, between the 1x zoom level and the 1.89 zoom level), the device 600 is within other regions (eg, regions 602 and 606). The camera wide-angle camera to display the part of the live preview 630 displayed in the camera display area 604 while maintaining the use of the FOV of the ultra-wide-angle camera 3180a to display the part of the live preview 630. Switch to use the 3180b FOV. In some embodiments, the device 600 switches to using the wide-angle camera 3180b to reduce image distortion in the portion of the live preview 630 within the camera display area 604. In other words, although the device 600 can display the entire live preview 630 using the ultra-wide-angle camera 3180a, the device 600 also uses a narrower FOV camera with less distortion. / Or display the camera display area 604 of the live preview 630 with increased fidelity (eg, a camera with a narrower FOV due to having a higher optical zoom level has less distortion and / or increased fidelity. Switch to use a camera with a narrower field of view (eg, wide-angle camera 3180b) so that images can be generated). In FIG. 31C, the FOV box 3182b is shown to represent the FOV of the wide-angle camera 3180b because the device 600 has switched to use the wide-angle camera 3180b to display the portion of the live preview 630.

図31Cに示すように、デバイス600が2つのカメラ(例えば、デバイス600上のそれらの異なる位置による視差を導入する)を使用して、ライブプレビュー630の全体を表示するので、デバイス600は、視覚境界部608で視覚的引裂きを表示する。図31Bに戻ると、デバイス600は、デバイス600が1つだけのカメラを使用して、ライブプレビュー630の全体を表示したので、視覚境界部608で実質的に視覚的引裂きが表示されなかった。図31Cに示すように、デバイス600は、0.5×ズームアフォーダンス2622aを再表示し、かつ0.9×ズームアフォーダンス2622dの表示を停止する。デバイス600はまた、1×ズームアフォーダンス2622bを表示し、ここで、1×ズームアフォーダンス2622bが、選択されているものとして表示されて、ライブプレビュー630が1×ズームレベルで表示されることを示す。図31Cでは、デバイス600は、カメラディスプレイ領域604に対応する場所でのデピンチジェスチャ3150cを検出する。 As shown in FIG. 31C, the device 600 uses two cameras (eg, introduces parallax at their different positions on the device 600) to display the entire live preview 630 so that the device 600 is visual. A visual tear is displayed at the boundary 608. Returning to FIG. 31B, the device 600 displayed the entire live preview 630 using a camera with only one device 600, so that virtually no visual tears were displayed at the visual boundary 608. As shown in FIG. 31C, the device 600 redisplays 0.5 × zoom affordance 2622a and stops displaying 0.9 × zoom affordance 2622d. The device 600 also displays a 1x zoom affordance 2622b, where the 1x zoom affordance 2622b is displayed as selected and the live preview 630 is displayed at a 1x zoom level. In FIG. 31C, the device 600 detects the depinch gesture 3150c at a location corresponding to the camera display area 604.

図31Dに示すように、デピンチジェスチャ3150cを検出したことに応答して、デバイス600は、ライブプレビュー630にズームインし、ライブプレビュー630のズームレベルを1×ズームレベルから1.2×ズームレベルまで変更する(例えば、新たに表示されかつ選択された1.2×ズームアフォーダンス2622eによって示すように)。1.2×ズームレベルが第2のズーム値範囲内(例えば、1×ズームレベルと1.89ズームレベルとの間)であるため、デバイス600は、他の領域(例えば、領域602及び606)内に表示されたライブプレビュー630の部分を表示するように、カメラディスプレイ領域604及び超広角カメラ3180aのFOV内に表示されたライブプレビュー630の部分を表示するように、カメラ広角カメラ3180bのFOVを使用し続ける。図31Dにおいて、FOVボックス3182bは、成長していたが、ライブプレビュー630全体を包含しておらず(例えば、図31Aのボックス3182aとは異なり)、これは、広角カメラ3180bのFOVが、ライブプレビュー630全体(例えば、領域602、604、及び606内のライブプレビュー630の部分を含む)を表示するように、広角カメラ3180bを使用するのに、デバイス600に対して十分に大きくない(例えば、十分に広くない)ことを示す。したがって、デバイス600は、2つのカメラを使用し続けて、ライブプレビュー630の全体を表示する。図31Dに示すように、デバイス600はまた、1×ズームアフォーダンス2622bの表示を、1.2×ズームアフォーダンス2622eの表示に置き換え、ここで、1.2×ズームアフォーダンス2622eが、選択されているものとして表示されて、ライブプレビュー630が1.2×ズームレベルで表示されることを示す。ここで、デバイス600は、1.2×ズームレベルがズームアフォーダンスを置き換えるためのズームレベルの範囲の間(例えば、1×と2×との間などの所定の範囲)にあるため、1×ズームアフォーダンス2622bを置き換える。図31Dでは、デバイス600は、カメラディスプレイ領域604に対応する場所でのデピンチジェスチャ3150dを検出する。 As shown in FIG. 31D, in response to detecting the depinch gesture 3150c, the device 600 zooms in on the live preview 630 and zooms the live preview 630 from 1x zoom level to 1.2x zoom level. Change (eg, as indicated by the newly displayed and selected 1.2x Zoom Affordance 2622e). Since the 1.2 × zoom level is within the second zoom value range (eg, between the 1 × zoom level and the 1.89 zoom level), the device 600 may be in another area (eg, areas 602 and 606). The FOV of the camera wide-angle camera 3180b is displayed so as to display the part of the live preview 630 displayed in the FOV of the camera display area 604 and the ultra-wide-angle camera 3180a so as to display the part of the live preview 630 displayed inside. Continue to use. In FIG. 31D, the FOV box 3182b was growing but did not include the entire live preview 630 (unlike the box 3182a in FIG. 31A), which is the live preview of the FOV of the wide-angle camera 3180b. Not large enough for device 600 to use wide-angle camera 3180b to display the entire 630 (eg, including the portion of live preview 630 in areas 602, 604, and 606). Not wide). Therefore, the device 600 continues to use the two cameras to display the entire live preview 630. As shown in FIG. 31D, the device 600 also replaces the display of the 1 × zoom affordance 2622b with the display of the 1.2 × zoom affordance 2622e, where the 1.2 × zoom affordance 2622e is selected. Indicates that the live preview 630 is displayed at 1.2 × zoom level. Here, device 600 has a 1x zoom because the 1.2x zoom level is between the zoom level ranges for replacing the zoom affordance (eg, between 1x and 2x). Replace affordance 2622b. In FIG. 31D, the device 600 detects the depinch gesture 3150d at a location corresponding to the camera display area 604.

図31Eに示すように、デピンチジェスチャ3150eを検出したことに応答して、デバイス600は、ライブプレビュー630にズームインし、ライブプレビュー630のズームレベルを1.2×ズームレベルから1.9×ズームレベルまで変更する(例えば、新たに表示されかつ選択された1.9×ズームアフォーダンス2622fによって示すように)。1.9×ズームレベルが第3のズーム値範囲内(例えば、1.9×ズームレベルと2×ズームレベルとの間)であるため、デバイス600は、ライブプレビュー630全体(例えば、領域602、604、及び606内のライブプレビュー630)を表示するように、広角カメラ3180bのFOVのみを使用するように切り替える。図31Dに示すように、FOVボックス3182bは、ライブプレビュー630全体を包含するように成長し、これは、広角カメラ3180bのFOVが、ライブプレビュー630全体(例えば、領域602、604、及び606内のライブプレビュー630の部分を含む)を表示するように、広角カメラ3180bを使用するのに、デバイス600に対して十分に大きい(例えば、十分に広い)ことを現在示す。したがって、デバイス600は、1つだけのカメラを使用して、ライブプレビュー630の全体を表示する。図31Eに示すように、デバイス600はまた、1.2×ズームアフォーダンス2262dの表示を、選択されているものとして1.9×ズームアフォーダンス2622eの表示に置き換える(例えば、ズームアフォーダンスを置き換えるために、1.9×ズームレベルがズームレベルの範囲内(例えば、1×〜2×などの所定の範囲内)であるため))。更には、図31Eに示すように、デバイス600は、デバイス600がライブプレビュー630を表示するのに広角カメラ3180bのみを使用しているため、視覚的引裂きが表示されない。図31Eでは、デバイス600は、カメラディスプレイ領域604に対応する場所でのデピンチジェスチャ3150eを検出する。 As shown in FIG. 31E, in response to detecting the depinch gesture 3150e, the device 600 zooms in on the live preview 630 and zooms the live preview 630 from 1.2 × zoom level to 1.9 × zoom. Change to level (eg, as indicated by the newly displayed and selected 1.9 x Zoom Affordance 2622f). Since the 1.9 x zoom level is within the third zoom value range (eg, between the 1.9 x zoom level and the 2 x zoom level), the device 600 is the entire live preview 630 (eg, the area 602, Switch to use only the FOV of the wide-angle camera 3180b to display the live preview 630) in 604 and 606. As shown in FIG. 31D, the FOV box 3182b has grown to include the entire live preview 630, which is such that the FOV of the wide-angle camera 3180b is within the entire live preview 630 (eg, areas 602, 604, and 606). It is currently shown to be large enough (eg, wide enough) for the device 600 to use the wide-angle camera 3180b to display the live preview 630 portion). Therefore, the device 600 uses only one camera to display the entire live preview 630. As shown in FIG. 31E, the device 600 also replaces the 1.2 × zoom affordance 2262d display with a 1.9 × zoom affordance 2622e display as selected (eg, to replace the zoom affordance). 1.9 × Because the zoom level is within the range of the zoom level (for example, within a predetermined range such as 1 × to 2 ×)). Further, as shown in FIG. 31E, the device 600 does not display a visual tear because the device 600 uses only the wide-angle camera 3180b to display the live preview 630. In FIG. 31E, the device 600 detects the depinch gesture 3150e at a location corresponding to the camera display area 604.

図31Fに示すように、デピンチジェスチャ3150eを検出したことに応答して、デバイス600は、ライブプレビュー630にズームインし、ライブプレビュー630のズームレベルを1.9×ズームレベルから2×ズームレベルまで変更する(例えば、選択された2×ズームアフォーダンス2622cによって示すように)。2×ズームレベルが第4のズーム値範囲内(例えば、2×ズームレベルと2.9×ズームレベルとの間)であるため、デバイス600は、他の領域(例えば、領域602及び606)内にライブプレビュー630の部分を表示するように、広角カメラ3180bのFOVの使用を維持している間に、カメラディスプレイ領域604内に表示されたライブプレビュー630の部分を表示するように、望遠写真カメラ3180cのFOVを使用するように切り替える。いくつかの実施形態では、図31Cのカメラの切り替え(例えば、超広角カメラ3180aから広角カメラ3180b)について論じたのと同様の理由で、広角カメラ3180bを使用する代わりに、デバイス600は、カメラディスプレイ領域604を表示するように、望遠写真カメラ3180cのFOVを使用する。更には、図31Cと同様に、デバイス600は、デバイス600が2つのカメラを使用して、ライブプレビュー630の全体を表示するため、視覚境界部608に視覚的引裂きを表示する。図31Fに示すように、デバイス600がライブプレビュー630の部分を表示するように、望遠写真カメラ3180cを使用するように切り替えたため、FOVボックス3182cは、望遠写真カメラ3180cのFOVを表すように示される。図31Fに示すように、デバイス600はまた、1.9×ズームアフォーダンス2622fの表示を、1×ズームアフォーダンス2622bの表示に置き換え、かつ選択されているものとして2×ズームアフォーダンス2622cを表示する。図31Fでは、デバイス600は、カメラディスプレイ領域604に対応する場所でのデピンチジェスチャ3150fを検出する。 As shown in FIG. 31F, in response to detecting the depinch gesture 3150e, the device 600 zooms in on the live preview 630 and changes the zoom level of the live preview 630 from 1.9 × zoom level to 2 × zoom level. Change (eg, as indicated by the selected 2x Zoom Affordance 2622c). Since the 2x zoom level is within the fourth zoom value range (eg, between the 2x zoom level and the 2.9x zoom level), the device 600 is within other regions (eg, regions 602 and 606). To display the part of the live preview 630 displayed in the camera display area 604 while maintaining the use of the FOV of the wide-angle camera 3180b to display the part of the live preview 630. Switch to use 3180c FOV. In some embodiments, instead of using the wide-angle camera 3180b, the device 600 is a camera display for the same reasons as discussed for switching cameras in FIG. 31C (eg, ultra-wide-angle camera 3180a to wide-angle camera 3180b). The FOV of the telephoto camera 3180c is used to display the area 604. Further, as in FIG. 31C, the device 600 displays a visual tear at the visual boundary 608 as the device 600 uses two cameras to display the entire live preview 630. As shown in FIG. 31F, the FOV box 3182c is shown to represent the FOV of the telephoto camera 3180c because the device 600 has switched to use the telephoto camera 3180c to display the portion of the live preview 630. .. As shown in FIG. 31F, the device 600 also replaces the display of the 1.9 × zoom affordance 2622f with the display of the 1 × zoom affordance 2622b and displays the 2 × zoom affordance 2622c as selected. In FIG. 31F, the device 600 detects the depinch gesture 3150f at a location corresponding to the camera display area 604.

図31Gに示すように、デピンチジェスチャ3150fを検出したことに応答して、デバイス600は、ライブプレビュー630にズームインし、ライブプレビュー630のズームレベルを2×ズームレベルから2.2×ズームレベルまで変更する(例えば、選択された2.2×ズームアフォーダンス2622gによって示すように)。2.2×ズームレベルが第4のズーム値範囲内(例えば、2×ズームレベルと2.9×ズームレベルとの間)であるため、デバイス600は、他の領域(例えば、領域602及び606)内に表示されたライブプレビュー630の部分を表示するように、カメラディスプレイ領域604及び広角カメラ3180bのFOV内に表示されたライブプレビュー630の部分を表示するように、望遠写真カメラ3180cのFOVを使用し続ける。図31Gにおいて、FOVボックス3182cは、成長していたが、ライブプレビュー630全体を包含しておらず(例えば、図31Aのボックス3182aとは異なり)、これは、望遠写真カメラ3180cのFOVが、ライブプレビュー630全体(例えば、領域602、604、及び606内のライブプレビュー630の部分を含む)を表示するように、望遠写真カメラ3180cを使用するのに、デバイス600に対して十分に大きくない(例えば、十分に広くない)ことを示す。したがって、デバイス600は、2つのカメラを使用し続けて、ライブプレビュー630の全体を表示する。図31Gに示すように、デバイス600はまた、2×ズームアフォーダンス2622cの表示を、2.2×ズームアフォーダンス2622gの表示に置き換え、ここで、2.2×ズームアフォーダンス2622gが、選択されているものとして表示されて、ライブプレビュー630が2.2×ズームレベルで表示されることを示す。ここで、デバイス600は、2.2×ズームレベルがズームアフォーダンスを置き換えるためのズームレベルを上回る(例えば、2×を上回る)であるため、2×ズームアフォーダンス2622cを置き換える。図31Gでは、デバイス600は、カメラディスプレイ領域604に対応する場所でのデピンチジェスチャ3150gを検出する。 As shown in FIG. 31G, in response to detecting the depinch gesture 3150f, the device 600 zooms in on the live preview 630 and changes the zoom level of the live preview 630 from 2 × zoom level to 2.2 × zoom level. Change (eg, as shown by selected 2.2 x Zoom Affordance 2622g). Since the 2.2 × zoom level is within the fourth zoom value range (eg, between the 2 × zoom level and the 2.9 × zoom level), the device 600 may include other regions (eg, regions 602 and 606). ), The FOV of the telephoto camera 3180c is displayed so as to display the part of the live preview 630 displayed in the FOV of the camera display area 604 and the wide-angle camera 3180b. Continue to use. In FIG. 31G, the FOV box 3182c was growing but did not include the entire live preview 630 (unlike the box 3182a in FIG. 31A), which is the FOV of the telephoto camera 3180c live. Not large enough for device 600 to use the telephoto camera 3180c to display the entire preview 630 (eg, including the portion of the live preview 630 within areas 602, 604, and 606). , Not wide enough). Therefore, the device 600 continues to use the two cameras to display the entire live preview 630. As shown in FIG. 31G, the device 600 also replaces the 2 × zoom affordance 2622c display with a 2.2 × zoom affordance 2622g display, where 2.2 × zoom affordance 2622g is selected. Indicates that the live preview 630 is displayed at 2.2 × zoom level. Here, the device 600 replaces the 2x zoom affordance 2622c because the 2.2x zoom level is greater than (eg, greater than 2x) the zoom level for replacing the zoom affordance. In FIG. 31G, the device 600 detects a depinch gesture 3150 g at a location corresponding to the camera display area 604.

図31Hに示すように、デピンチジェスチャ3150gを検出したことに応答して、デバイス600は、ライブプレビュー630にズームインし、ライブプレビュー630のズームレベルを2.2×ズームレベルから2.9×ズームレベルまで変更する(例えば、新たに表示されかつ選択された2.9×ズームアフォーダンス2622hによって示すように)。2.9×ズームレベルが第5のズーム値範囲内(例えば、2.9×ズームレベル以上)であるため、デバイス600は、ライブプレビュー630全体(例えば、領域602、604、及び606内のライブプレビュー630)を表示するように、望遠写真カメラ3180cのFOVのみを使用して使用するように切り替える。図31Hに示すように、FOVボックス3182cは、ライブプレビュー630全体を包含するように成長し、これは、望遠写真カメラ3180cのFOVが、ライブプレビュー630全体(例えば、領域602、604、及び606内のライブプレビュー630の部分を含む)を表示するように、望遠写真カメラ3180cを使用するのに、デバイス600に対して十分に大きい(例えば、十分に広い)ことを現在示す。したがって、デバイス600は、1つだけのカメラを使用して、ライブプレビュー630の全体を表示する。図31Hに示すように、デバイス600はまた、2.2×ズームアフォーダンス2262gの表示を、選択されているものとして2.9×ズームアフォーダンス2622hの表示に置き換える。更には、図31Eに示すように、デバイス600は、デバイス600がライブプレビュー630を表示するのに望遠写真カメラ3180cのみを使用しているため、視覚的引裂きが表示されない。図31Hでは、デバイス600は、カメラディスプレイ領域604に対応する場所でのデピンチジェスチャ3150hを検出する。 As shown in FIG. 31H, in response to detecting the depinch gesture 3150 g, the device 600 zooms in on the live preview 630 and zooms the live preview 630 from 2.2 × zoom level to 2.9 × zoom. Change to level (eg, as indicated by the newly displayed and selected 2.9 x Zoom Affordance 2622h). Since the 2.9 × zoom level is within the fifth zoom value range (eg, 2.9 × zoom level or higher), the device 600 will perform live within the entire live preview 630 (eg, areas 602, 604, and 606). Switch to use only the FOV of the telephoto camera 3180c to display the preview 630). As shown in FIG. 31H, the FOV box 3182c has grown to include the entire live preview 630, which is the FOV of the telephoto camera 3180c within the entire live preview 630 (eg, in areas 602, 604, and 606). It is currently shown to be large enough (eg, wide enough) for the device 600 to use the telephoto camera 3180c to display the live preview 630 portion of. Therefore, the device 600 uses only one camera to display the entire live preview 630. As shown in FIG. 31H, the device 600 also replaces the 2.2 × zoom affordance 2262g display with a 2.9 × zoom affordance 2622h display as selected. Further, as shown in FIG. 31E, the device 600 does not display the visual tear because the device 600 uses only the telephoto camera 3180c to display the live preview 630. In FIG. 31H, the device 600 detects the depinch gesture 3150h at a location corresponding to the camera display area 604.

図31Iに示すように、デピンチジェスチャ3150hを検出したことに応答して、デバイス600は、ライブプレビュー630にズームインし、ライブプレビュー630のズームレベルを2.9×ズームレベルから3×ズームレベルまで変更する(例えば、新たに表示されかつ選択された3×ズームアフォーダンス2622iによって示すように)。3×ズームレベルが第5のズーム値範囲内(例えば、2.9×ズームレベル以上)であるため、デバイス600は、ライブプレビュー630全体(例えば、領域602、604、及び606内のライブプレビュー630)を表示するように、望遠写真カメラ3180cのFOVのみを使用し続ける。いくつかの実施形態では、デバイス600は、図31Iで(又はより高いズームレベル(例えば、10×ズームレベル)で)ライブプレビュー630を表示するように、デジタルズームを使用する。更には、図31Iに示すように、デバイス600は、デバイス600がライブプレビュー630を表示するのに望遠写真カメラ3180cのみを使用しているため、視覚的引裂きが表示されない。 As shown in FIG. 31I, in response to detecting the depinch gesture 3150h, the device 600 zooms in on the live preview 630 and changes the zoom level of the live preview 630 from 2.9 × zoom level to 3 × zoom level. Change (eg, as indicated by the newly displayed and selected 3x Zoom Affordance 2622i). Since the 3 × zoom level is within the fifth zoom value range (eg, 2.9 × zoom level or higher), the device 600 uses the entire live preview 630 (eg, the live preview 630 within the areas 602, 604, and 606). ) Is displayed, and only the FOV of the telephoto camera 3180c is used continuously. In some embodiments, the device 600 uses digital zoom to display the live preview 630 in FIG. 31I (or at a higher zoom level (eg, 10x zoom level)). Further, as shown in FIG. 31I, the device 600 does not display the visual tear because the device 600 uses only the telephoto camera 3180c to display the live preview 630.

いくつかの実施形態では、ライブプレビュー630のズームインの代わりに、デバイス600は、図31A〜図31Iに関連して上述された説明を反転するように、1つ以上のピンチジェスチャによりライブプレビュー630上でズームアウトする。いくつかの実施形態では、図31A〜図31Iに加えて、デバイス600は、図29A〜図29Uに関連して上述されたように、1つ以上の技術を使用する。例えば、いくつかの実施形態では、デバイス600は、上述したようなものと類似のジェスチャを受信して(例えば、図29A〜図29B、図29E〜図29F、図29H〜図29I、及び図29J〜図29K)、カメラディスプレイ領域604に対応する場所に向けられたジェスチャに対応する場所(又はカメラディスプレイ領域604に対応する場所の外側)に、1つ以上のカメラの焦点を合わせる(又は焦点を合わせるのをやめる)ことができる。加えて、又はあるいは、いくつかの実施形態では、デバイス600は、上述したようなものと類似のジェスチャを受信して(例えば、図29L〜図29P)、シャッターアフォーダンス610上の入力を受信したことに応答して、ライブプレビュー630に表示されなかったコンテンツを使用する(例えば、又は表示する)ことができる。 In some embodiments, instead of zooming in on the live preview 630, the device 600 is on the live preview 630 by one or more pinch gestures so as to reverse the above description in relation to FIGS. 31A-31I. Zoom out with. In some embodiments, in addition to FIGS. 31A-31I, the device 600 uses one or more techniques as described above in connection with FIGS. 29A-29U. For example, in some embodiments, the device 600 receives a gesture similar to that described above (eg, FIGS. 29A-29B, 29E-29F, 29H-29I, and 29J). (Fig. 29K), focus (or focus) one or more cameras on the location corresponding to the gesture directed to the location corresponding to the camera display area 604 (or outside the location corresponding to the camera display area 604). You can stop matching). In addition, or in some embodiments, the device 600 has received a gesture similar to that described above (eg, FIGS. 29L-29P) and has received an input on the shutter affordance 610. Content that was not displayed in the live preview 630 can be used (or displayed) in response to.

図32A〜図32Cは、いくつかの実施形態による電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための方法を示すフロー図である。方法3200は、表示デバイス(例えば、タッチ感知ディスプレイ)を備えたデバイス(例えば、100、300、500、600)にて行われる。方法3200のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 32A-32C are flow diagrams illustrating a method for displaying a camera user interface at various zoom levels using different cameras of electronic devices according to some embodiments. Method 3200 is performed on a device (eg, 100, 300, 500, 600) equipped with a display device (eg, a touch-sensitive display). Some actions of Method 3200 are optionally combined, some actions are arbitrarily modified in order, and some actions are optionally omitted.

後述するように、方法3200は、ズームレベルの変更時にカメラユーザインタフェースを表示するための直感的な仕方を提供する。この方法は、カメラユーザインタフェースのズームレベルを変更する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にユーザインタフェースのズームレベルを変更することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As will be described later, Method 3200 provides an intuitive way to display the camera user interface when the zoom level is changed. This method reduces the user's cognitive burden in changing the zoom level of the camera user interface, thereby creating a more efficient human-machine interface. For battery-powered computing devices, it saves power and prolongs the time between battery charges by enabling users to change the zoom level of the user interface faster and more efficiently.

電子デバイスは、表示デバイス(例えば、タッチ感知ディスプレイ)、視野を有する第1のカメラ(例えば、広角カメラ)(例えば、3180b)(例えば、電子デバイスの同じ側又は異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど)))、第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)よりも広い視野を有する第2のカメラ(例えば、超広角カメラ)(例えば、3180a)(例えば、電子デバイスの同じ側又は異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど)))を有する。電子デバイスは、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示する(3202)。カメラユーザインタフェースは、第1のズームレベル(例えば、2622a)(例えば、第2のカメラよりも狭い視野を有するカメラ)で第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の第1の部分の表現(例えば、630)を含む、第1の領域(例えば、604)(例えば、カメラディスプレイ領域)と、第1のズームレベル(例えば、2622a)(例えば、第1のカメラよりも広い視野を有するカメラ)で第2のカメラの視野(例えば、超広角カメラ)(例えば、3180a)の第1の部分の表現(例えば、630)を含む、第2の領域(例えば、602及び606)(例えば、カメラコントロール領域)と、を含む。いくつかの実施形態では、第2の領域は、第1の領域から視覚的に区別される(例えば、暗色外観を有する)(例えば、1つ以上のカメラの視野の第2の部分上に半透明のオーバーレイを有する)。いくつかの実施形態では、第2の領域は、第1の領域と比較して、暗色外観を有する。いくつかの実施形態では、第2の領域は、カメラユーザインタフェース内の第1の領域の上方及び/又は下方に位置する。 The electronic device is a display device (eg, a touch-sensitive display), a first camera having a field of view (eg, a wide-angle camera) (eg, 3180b) (eg, the same or different side of the electronic device (eg, front camera, rear). A second camera that has a wider field of view than one or more cameras (eg, dual camera, triple camera, quad camera, etc.)), a field of view of the first camera (eg, wide-angle camera) (eg, 3180b). One or more cameras (eg, dual cameras, triple cameras, quad cameras) on the same or different sides of the electronic device (eg, front camera, rear camera) (eg, ultra wide angle camera) (eg, 3180a) Etc.))). The electronic device displays, through the display device, a camera user interface that includes a representation of at least a portion of the field of view of one or more cameras displayed at the first zoom level (3202). The camera user interface is a first zoom level (eg, 2622a) (eg, a camera having a narrower field of view than the second camera) and a first camera field (eg, a wide-angle camera) (eg, 3180b). A first area (eg, 604) (eg, camera display area) and a first zoom level (eg, 2622a) (eg, than the first camera), including a representation of part 1 (eg, 630). A second region (eg, 602 and 606) that includes a representation (eg, 630) of the first portion of the second camera's field of view (eg, ultra-wide angle camera) (eg, 3180a) in (a camera with a wide field of view). ) (For example, the camera control area) and. In some embodiments, the second region is visually distinguished from the first region (eg, has a dark appearance) (eg, half over the second portion of the field of view of one or more cameras). Has a transparent overlay). In some embodiments, the second region has a darker appearance as compared to the first region. In some embodiments, the second region is located above and / or below the first region within the camera user interface.

表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示している間に(例えば、第1のズームレベルから第2のズームレベルへ変更する要求)、電子デバイスは、1つ以上のカメラの視野の部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求(例えば、3150a、3150b)を受信する(3204)。 While displaying through the display device a camera user interface that includes a representation of at least a portion of the field of view of one or more cameras displayed at the first zoom level (eg, from the first zoom level to the second). (Request to change to zoom level), the electronic device receives a first request (eg, 3150a, 3150b) that raises the zoom level of the representation of the field of view portion of one or more cameras to a second zoom level (eg, 3150a, 3150b). 3204).

1つ以上のカメラの視野の部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求(例えば、第1のユーザインタフェース上でズームインする要求)を受信したことに応答して(3206)、電子デバイスは、第1の領域において、第2のズームレベル(例えば、2622d、2622b)で、第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の第1の部分の少なくとも1つのサブセット除外する第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の第2の部分の表現(例えば、630)を表示し(3208)、第2の領域において、第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第2の部分から除外された第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の部分のサブセットの表現を表示することなく、第2の領域において、第2のズームレベル(例えば、2622d、2622b)で、第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の第2の部分から除外された(例えば、ユーザインタフェース及び/又は第1のカメラの視野の第1の表現がズームインされるとき、第1のカメラの視野の第1の表現からのカットオフ部分は、第2の領域内に表示されない)第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の部分のサブセットと重なる第2のカメラの視野(超広角カメラ)(例えば、3180a)の第2の部分の表現(例えば、630)を表示する(3210)。いくつかの実施形態では、除外されるサブセットの量は、第2のズームレベルに依存する。いくつかの実施形態では、第2の表現は、第1の表現と同じである。特定の条件が規定されているときに、電子デバイスの異なるカメラを使用して表現の異なる部分を表示することにより、ユーザは、表現が特定のズーム値範囲内に表示されるとき、電子デバイスの改善された表現を閲覧することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In response to receiving a first request (eg, a request to zoom in on the first user interface) that raises the zoom level of the representation of one or more camera visual field parts to a second zoom level (3206). ), The electronic device is at least in the first portion of the field of view of the first camera (eg, wide-angle camera) (eg, 3180b) at the second zoom level (eg, 2622d, 2622b) in the first region. A representation (eg, 630) of the second portion of the field of view (eg, wide-angle camera) (eg, 3180b) of the first camera that excludes one subset is displayed (3208), and in the second region, the first Displaying a representation of a subset of a portion of the field of view (eg, wide-angle camera) (eg, 3180b) of a first camera excluded from a second portion of the field of view of a camera (eg, wide-angle camera) (eg, 3180b). Instead, in the second region, at the second zoom level (eg, 2622d, 2622b), it was excluded from the second part of the field of view of the first camera (eg, wide-angle camera) (eg, 3180b) (eg, 3180b). , User interface and / or when the first representation of the field of view of the first camera is zoomed in, the cutoff portion from the first representation of the field of view of the first camera is not displayed within the second area) Representation of a second portion (eg, 630) of a second camera's field of view (ultra-wide-angle camera) (eg, 3180a) that overlaps a subset of the portion of the first camera's field of view (eg, wide-angle camera) (eg, 3180b). ) Is displayed (3210). In some embodiments, the amount of subset excluded depends on the second zoom level. In some embodiments, the second expression is the same as the first expression. By using different cameras on the electronic device to display different parts of the representation when certain conditions are specified, the user can see the representation of the electronic device when the representation is displayed within a certain zoom value range. You can browse the improved expressions. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.

いくつかの実施形態では、第2のカメラの視野(例えば、超広角カメラ)(例えば、3180a)の第1の部分(例えば、604)は、第2のカメラの視野(例えば、超広角カメラ)(例えば、3180a)の第2の部分(例えば、602及び606)とは異なる(例えば、第1の部分及び第2の部分は、第2のカメラの利用可能な視野の異なる部分である)。第1の領域とは視覚的に異なる第2の領域を表示することにより、メディアを表示するためにキャプチャ及び使用されるメインコンテンツ及びメディアを表示するためにキャプチャされ得る追加のコンテンツであるコンテンツについてのフィードをユーザに提供し、ユーザが、メディアをキャプチャするときに、異なる領域内/外に物を維持するために、メディアをフレーム化できるようにする。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the first portion (eg, 604) of the field of view of the second camera (eg, ultra-wide angle camera) (eg, 3180a) is the field of view of the second camera (eg, ultra-wide angle camera). It is different from the second part (eg, 602 and 606) of (eg, 3180a) (eg, the first part and the second part are different parts of the available field of view of the second camera). For content that is the main content captured and used to display the media and additional content that can be captured to display the media by displaying a second area that is visually different from the first area. Provide the feed to the user so that the user can frame the media to keep things in and out of different areas when capturing the media. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

いくつかの実施形態では、第1の領域(例えば、604)において、第2のズームレベルで、第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の第2の部分の表現(例えば、図31Dの630)を表示し、かつ第2の領域(例えば、602及び606)において、第2のズームレベルで、第2のカメラの視野(例えば、超広角カメラ)(例えば、3180a)の第2の部分の表現(例えば、図31Dの630)を表示している間に、電子デバイスは、1つ以上のカメラの視野の部分の表現のズームレベルを第3のズームレベル(例えば、2622f)まで上げる第2の要求(例えば、3150d)(例えば、カメラユーザインタフェース上でズームインする要求)を受信する(3212)。いくつかの実施形態では、1つ以上のカメラの視野の部分の表現のズームレベルを第3のズームレベルまで上げる第2の要求(例えば、カメラユーザインタフェース上でズームインする要求)を受信したことに応答して、及び第3のズームレベルが第1のズーム値範囲(例えば、第1のカメラの視野が第1の領域及び第2の領域の両方に存在するのに十分なズーム値範囲)内にあるという判定に従って(3214)、電子デバイスは、第1の領域(例えば、604)において、第3のズームレベルで、第1のカメラ(例えば、広角カメラ)(例えば、3180b)(例えば、図31Eの3180b)の視野の第3の部分の表現(例えば、図31Eの630)を表示し(3216)、かつ第2の領域(例えば、602及び606)において、第3のズームレベルで、第1のカメラ(例えば、広角カメラ)(例えば、3180b)(例えば、広角カメラ)(例えば、3180b)(例えば、図31Eの3180b)の視野の第4の部分の表現(例えば、図31Eの630)を表示する(3218)。いくつかの実施形態では、あるカメラの視野(例えば、第2のカメラよりも狭い視野を有するカメラ)が、特定のズームレベルで第1及び第2の領域の両方を満たすことができる場合、電子デバイスは、単一のカメラのみを使用して、両方の領域で表現を表示するように切り替える。いくつかの実施形態では、あるカメラが第1及び第2の領域の両方を特定のズームレベルで満たすことができない場合、デバイスは、第1の領域内に表現を表示するあるカメラ及び第2の領域内に表現を表示する別のカメラを使用し続け;例えば、1つ以上のカメラの視野の部分の表現のズームレベルを第3のズームレベルまで上げる第1の要求(例えば、第1のユーザインタフェース上でズームインする要求)を受信したことに応答して、及び第3のズームレベルが第1のズーム値範囲を下回るという判定に従って、電子デバイスは、第1の領域において、第3のズームレベルで、第1のカメラの視野の第1の部分の少なくとも1つのサブセット除外する(いくつかの実施形態では、除外されるサブセットの量は、第3のズームレベルに依存する)第1のカメラの視野の第2の部分の表現を表示し、かつ第2の領域において、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットの表現を表示することなく、第2の領域において、第2のズームレベルで、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットと重なる第2のカメラの視野の第2の部分の表現を表示する。いくつかの実施形態では、第3のズームレベルが第1のズーム値範囲内にないという判定に従って、電子デバイスは、第1の領域内に表現を表示するあるタイプのカメラ(例えば、超広角、広角、望遠写真カメラ)及び第2の領域内に表現を表示するあるタイプのカメラを使用する。いくつかの実施形態では、第3のズームレベルが第1のズーム値範囲内にないという判定に従って、電子デバイスは、第1の領域において、第3のズームレベルで、第1のカメラの視野の第3の部分の第1のサブセットの表現を表示することと、第2の領域において、第3のズームレベルで、第1のカメラの視野の第1のカメラの視野第4の部分の第3の部分の第2のサブセットの表現を表示することと、をやめる。特定の条件が規定されているときに、あるカメラが表現を表示するように切り替えられることにより、ユーザは、表現が特定のズーム値範囲内に表示されるとき、改善された忠実度及び視覚的引裂きを有する、電子デバイスの改善された表現を閲覧することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in a first region (eg, 604), at a second zoom level, a representation of a second portion of the field of view of the first camera (eg, a wide-angle camera) (eg, 3180b) (eg, 3180b). For example, 630) in FIG. 31D is displayed, and in the second region (eg, 602 and 606), at the second zoom level, the field of view of the second camera (eg, ultra-wide angle camera) (eg, 3180a). While displaying the representation of the second portion of (eg, 630 in FIG. 31D), the electronic device sets the zoom level of the representation of the field of view portion of one or more cameras to the third zoom level (eg, 630). Receives a second request (eg, 3150d) (eg, a request to zoom in on the camera user interface) up to 2622f) (3212). In some embodiments, a second request (eg, a request to zoom in on the camera user interface) is received that raises the zoom level of the representation of one or more camera parts of the field of view to a third zoom level. In response, and the third zoom level is within the first zoom range (eg, a zoom range sufficient for the field of view of the first camera to be in both the first and second regions). According to the determination (3214), the electronic device is in a first region (eg, 604), at a third zoom level, a first camera (eg, a wide-angle camera) (eg, 3180b) (eg, FIG. A representation of a third portion of the field of view of 31E 3180b) (eg, 630 in FIG. 31E) is displayed (3216), and in a second region (eg 602 and 606), at a third zoom level, a third. Representation of the fourth portion of the field of view of one camera (eg, wide-angle camera) (eg, 3180b) (eg, wide-angle camera) (eg, 3180b) (eg, 3180b in FIG. 31E) (eg, 630 in FIG. 31E). Is displayed (3218). In some embodiments, if the field of view of a camera (eg, a camera with a narrower field of view than the second camera) can fill both the first and second regions at a particular zoom level, then electronic. The device switches to display representations in both areas using only a single camera. In some embodiments, if a camera is unable to fill both the first and second areas with a particular zoom level, the device displays a representation within the first area of the camera and the second. Continue to use another camera that displays the representation within the area; for example, a first request (eg, a first user) to increase the zoom level of the representation of a portion of the field of view of one or more cameras to a third zoom level. In response to receiving a request to zoom in on the interface, and according to the determination that the third zoom level is below the first zoom value range, the electronic device is in the first region a third zoom level. Exclude at least one subset of the first portion of the field of view of the first camera (in some embodiments, the amount of subset excluded depends on the third zoom level) of the first camera. Displaying a representation of the second portion of the field of view and, in the second region, displaying a representation of a subset of the field of view of the first camera excluded from the second part of the field of view of the first camera. Instead, in the second region, at the second zoom level, the second of the second camera's field of view overlaps with a subset of the first camera's field of view excluded from the second part of the first camera's field of view. Display the representation of part 2. In some embodiments, according to the determination that the third zoom level is not within the first zoom value range, the electronic device is a type of camera that displays the representation within the first area (eg, ultra-wide angle, etc.). Wide-angle, telephoto camera) and some type of camera that displays the representation within the second area. In some embodiments, according to the determination that the third zoom level is not within the first zoom value range, the electronic device is in the first region, at the third zoom level, in the field of view of the first camera. Displaying a representation of the first subset of the third part and, in the second region, at the third zoom level, the third part of the field of view of the first camera in the field of view of the first camera. Stop displaying the representation of the second subset of the part. By switching a camera to display an expression when certain conditions are specified, the user can see improved fidelity and visuals when the expression is displayed within a certain zoom value range. An improved representation of an electronic device with tears can be viewed. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.

いくつかの実施形態では、第1の領域(例えば、604)において、第3のズームレベルで、第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の第3の部分の表現(例えば、図31Eの630)を表示し、かつ第2の領域(例えば、602及び606)において、第3のズームレベル(例えば、図31Eの2622f)で、第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の第4の部分の表現(例えば、図31Eの630)を表示している間に、電子デバイスは、1つ以上のカメラの視野の部分の表現のズームレベルを第4のズームレベル(例えば、2622c)まで上げる第3の要求(例えば、3150e)(例えば、カメラユーザインタフェース上でズームインする要求)を受信する。いくつかの実施形態では、1つ以上のカメラの視野の部分の表現のズームレベルを第4のズームレベルまで上げる第3の要求を受信したことに応答して、及び第4のズームレベルが第2のズーム値範囲(例えば、デバイスが第1のカメラ及び第3のカメラを使用するように切り替えるズーム値範囲(例えば、望遠写真カメラは、プレビュー領域を満たすことができる))内にあるという判定に従って、電子デバイスは、第1の領域において、第4のズームレベル(例えば、図31Fの2622c)で、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)(例えば、第3のカメラは、第1のカメラよりも狭い視野だが、高い光学ズームレベルを有する)の視野の第3の部分の少なくとも1つのサブセットを除外する、第3のカメラ(例えば、広角カメラよりも狭い視野を有する望遠写真カメラ)の視野の第5の部分の表現(例えば、図31Fの630)を表示し、かつ第2の領域において、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)(例えば、ユーザインタフェース及び/又は第1のカメラの視野の第1の表現がズームインされるとき、第3のカメラの視野の表現からのカットオフ部分は、第2の領域内に表示されない)の視野の第5の部分から除外された第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の部分のサブセットの表現を表示することなく、第2の領域において、第4のズームレベルで、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第5の部分から除外された第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の部分のサブセットと重なる第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の第5の部分の表現(例えば、図31Fの630)を表示する。いくつかの実施形態では、第4のズームレベルが第2のズーム値範囲内にない(ズームイン時)(又は依然として第1のズーム値範囲内にある)という判定に従って、電子デバイスは、第1及び第2の領域において、第1のカメラのみを使用し続ける(例えば、第1の領域において、第3のズームレベルで、第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第3の部分の表現を表示すること、及び第2の領域において、第3のズームレベルで、第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第4の部分の表現を表示すること)。特定の条件が規定されているときに、電子デバイスの異なるカメラを使用して表現の異なる部分を表示することにより、ユーザは、表現が特定のズーム値範囲内に表示されるとき、電子デバイスの改善された表現を閲覧することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in a first region (eg, 604), at a third zoom level, a representation of a third portion of the field of view of the first camera (eg, a wide-angle camera) (eg, 3180b) (eg, 3180b). For example, 630) in FIG. 31E, and in the second region (eg, 602 and 606), at a third zoom level (eg, 2622f in FIG. 31E), the field of view of the first camera (eg, wide angle). While displaying the representation of the fourth portion of the camera) (eg, 3180b) (eg, 630 in FIG. 31E), the electronic device sets the zoom level of the representation of the field of view portion of one or more cameras. It receives a third request (eg, 3150e) (eg, a request to zoom in on the camera user interface) to raise the zoom level of 4 (eg, 2622c). In some embodiments, in response to receiving a third request to raise the zoom level of the representation of a portion of the field of view of one or more cameras to a fourth zoom level, and the fourth zoom level is a second. Determining that the device is within a zoom value range of 2 (eg, a zoom value range in which the device switches to use a first camera and a third camera (eg, a telephoto camera can fill the preview area)). According to, in the first region, at the fourth zoom level (eg, 2622c in FIG. 31F), the electronic device has a third camera (eg, a telephoto camera) (eg, 3180c) (eg, a third camera). Has a narrower field of view than the first camera, but excludes at least one subset of the third part of the field of view of the third camera (eg, has a narrower field of view than a wide angle camera). A representation of a fifth portion of the field of view of a telephoto camera (eg, 630 in FIG. 31F) is displayed, and in a second region, a third camera (eg, a telephoto camera) (eg, 3180c) (eg, 3180c) (eg, 3180c) (eg, a telephoto camera). , User interface and / or when the first representation of the field of view of the first camera is zoomed in, the cutoff portion from the representation of the field of view of the third camera is not displayed within the second area) In the second region, at the fourth zoom level, without displaying a representation of a subset of the visual field portion of a third camera (eg, a telephoto camera) (eg, 3180c) excluded from the fifth portion. , A subset of the field of view of the third camera (eg, telephoto camera) (eg, 3180c) excluded from the fifth part of the field of view of the third camera (eg, telephoto camera) (eg, 3180c). Displays a representation (eg, 630 of FIG. 31F) of the fifth portion of the field of view of the first camera (eg, wide-angle camera) (eg, 3180b) that overlaps with. In some embodiments, the electronic device is subjected to the first and first and according to the determination that the fourth zoom level is not within the second zoom range (when zoomed in) (or is still within the first zoom range). In the second region, continue to use only the first camera (eg, in the first region, at the third zoom level, the first in the field of view of the first camera (eg, wide-angle camera) (eg, 3180b). Display the representation of the third part, and in the second area, at the third zoom level, display the representation of the fourth part of the field of view of the first camera (eg, wide-angle camera) (eg, 3180b). To do). By using different cameras on the electronic device to display different parts of the representation when certain conditions are specified, the user can see the representation of the electronic device when the representation is displayed within a certain zoom value range. You can browse the improved expressions. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.

いくつかの実施形態では、第1の領域において、第4のズームレベルで、第3のカメラ(例えば、第3のカメラは、第1のカメラよりも狭い視野を有する)の視野の第3の部分の少なくとも1つのサブセット除外する第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第4の第5の部分の表現(図31Gの630)を表示し、かつ第2の領域において、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第5の部分から除外された第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の部分のサブセットの表現を表示することなく、第2の領域において、第4のズームレベルで、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第5の部分から除外された第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の部分のサブセットと重なる第1のカメラ(例えば、望遠写真カメラ)(例えば、3180c)(例えば、広角カメラ)(例えば、3180b)の視野の第5の第4の部分の表現を表示している間に、電子デバイスは、1つ以上のカメラの視野の部分の表現のズームレベルを第5のズームレベル(例えば、2622h)まで上げる第4の要求(例えば、3150g)を受信する。いくつかの実施形態では、1つ以上のカメラの視野の部分の表現のズームレベルを第5のズームレベルまで上げる第4の要求を受信したことに応答して、及び第5のズームレベルが第3のズーム値範囲(例えば、第1のズーム値範囲及び第2のズーム値範囲の外側のズーム値範囲)(例えば、第3のカメラの視野が第1の領域及び第2の領域の両方に存在するのに十分なズーム値範囲)内にあるという判定に従って、電子デバイスは、第1の領域において、第5のズームレベルで、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第6の部分の表現(例えば、図31Hの630)を表示し、かつ第2の領域において、第5のズームレベルで、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第7の部分の表現(例えば、図31Hの630)を表示する。いくつかの実施形態では、あるカメラの視野(例えば、第2のカメラよりも狭い視野を有するカメラ)が、特定のズームレベルで第1及び第2の領域の両方を満たすことができる場合、電子デバイスは、単一のカメラのみを使用して、両方の領域で表現を表示するように切り替える。いくつかの実施形態では、あるカメラが第1及び第2の領域の両方を特定のズームレベルで満たすことができない場合、デバイスは、第1の領域内に表現を表示するあるカメラ及び第2の領域内に表現を表示する別のカメラを使用し続け;例えば、1つ以上のカメラの視野の部分の表現のズームレベルを第5のズームレベルまで上げる第4の要求を受信したことに応答して、第5のズームレベルが第3のズーム値範囲内にない(又は下回る)という判定に従って、第1の領域において、第5のズームレベルで、第3のカメラ(例えば、第3のカメラは、第1のカメラよりも狭い視野だが、より高い光学ズームレベルを有する)の視野の第3の部分の少なくとも1つのサブセット除外する、第3のカメラの視野の第5の部分の表現を表示し、第2の領域において、第3のカメラの視野の第5の部分から除外された第3のカメラの視野の部分のサブセットの表現を表示することなく、第2の領域において、第5のズームレベルで、第3のカメラの視野の第5の部分から除外された第3のカメラの視野の部分のサブセットと重なる第1のカメラの視野の第5の部分の表現を表示する。いくつかの実施形態では、第5のズームレベルが第3のズーム値範囲内にないという判定に従って、電子デバイスは、第1の領域内に表現を表示するあるカメラ及び第2の領域内に表現を表示するあるタイプのカメラを使用する。いくつかの実施形態では、第5のズームレベルが第3のズーム値範囲内にない(又は依然として第2のズーム値範囲内にある)という判定に従って、電子デバイスは、第1の領域において、第5のズームレベルで、第3のカメラの視野の第6の部分の表現を表示することと、第2の領域において、第5のズームレベルで、第3のカメラの視野の第7の部分の表現を表示することと、をやめる。特定の条件が規定されているときに、あるカメラが表現を表示するように切り替えられることにより、ユーザは、表現が特定のズーム値範囲内に表示されるとき、改善された忠実度及び視覚的引裂きを有する、電子デバイスの改善された表現を閲覧することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in the first region, at the fourth zoom level, a third of the field of view of the third camera (eg, the third camera has a narrower field of view than the first camera). A representation of the fourth fifth portion of the field of view (eg, 630 in FIG. 31G) of a third camera (eg, a telephoto camera) (eg, 3180c) that excludes at least one subset of portions is displayed and the second In the region, a portion of the field of view of a third camera (eg, telephoto camera) (eg, 3180c) excluded from the fifth portion of the field of view of the third camera (eg, telephoto camera) (eg, 3180c). In the second region, at the fourth zoom level, the third camera (eg, a telephoto camera) (eg, 3180c) was excluded from the fifth portion of the field of view without displaying a representation of a subset of. A first camera (eg, a telephoto camera) (eg, 3180c) (eg, a wide-angle camera) (eg, 3180b) that overlaps a subset of the field of view of a third camera (eg, a telephoto camera) (eg, 3180c). ), While displaying the representation of the fifth and fourth portion of the field of view, the electronic device sets the zoom level of the representation of the field of view of one or more cameras to the fifth zoom level (eg, 2622h). Receive a fourth request (eg, 3150g) to raise to. In some embodiments, in response to receiving a fourth request to raise the zoom level of the representation of a portion of the field of view of one or more cameras to a fifth zoom level, and a fifth zoom level is a fifth. 3 zoom value ranges (eg, zoom value ranges outside the first zoom value range and the second zoom value range) (eg, the field of view of the third camera covers both the first and second regions. According to the determination that it is within a sufficient zoom value range to be present), the electronic device is in a first region, at a fifth zoom level, a third camera (eg, a telephoto camera) (eg, 3180c). Displays a representation of a sixth portion of the field of view (eg, 630 in FIG. 31H) and in a second region at a fifth zoom level, a third camera (eg, a telephoto camera) (eg, 3180c). ) Is displayed (eg, 630 in FIG. 31H). In some embodiments, if the field of view of a camera (eg, a camera with a narrower field of view than the second camera) can fill both the first and second regions at a particular zoom level, then electronic. The device switches to display representations in both areas using only a single camera. In some embodiments, if a camera is unable to fill both the first and second areas with a particular zoom level, the device displays a representation within the first area of the camera and the second. Continue to use another camera that displays the representation within the area; for example, in response to receiving a fourth request to raise the zoom level of the representation of one or more cameras' parts of the field of view to the fifth zoom level. Then, according to the determination that the fifth zoom level is not within (or below) the third zoom value range, in the first region, at the fifth zoom level, the third camera (eg, the third camera) Displays a representation of the fifth part of the third camera's field of view, excluding at least one subset of the third part of the field of view (which has a narrower field of view than the first camera, but has a higher optical zoom level). , In the second region, the fifth zoom in the second region, without displaying a representation of a subset of the third camera's visual field portion excluded from the fifth portion of the third camera's field of view. The level displays a representation of the fifth part of the field of view of the first camera that overlaps a subset of the part of the field of view of the third camera that is excluded from the fifth part of the field of view of the third camera. In some embodiments, according to the determination that the fifth zoom level is not within the third zoom value range, the electronic device represents within a camera and a second region that displays the representation within the first region. Use a type of camera that displays. In some embodiments, according to the determination that the fifth zoom level is not within the third zoom value range (or is still within the second zoom value range), the electronic device is in the first region, the first. At a zoom level of 5, display the representation of the sixth part of the field of view of the third camera, and in the second region, at the fifth zoom level, of the seventh part of the field of view of the third camera. Stop displaying expressions. By switching a camera to display an expression when certain conditions are specified, the user can see improved fidelity and visuals when the expression is displayed within a certain zoom value range. An improved representation of an electronic device with tears can be viewed. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.

いくつかの実施形態では、第1の領域において、第5のズームレベルで、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第6の部分の表現を表示し、かつ第2の領域において、第5のズームレベルで、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第7の部分の表現を表示している間に、電子デバイスは、1つ以上のカメラの視野の部分の表現のズームレベルを第6のズームレベル(例えば、第5のズームレベル未満であるが、第3のズームレベルより高いズームレベル)まで下げる(例えば、ズームアウト)第1の要求を受信する。いくつかの実施形態では、1つ以上のカメラの視野の部分の表現のズームレベルを第6のズームレベルまで下げる(例えば、ズームアウト)第1の要求を受信したことに応答して、及び第6のズームレベルが、第2の領域内に表示されるように第4のズーム値範囲(例えば、第1のズーム値範囲及び第3のズーム値範囲の外側のズーム値範囲)内にあるという判定に従って、電子デバイスは、第1の領域において、第6のズームレベルで、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)(例えば、第3のカメラは、第1のカメラよりも狭い視野だが、高い光学ズームレベルを有する)の視野の第3の部分の少なくとも1つのサブセットを除外する、第3のカメラ(例えば、広角カメラよりも狭い視野を有する望遠写真カメラ)の視野の第8の部分の表現を表示し、かつ第2の領域において、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第8の部分から除外された第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の部分のサブセットの表現を表示することなく、第2の領域において、第6のズームレベルで、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第8の部分から除外された第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の部分のサブセットと重なる第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第8の部分の表現を表示する。いくつかの実施形態では、第4のズーム値範囲は、第2のズーム値範囲と同じである。いくつかの実施形態では、あるカメラの視野(例えば、第2のカメラよりも狭い視野を有するカメラ)が、特定のズームレベルで第1及び第2の領域の両方を満たすことができる場合、電子デバイスは、単一のカメラのみを使用して、両方の領域で表現を表示するように切り替える。いくつかの実施形態では、あるカメラが第1及び第2の領域の両方を特定のズームレベルで満たすことができない場合、デバイスは、第1の領域内に表現を表示するあるカメラ及び第2の領域内に表現を表示する別のカメラを使用し続ける。いくつかの実施形態では、第6のズームレベルが第4のズーム値範囲内にないという判定に従って、電子デバイスは、第1の領域内に表現を表示するあるタイプのカメラ及び第2の領域内に表現を表示するあるタイプのカメラを使用する。いくつかの実施形態では、第6のズームレベルが第4のズーム値範囲内にないという判定に従って、電子デバイスは、第1の領域において、第6のズームレベルで、第3のカメラの視野の第6の部分の表現を表示し続け、かつ第2の領域において、第5のズームレベルで、第3のカメラの視野の第7の部分の表現を表示し続ける。特定の条件が規定されているときに、電子デバイスの異なるカメラを使用して表現の異なる部分を表示することにより、ユーザは、表現が特定のズーム値範囲内に表示されるとき、電子デバイスの改善された表現を閲覧することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in a first region, at a fifth zoom level, a representation of a sixth portion of the field of view of a third camera (eg, a telephoto camera) (eg, 3180c) is displayed and In the second region, while displaying a representation of the seventh part of the field of view of a third camera (eg, a telephoto camera) (eg, 3180c) at a fifth zoom level, the electronic device Reduce the zoom level of the representation of the field of view portion of one or more cameras to a sixth zoom level (eg, a zoom level that is less than the fifth zoom level but higher than the third zoom level) (eg, zoom out). ) Receive the first request. In some embodiments, in response to receiving a first request to reduce the zoom level of the representation of a portion of the field of view of one or more cameras to a sixth zoom level (eg, zoom out), and a third. It is said that the zoom level of 6 is within the fourth zoom value range (for example, the zoom value range outside the first zoom value range and the third zoom value range) so as to be displayed in the second area. According to the determination, the electronic device is in the first region, at the sixth zoom level, a third camera (eg, a telephoto camera) (eg, 3180c) (eg, the third camera is from the first camera). Of the field of view of a third camera (eg, a telephoto camera with a narrower field of view than a wide-angle camera), which also excludes at least one subset of the third part of the field of view (which has a narrow field of view but has a high optical zoom level). A third camera (eg, 3180c) that displays the representation of the eighth part and is excluded from the eighth part of the field of view of the third camera (eg, telephoto camera) (eg, 3180c) in the second region. A third camera (eg, a telephoto camera) (eg, a telephoto camera) (eg, a telephoto camera) (eg, a telephoto camera) (eg, a telephoto camera) (eg, a telephoto camera) (eg, a telephoto camera) (eg, a telephoto camera) (eg, a telephoto camera) at a sixth zoom level in a second region without displaying a representation of a subset of the visual field portion. A first camera (eg, a wide-angle camera) (eg, a wide-angle camera) (eg, a wide-angle camera) that overlaps a subset of the field of view of a third camera (eg, a telephoto camera) (eg, 3180c) that is excluded from the eighth portion of the field of view of the 3180c). The representation of the eighth part of the field of view of 3,180b) is displayed. In some embodiments, the fourth zoom value range is the same as the second zoom value range. In some embodiments, if the field of view of a camera (eg, a camera with a narrower field of view than the second camera) can fill both the first and second regions at a particular zoom level, then electronic. The device switches to display representations in both areas using only a single camera. In some embodiments, if a camera is unable to fill both the first and second areas with a particular zoom level, the device displays a representation within the first area of the camera and the second. Continue to use another camera that displays the representation within the area. In some embodiments, according to the determination that the sixth zoom level is not within the fourth zoom value range, the electronic device is a type of camera that displays a representation within the first region and within the second region. Use a type of camera that displays the representation in. In some embodiments, according to the determination that the sixth zoom level is not within the fourth zoom value range, the electronic device is in the first region, at the sixth zoom level, in the field of view of the third camera. It continues to display the representation of the sixth portion and, in the second region, at the fifth zoom level, continues to display the representation of the seventh portion of the field of view of the third camera. By using different cameras on the electronic device to display different parts of the representation when certain conditions are specified, the user can see the representation of the electronic device when the representation is displayed within a certain zoom value range. You can browse the improved expressions. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.

いくつかの実施形態では、第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第8の部分の少なくとも1つのサブセットの表現を表示することなく、第1の領域において、第6のズームレベルで、第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第8の部分の少なくとも1つのサブセットと重なる第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第8の部分の表現を表示し、かつ第2の領域において、第6のズームレベルで、第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第8の部分の少なくとも1つのサブセット除外する第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第8の部分の表現を表示している間に、電子デバイスは、1つ以上のカメラの視野の部分の表現のズームレベルを第7のズームレベル(例えば、第6のズームレベル未満であるが、第2のズームレベルより高いズームレベル)まで下げる(例えば、ズームアウト)第2の要求を受信する。いくつかの実施形態では、1つ以上のカメラの視野の部分の表現のズームレベルを第7のズームレベルまで下げる(例えば、ズームアウト)第1の要求を受信したことに応答して、及び第7のズームレベルが第5のズーム値範囲(例えば、第2のズーム値範囲及び第4のズーム値範囲の外側のズーム値範囲)(例えば、第1のカメラの視野が第1の領域及び第2の領域の両方に存在するのに十分なズーム値範囲)(例えば、デバイスが第1のカメラ及び第3のカメラを使用するように切り替えるズーム値範囲(例えば、望遠写真カメラは、プレビュー領域を満たすことができる))内にあるという判定に従って、電子デバイスは、第1の領域において、第7のズームレベルで、第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第1の第9の部分の表現を表示し、かつ第2の領域において、第7のズームレベルで、第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第10の部分の表現を表示する。いくつかの実施形態では、第2のズーム値は、第1のズーム値範囲と同じである。いくつかの実施形態では、あるカメラの視野(例えば、第2のカメラよりも狭い視野を有するカメラ)が、特定のズームレベルで第1及び第2の領域の両方を満たすことができる場合、電子デバイスは、単一のカメラのみを使用して、両方の領域で表現を表示するように切り替える。いくつかの実施形態では、あるカメラが第1及び第2の領域の両方を特定のズームレベルで満たすことができない場合、デバイスは、第1の領域内に表現を表示するあるカメラ及び第2の領域内に表現を表示する別のカメラを使用し続け;例えば、1つ以上のカメラの視野の部分の表現のズームレベルを第7のズームレベルまで下げる(例えば、第1のユーザインタフェース上でズームアウトする要求)第1の要求を受信したことに応答して、及び第7のズームレベルが第5のズーム値範囲内でない(例えば、下回る)という判定に従って、電子デバイスは、第1の領域において、第7のズームレベルで、第3のカメラの視野の第8の部分の少なくとも1つのサブセット除外する(いくつかの実施形態では、除外されるサブセットの量は、第7のズームレベルに依存する)第3のカメラの視野の第8の部分の表現を表示し、かつ第2の領域において、第3のカメラの視野の第8の部分から除外された第3のカメラの視野の部分のサブセットの表現を表示することなく、第2の領域において、第7のズームレベルで、第3のカメラの視野の第8の部分から除外された第3のカメラの視野の部分のサブセットと重なる第1のカメラの視野の第8の部分の表現を表示する。いくつかの実施形態では、第7のズームレベルが第5のズーム値範囲内にないという判定に従って、電子デバイスは、第1の領域内に表現を表示するあるタイプのカメラ及び第2の領域内に表現を表示するあるタイプのカメラを使用する。いくつかの実施形態では、第3のズームレベルが第1のズーム値範囲内にないという判定に従って、電子デバイスは、第1の領域において、第7のズームレベルで、第1のカメラの視野の第1の第9の部分の表現を表示することと、第2の領域において、第7のズームレベルで、第1のカメラの視野の第10の部分の表現を表示することと、をやめる。特定の条件が規定されているときに、あるカメラが表現を表示するように切り替えられることにより、ユーザは、表現が特定のズーム値範囲内に表示されるとき、改善された忠実度及び視覚的引裂きを有する、電子デバイスの改善された表現を閲覧することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in the first region, the sixth, without displaying a representation of at least one subset of the eighth portion of the field of view of the first camera (eg, wide-angle camera) (eg, 3180b). A third camera (eg, a telephoto camera) (eg, 3180c) that overlaps at least one subset of the eighth portion of the field of view of the first camera (eg, wide-angle camera) (eg, 3180b) at the zoom level of. Displays the representation of the eighth portion of the field of view of, and in the second region, at the sixth zoom level, of the eighth part of the field of view of the first camera (eg, wide-angle camera) (eg, 3180b). While displaying a representation of the eighth portion of the field of view of a first camera (eg, a wide-angle camera) (eg, 3180b) that excludes at least one subset, the electronic device is in the field of view of one or more cameras. Receive a second request to reduce the zoom level of the partial representation to a seventh zoom level (eg, a zoom level below the sixth zoom level but higher than the second zoom level) (eg, zoom out). .. In some embodiments, in response to receiving a first request to reduce the zoom level of the representation of a portion of the field of view of one or more cameras to a seventh zoom level (eg, zoom out), and. The zoom level of 7 is the fifth zoom value range (for example, the zoom value range outside the second zoom value range and the fourth zoom value range) (for example, the field of view of the first camera is the first region and the first region). A zoom range sufficient to be present in both areas (eg, a zoom range in which the device switches to use the first and third cameras (eg, a telephoto camera has a preview area). According to the determination that it is within)), the electronic device is the first in the field of view of the first camera (eg, wide-angle camera) (eg, 3180b) at the seventh zoom level in the first region. In the second region, at the seventh zoom level, the representation of the tenth part of the field of view of the first camera (eg, wide-angle camera) (eg, 3180b) is displayed. indicate. In some embodiments, the second zoom value is the same as the first zoom value range. In some embodiments, if the field of view of a camera (eg, a camera with a narrower field of view than the second camera) can fill both the first and second regions at a particular zoom level, then electronic. The device switches to display representations in both areas using only a single camera. In some embodiments, if a camera is unable to fill both the first and second areas with a particular zoom level, the device displays a representation within the first area of the camera and the second. Continue to use another camera that displays the representation within the area; for example, reduce the zoom level of the representation of one or more cameras' parts of the field of view to the seventh zoom level (eg, zoom on the first user interface). Request to Out) In response to receiving the first request, and according to the determination that the seventh zoom level is not within (eg, below) the fifth zoom value range, the electronic device is in the first region. Exclude at least one subset of the eighth portion of the third camera's field of view at the seventh zoom level (in some embodiments, the amount of the excluded subset depends on the seventh zoom level. ) A subset of the third camera's field of view that displays the representation of the eighth part of the third camera's field of view and, in the second region, is excluded from the eighth part of the third camera's field of view. In the second region, without displaying the representation of, at the seventh zoom level, the first overlaps with a subset of the third camera's field of view excluded from the eighth part of the third camera's field of view. Displays the representation of the eighth part of the camera's field of view. In some embodiments, according to the determination that the seventh zoom level is not within the fifth zoom value range, the electronic device is a type of camera that displays a representation within the first region and within the second region. Use a type of camera that displays the representation in. In some embodiments, according to the determination that the third zoom level is not within the first zoom value range, the electronic device is in the first region, at the seventh zoom level, in the field of view of the first camera. Displaying the representation of the first ninth portion and displaying the representation of the tenth portion of the field of view of the first camera at the seventh zoom level in the second region ceases. By switching a camera to display an expression when certain conditions are specified, the user can see improved fidelity and visuals when the expression is displayed within a certain zoom value range. An improved representation of an electronic device with tears can be viewed. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.

いくつかの実施形態では、第2の領域(例えば、602及び606)は、複数のカメラ設定を制御する複数のコントロールアフォーダンス(例えば、620、626)(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、プロアクティブコントロールアフォーダンス、シャッターアフォーダンス、カメラ選択アフォーダンス、複数のカメラモードアフォーダンス)を含む。 In some embodiments, the second region (eg, 602 and 606) is a plurality of control affordances (eg, 620, 626) (eg, selectable user interface objects) (eg, selectable user interface objects) that control multiple camera settings (eg, selectable user interface objects). Includes Proactive Control Affordances, Shutter Affordances, Camera Selection Affordances, Multiple Camera Mode Affordances).

いくつかの実施形態では、電子デバイスは、カメラユーザインタフェース上の場所で入力(例えば、2950i、2950j)を受信する。いくつかの実施形態では、カメラユーザインタフェース上の場所で入力を受信したことに応答して、電子デバイスは、入力(例えば、2950j)の場所が第1の領域(例えば、604)内にあるという判定に従って、入力の場所に、焦点(例えば、2936c)を合わせるように電子デバイスを構成し(及び任意選択的に、露出又はホワイトバランスなどの1つ以上の他のカメラ設定を、1つ以上のカメラの視野の特性に基づいて設定し)、電子デバイスは、入力(例えば、2950i)の場所が第2の領域(例えば、602)内にあるという判定に従って、入力の場所に、焦点を合わせるように電子デバイスを構成するのをやめる(及び任意選択的に、露出又はホワイトバランスなどの1つ以上の他のカメラ設定を、1つ以上のカメラの視野の特性に基づいて設定するのをやめる(例えば、図29J)。 In some embodiments, the electronic device receives an input (eg, 2950i, 2950j) at a location on the camera user interface. In some embodiments, in response to receiving an input at a location on the camera user interface, the electronic device states that the location of the input (eg, 2950j) is within a first region (eg, 604). According to the determination, the electronic device is configured to focus (eg, 2936c) to the location of the input (and optionally one or more other camera settings such as exposure or white balance). The electronic device should focus on the location of the input (eg, 2950i) according to the determination that the location of the input (eg, 2950i) is within the second region (eg, 602). Stop configuring electronic devices in (and optionally stop setting one or more other camera settings, such as exposure or white balance, based on the characteristics of the field of view of one or more cameras (and optionally stop) For example, FIG. 29J).

いくつかの実施形態では、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現(例えば、図29Hの630)を含むカメラユーザインタフェースを表示している間に(例えば、第1のズームレベルから第2のズームレベルへ変更する要求)、電子デバイスは、メディアをキャプチャする要求(例えば、2950h)(例えば、シャッターアフォーダンス(例えば、610)に向けられたジェスチャ(例えば、タップ))を受信する。いくつかの実施形態では、メディアをキャプチャする要求を受信したことに応答して、電子デバイスは、1つ以上のカメラの視野に対応するメディア(例えば、図29Iの624)をキャプチャすることであって、メディアが、第1のズームレベルでの第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第1の部分からのコンテンツ及び第1のズームレベルでの第2のカメラ(例えば、超広角カメラ)(例えば、3180a)の視野の第1の部分からのコンテンツを含む、メディアをキャプチャする。いくつかの実施形態では、メディアをキャプチャした後に、電子デバイスは、キャプチャされたメディアを編集する要求(例えば、2950o)を受信する。いくつかの実施形態では、キャプチャされたメディアを編集する要求を受信したことに応答して、電子デバイスは、第1のズームレベルでの第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第1の部分からのコンテンツのうちの少なくともいくらか及び第1のズームレベルでの第2のカメラ(例えば、超広角カメラ)(例えば、3180a)の視野の第1の部分からのコンテンツのうちの少なくともいくらかを含む、キャプチャされたメディアの表現(例えば、図29Pの2930)を表示することと、を含む。いくつかの実施形態では、第1のズームレベルでの第1のカメラの視野の第1の部分からのコンテンツ及び第1のズームレベルでの第2のカメラの視野の第1の部分からのコンテンツを含む、メディアアイテムの表現は、メディアの表現の補正された(例えば、メディアアイテム内の識別された対象を保持するために、安定化、水平補正、垂直視点補正、水平視点補正、及び/又は再フレーム化された)バージョンである。いくつかの実施形態では、電子デバイスは、第1のズームレベルでの第1のカメラの視野の第1の部分からのコンテンツ及び第1のズームレベルでの第2のカメラの視野の第1の部分からのコンテンツを含む、メディアアイテムの表現を表示し、第1のズームレベルで第1のカメラの視野の第1の部分からのコンテンツの少なくともいくらの表現及び第1のズームレベルで第2のカメラの視野の第1の部分からのコンテンツの少なくともいくらの表現を表示することを含む。いくつかの実施形態では、表現は、第1のズームレベルで第2のカメラ(又は第1のカメラ)の視野の第1の部分からのコンテンツの少なくともいくらかの表現を表示することを含まず、メディアアイテムの表現は、第1のズームレベルで第2のカメラの視野の第1の部分からコンテンツの少なくともいくらかを使用して生成される。 In some embodiments, the display device displays a camera user interface that includes a representation of at least a portion of the field of view of one or more cameras displayed at the first zoom level (eg, 630 in FIG. 29H). While (eg, a request to change from a first zoom level to a second zoom level), the electronic device is directed towards a request to capture media (eg, 2950h) (eg, shutter affordance (eg, 610)). Receive the gesture (eg, tap) that was done. In some embodiments, in response to receiving a request to capture the media, the electronic device captures the media corresponding to the field of view of one or more cameras (eg, 624 of FIG. 29I). The media is the content from the first part of the field of view of the first camera (eg, wide-angle camera) (eg, 3180b) at the first zoom level and the second camera at the first zoom level (eg, 3180b). For example, it captures media containing content from a first portion of the field of view of an ultra-wide-angle camera (eg, 3180a). In some embodiments, after capturing the media, the electronic device receives a request to edit the captured media (eg, 2950o). In some embodiments, in response to receiving a request to edit the captured media, the electronic device is a first camera (eg, a wide-angle camera) (eg, 3180b) at the first zoom level. Of the content from the first part of the field of view of at least some of the field of view and the content from the first part of the field of view of the second camera (eg, ultra-wide angle camera) (eg, 3180a) at the first zoom level. Includes displaying a representation of the captured media (eg, 2930 on page 29P), including at least some of them. In some embodiments, the content from the first part of the field of view of the first camera at the first zoom level and the content from the first part of the field of view of the second camera at the first zoom level. The representation of the media item, including, has been corrected for the representation of the media (eg, stabilization, horizontal correction, vertical viewpoint correction, horizontal viewpoint correction, and / or to retain the identified object in the media item. It is a (reframed) version. In some embodiments, the electronic device is the content from the first portion of the field of view of the first camera at the first zoom level and the first of the field of view of the second camera at the first zoom level. Displays the representation of media items, including content from parts, at least how much representation of content from the first part of the field of view of the first camera at the first zoom level and the second at the first zoom level. Includes displaying at least any representation of the content from the first portion of the camera's field of view. In some embodiments, the representation does not include displaying at least some representation of the content from the first part of the field of view of the second camera (or first camera) at the first zoom level. The representation of the media item is generated from the first part of the field of view of the second camera at the first zoom level using at least some of the content.

方法3200に関して上述された処理(例えば、図32A〜図32C)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2500、2700、2800、3000、3400、3600、及び3800は、方法3200を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法3000は、任意選択的に、方法3200に関連して上述した様々な技術を使用して、様々なズームレベルでメディアをキャプチャするために、異なる1組のカメラの組み合わせを使用することを採用する。簡潔にするために、これらの詳細は、以下で繰り返さない。 It should be noted that the details of the processes described above for Method 3200 (eg, FIGS. 32A-32C) are also applicable to the methods described above in a similar manner. For example, methods 700, 900, 1100, 1300, 1500, 1700, 1900, 2100, 2300, 2500, 2700, 2800, 3000, 3400, 3600, and 3800 are of the various methods described above with reference to Method 3200. Includes one or more of the properties optionally. For example, Method 3000 optionally uses a combination of different sets of cameras to capture media at different zoom levels, using the various techniques described above in connection with Method 3200. Is adopted. For the sake of brevity, these details will not be repeated below.

図33A〜図33Qは、いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図34A〜図34Bにおける処理を含む、以下で説明される処理を例示するために使用される。いくつかの実施形態では、図8A〜図8V及び図9A〜図9Cで論じられた1つ以上の技術を、以下で論じられた図33A〜図33Q及び図34A〜図34Bの1つ以上の技術と任意選択的に組み合わせてもよい。 33A-33Q show exemplary user interfaces for varying zoom levels using electronic devices according to some embodiments. The user interfaces in those figures are used to illustrate the processes described below, including the processes in FIGS. 34A-34B. In some embodiments, one or more techniques discussed in FIGS. 8A-8V and 9A-9C, and one or more of FIGS. 33A-33Q and 34A-34B discussed below. It may be optionally combined with the technology.

図33Aは、ディスプレイの上部からディスプレイの底部まで延在するライブプレビュー630を表示する電子デバイス600を示す。ライブプレビュー630は、1つ以上のカメラセンサによって検出された画像に基づく。いくつかの実施形態では、デバイス600は、複数のカメラセンサを使用して画像をキャプチャし、それらを組み合わせてライブプレビュー630を表示する。いくつかの実施形態では、デバイス600は、単一のカメラセンサを使用して画像をキャプチャして、ライブプレビュー630を表示する。 FIG. 33A shows an electronic device 600 displaying a live preview 630 extending from the top of the display to the bottom of the display. Live preview 630 is based on images detected by one or more camera sensors. In some embodiments, the device 600 uses a plurality of camera sensors to capture images and combine them to display a live preview 630. In some embodiments, the device 600 captures an image using a single camera sensor and displays a live preview 630.

図33Aのカメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含み、これらは、インジケータ及びコントロールがライブプレビュー630と同時に表示され得るように、ライブプレビュー630上に重ねられる。カメラディスプレイ領域604は、インジケータ又はコントロールと実質的に重ならない。この例では、ライブプレビュー630は、周囲環境内の人の肩に乗っている犬を含む。いくつかの実施形態では、図33Aのカメラユーザインタフェースは、インジケータ領域602とカメラディスプレイ領域604との境界部及びカメラディスプレイ領域604とコントロール領域606との境界部を示す視覚境界部を含む。いくつかの実施形態では、ライブプレビュー630は、インジケータ領域602及び/又はコントロール領域606に延びない。 The camera user interface of FIG. 33A includes an indicator area 602 and a control area 606, which are overlaid on the live preview 630 so that the indicators and controls can be displayed at the same time as the live preview 630. The camera display area 604 does not substantially overlap the indicator or control. In this example, live preview 630 includes a dog on the shoulder of a person in the surrounding environment. In some embodiments, the camera user interface of FIG. 33A includes a boundary between the indicator area 602 and the camera display area 604 and a visual boundary indicating the boundary between the camera display area 604 and the control area 606. In some embodiments, the live preview 630 does not extend into the indicator area 602 and / or the control area 606.

図33Aに示すように、インジケータ領域602は、ライブプレビュー630上に重ねられ、任意選択的に着色された(例えば、灰色;半透明)オーバーレイを含む。インジケータ領域602は、フラッシュインジケータ602aを含む。フラッシュインジケータ602aは、フラッシュが自動モード、オン、オフ、又は別のモード(例えば、赤目低減モード)であるかどうかを示す。 As shown in FIG. 33A, the indicator area 602 includes an optionally colored (eg, gray; translucent) overlay overlaid on the live preview 630. The indicator area 602 includes a flash indicator 602a. The flash indicator 602a indicates whether the flash is in automatic mode, on, off, or another mode (eg, red-eye reduction mode).

図33Aに示すように、カメラディスプレイ領域604は、ライブプレビュー630及びズームアフォーダンス2622を含み、ズームアフォーダンス2622は、0.5×ズームアフォーダンス2622a、1×ズームアフォーダンス2622b、及び2×ズームアフォーダンス2622cを含む。この例では、1×ズームアフォーダンス2622bが選択され、これは、1×ズームレベルでライブプレビュー630が表されることを示す。 As shown in FIG. 33A, the camera display area 604 includes a live preview 630 and a zoom affordance 2622, and the zoom affordance 2622 includes 0.5 × zoom affordance 2622a, 1 × zoom affordance 2622b, and 2 × zoom affordance 2622c. .. In this example, 1x zoom affordance 2622b is selected, which indicates that live preview 630 is represented at 1x zoom level.

図33Aに示すように、コントロール領域606は、ライブプレビュー630上に重ねられ、任意選択的に着色された(例えば、灰色;半透明)オーバーレイを含む。コントロール領域606は、カメラモードアフォーダンス620、メディアコレクションの一部分624、シャッターアフォーダンス610、及びカメラスイッチャアフォーダンス612を含む。カメラモードアフォーダンス620は、どのカメラモードが現在選択されているかを示し、ユーザがカメラモードを変更することを可能にする。 As shown in FIG. 33A, the control area 606 includes an optionally colored (eg, gray; translucent) overlay overlaid on the live preview 630. The control area 606 includes a camera mode affordance 620, a portion of the media collection 624, a shutter affordance 610, and a camera switcher affordance 612. The camera mode affordance 620 indicates which camera mode is currently selected and allows the user to change the camera mode.

更には、図33Aは、カメラインタフェースの異なる場所に対応する場所で様々なジェスチャに応答するデバイス600を示す。具体的には、図33Aは、デバイス600が3つの入力に応答することを示す:(1)インジケータ領域602内の場所に対応する場所でのタップジェスチャ(タップジェスチャ3350a);(2)ズームアフォーダンス2622のうちの1つの場所に対応しない、カメラディスプレイ領域604内の場所に対応するタップジェスチャ(タップジェスチャ3350b);及び(3)カメラディスプレイ領域604内にある、ズームアフォーダンス2622のうちの1つに対応する場所に対応するタップジェスチャ(タップジェスチャ3350c)。ある代替的シナリオにおいて、図33Aでは、デバイス600は、インジケータ領域602内の場所に対応する場所でのタップジェスチャ3350aを検出する。タップジェスチャ3350aを検出したことに応答して、デバイス600は、カメラユーザインタフェースの表示を維持し、かつ1つ以上のカメラの視野内の場所に対応するタップジェスチャ3550aの場所に焦点を合わせるように、電子デバイスの1つ以上のカメラを構成するのをやめる(例えば、図29H〜図29Iにおいてタップジェスチャ2950iに関連して上で開示されたのと同様の技術を使用して)。別の代替的シナリオにおいて、図33Aでは、デバイス600は、ズームアフォーダンス2622のうちの1つの場所に対応しない、カメラディスプレイ領域604内の場所に対応するタップジェスチャの場所でのタップジェスチャ3350bを検出する。タップジェスチャ3350bを検出したことに応答して、デバイス600は、1つ以上のカメラの視野内の場所に対応するタップジェスチャ3550bの場所に焦点を合わせるように、電子デバイスの1つ以上のカメラを構成する(例えば、図29I〜図29Jにおいてタップジェスチャ2950jに関連して上で開示されたのと同様の技術を使用して)。図33Aでの追加のシナリオにおいて、デバイス600は、1×ズームアフォーダンス262bに対応する場所でのタップジェスチャ3350cを検出する。 Furthermore, FIG. 33A shows the device 600 responding to various gestures at locations corresponding to different locations of the camera interface. Specifically, FIG. 33A shows that the device 600 responds to three inputs: (1) tap gestures (tap gestures 3350a) at locations within the indicator area 602; (2) zoom affordances. Tap gesture (tap gesture 3350b) corresponding to a location within the camera display area 604 that does not correspond to one of the 2622 locations; and (3) to one of the zoom affordances 2622 within the camera display area 604. Tap gesture corresponding to the corresponding location (tap gesture 3350c). In one alternative scenario, in FIG. 33A, device 600 detects tap gesture 3350a at a location corresponding to location within indicator region 602. In response to detecting the tap gesture 3350a, the device 600 maintains the display of the camera user interface and focuses on the location of the tap gesture 3550a corresponding to the location in the field of view of one or more cameras. Discontinue configuring one or more cameras in the electronic device (eg, using techniques similar to those disclosed above in connection with the tap gesture 2950i in FIGS. 29H-29I). In another alternative scenario, in FIG. 33A, device 600 detects a tap gesture 3350b at a tap gesture location that corresponds to a location within the camera display area 604 that does not correspond to one location of the zoom affordance 2622. .. In response to detecting the tap gesture 3350b, the device 600 moves one or more cameras of the electronic device to focus on the location of the tap gesture 3550b that corresponds to the location within the field of view of the one or more cameras. Configure (eg, using techniques similar to those disclosed above in connection with tap gesture 2950j in FIGS. 29I-29J). In the additional scenario of FIG. 33A, the device 600 detects a tap gesture 3350c at a location corresponding to 1 × zoom affordance 262b.

図33Bに示すように、タップジェスチャ3350cを検出したことに応答して、デバイス600は、第1のカメラセンサから異なる視野を有する第2のカメラセンサに切り替えることにより、ライブプレビュー630のズームレベルを、図33Aの1×ズームレベルから2×ズームレベルに更新する。いくつかの実施形態では、(例えば、図31Iに関連して上述されたように)第2のカメラセンサが望遠写真レンズを有するカメラに対応するため、デバイス600は、非透明(例えば、又は黒)オーバーレイとともに、インジケータ領域602を表示する。 As shown in FIG. 33B, in response to detecting the tap gesture 3350c, the device 600 switches the zoom level of the live preview 630 from the first camera sensor to a second camera sensor with a different field of view. , Update from 1 × zoom level in FIG. 33A to 2 × zoom level. In some embodiments, the device 600 is non-transparent (eg, or black) so that the second camera sensor (eg, as described above in connection with FIG. 31I) corresponds to a camera having a telephoto lens. ) Display the indicator area 602 along with the overlay.

タップジェスチャ3350cを検出したことに応答して、デバイス600はまた、ズームアフォーダンス2622を更新する。具体的には、デバイス600は、1×ズームアフォーダンス2622bの表示を更新することにより、デバイス600は、選択されていないものとして1×ズームアフォーダンス2622bを表示する。図33Bに示すように、ズームアフォーダンスが選択されていないものとして表示されるとき、ズームアフォーダンスは、太字ではなく、かつ選択されたときに表示される1つ以上の文字(例えば、「x」)を含まない(例えば、図33Bの1×ズームアフォーダンス2622bと比較して図33Aの1×ズームアフォーダンス2622b)。更には、デバイス600はまた、2×ズームアフォーダンス2622cの表示を更新することにより、デバイス600は、選択されているものとして2×ズームアフォーダンス2622cを表示する。図33Bに示すように、ズームアフォーダンスが選択されているものとして表示されるとき、ズームアフォーダンスは、太字化され、かつ未選択のズームアフォーダンスを含まない1つ以上の文字を含む(例えば、ズームレベルの隣の「x」)。いくつかの実施形態では、タップジェスチャ3350cを検出したことに応答して、デバイス600は、ズームアフォーダンス2622のテキストを拡大させる。いくつかの実施形態では、デバイス600は、デバイスがより大きいズームレベルでライブプレビュー630を表示しているため(例えば、図33Aの1×ズームレベルから図33Bの2×ズームレベルへ)、テキストを拡大する。加えて、タップジェスチャ3350cを検出したことに応答して、デバイス600は、0.5×ズームアフォーダンス2622aの表示を維持する(例えば、0.5×ズームアフォーダンス2622aは、未選択のままである)。図33Bに示すように、ズームアフォーダンスが選択されていると、ズームアフォーダンスは、他の未選択のズームアフォーダンスよりも大きいサイズを有する。いくつかの実施形態では、ズームアフォーダンスが選択されていると、ズームアフォーダンスは、他の未選択のズームアフォーダンスとは異なる色である。いくつかの実施形態では、タップジェスチャ3350cを検出したことに応答して、デバイス600は、新しいズームレベルを示す(例えば、1×ズームアフォーダンス2622bのテキストを「2×」に変更する)ように、1×ズームアフォーダンス2622bの表示を更新し、かつ選択されているものとして1×ズームアフォーダンスを表示し続ける。いくつかの実施形態では、新しいズームレベルを示すために、デバイスが1×ズームアフォーダンス2622bの表示を更新すると、デバイス600は、未選択である(又は選択されている)ものとして2×ズームアフォーダンス2622cを表示する。 In response to detecting the tap gesture 3350c, the device 600 also updates the zoom affordance 2622. Specifically, the device 600 updates the display of the 1x zoom affordance 2622b so that the device 600 displays the 1x zoom affordance 2622b as not selected. As shown in FIG. 33B, when the zoom affordance is displayed as unselected, the zoom affordance is not bold and one or more characters (eg, "x") that are displayed when it is selected. (For example, 1 × zoom affordance 2622b in FIG. 33A as compared to 1 × zoom affordance 2622b in FIG. 33B). Furthermore, the device 600 also updates the display of the 2x zoom affordance 2622c so that the device 600 displays the 2x zoom affordance 2622c as selected. As shown in FIG. 33B, when the zoom affordance is displayed as selected, the zoom affordance contains one or more characters that are bold and do not contain an unselected zoom affordance (eg, zoom level). "X" next to). In some embodiments, the device 600 enlarges the text of the zoom affordance 2622 in response to detecting the tap gesture 3350c. In some embodiments, the device 600 displays the text because the device is displaying the live preview 630 at a higher zoom level (eg, from 1x zoom level in FIG. 33A to 2x zoom level in FIG. 33B). Expanding. In addition, in response to detecting the tap gesture 3350c, the device 600 maintains a display of 0.5 × zoom affordance 2622a (eg, 0.5 × zoom affordance 2622a remains unselected). .. As shown in FIG. 33B, when the zoom affordance is selected, the zoom affordance has a larger size than the other unselected zoom affordances. In some embodiments, when the zoom affordance is selected, the zoom affordance is a different color than the other unselected zoom affordances. In some embodiments, in response to detecting the tap gesture 3350c, the device 600 indicates a new zoom level (eg, changing the text of 1x zoom affordance 2622b to "2x"). Updates the display of the 1x zoom affordance 2622b and continues to display the 1x zoom affordance as selected. In some embodiments, when the device updates the display of the 1x zoom affordance 2622b to indicate a new zoom level, the device 600 is assumed to be unselected (or selected) and the 2x zoom affordance 2622c. Is displayed.

図33B〜図33Fは、2つの異なるタイプズームアフォーダンスに向けられたジェスチャに応答して、ズームレベルを変更するデバイス600を示す:(1)ズームアフォーダンス(例えば、1×ズームアフォーダンス2622b)が繰り返し選択されているとき、ライブプレビュー630が異なるズームレベルで表示されるように、デバイス600がライブプレビュー630を更新させるズームアフォーダンス;及び(2)ズームアフォーダンスが繰り返し選択されているとき、ライブプレビュー630があるズームレベルでのみ表示されるように、デバイス600がライブプレビュー630を更新させるズームアフォーダンス(例えば、1×ズームアフォーダンス2622c)。図33Bでは、デバイス600は、1×ズームアフォーダンス2622bに対応する場所での追加のタップジェスチャ3350dを検出する。 33B-33F show a device 600 that changes the zoom level in response to gestures directed to two different types of zoom affordances: (1) Zoom affordances (eg, 1x zoom affordances 2622b) are repeatedly selected. There is a live preview 630 when the device 600 updates the live preview 630 so that the live preview 630 is displayed at different zoom levels; and (2) when the zoom affordance is repeatedly selected. A zoom affordance (eg, 1x zoom affordance 2622c) that causes the device 600 to update the live preview 630 so that it is displayed only at the zoom level. In FIG. 33B, device 600 detects an additional tap gesture 3350d at a location corresponding to 1 × zoom affordance 2622b.

図33Cに示すように、タップジェスチャ3350dを検出したことに応答して、デバイス600は、第2のカメラセンサから異なる視野を有する第3のカメラセンサに切り替えることにより、ライブプレビュー630のズームレベルを、図33Bの2×ズームレベルから0.5×ズームレベルに更新する。ここで、第3のカメラセンサが超広レンズを有するカメラに対応するため、デバイス600は、デバイスが第2のカメラセンサ(例えば、図31Aに関連して上述したように超広レンズではない電話レンズ又は複数のレンズ)で表示されたときに、非透明(例えば、又は黒)オーバーレイの代わりに透明オーバーレイを有するインジケータ領域602を表示する。タップジェスチャ3350dを検出したことに応答して、デバイス600はまた、ズームアフォーダンス2622を更新する。具体的には、デバイス600は、2×ズームアフォーダンス2622cの表示を更新することにより、デバイス600は、選択されていないものとしてズームアフォーダンス2622cを表示する(例えば、図33Bの1×ズームアフォーダンス2622bに関連して上述したようなものと同様の技術を使用して)。更には、デバイス600はまた、0.5×ズームアフォーダンス2622aの表示を更新することにより、デバイス600は、選択されているものとして2×ズームアフォーダンス2622cを表示する(例えば、図33Bの2×ズームアフォーダンス2622cに関連して上述したようなものと同様の技術を使用して)。加えて、タップジェスチャ3350dを検出したことに応答して、デバイス600は、1×ズームアフォーダンス2622bの表示を維持する(例えば、1×ズームアフォーダンス2622bは、未選択のままである)。いくつかの実施形態では、タップジェスチャ3350dを検出したことに応答して、デバイス600は、ズームアフォーダンス2622のテキストを減少させる。いくつかの実施形態では、デバイス600は、デバイスがより小さいズームレベルでライブプレビュー630を表示しているため(例えば、図33Aの2×ズームレベルから図33Bの0.5×ズームレベルへ)、テキストを減少させる。いくつかの実施形態では、ズームレベルが0.5×であるときに表示される縮小されたテキストは、ズームレベルが1×であるときに表示されるテキストよりも小さい。いくつかの実施形態では、タップジェスチャ3350dを検出したことに応答して、デバイス600は、新しいズームレベルを示す(例えば、1×ズームアフォーダンス2622bのテキストを「0.5×」に変更する)ように、1×ズームアフォーダンス2622bの表示を更新し、かつ選択されているものとして1×ズームアフォーダンス2622bを表示し続ける。いくつかの実施形態では、新しいズームレベルを示すために、デバイスが1×ズームアフォーダンス2622bの表示を更新すると、デバイス600は、未選択である(又は選択されている)ものとして0.5×ズームアフォーダンス2622aを表示する。図33Cでは、デバイス600は、1×ズームアフォーダンス2622bに対応する場所での追加のタップジェスチャ3350eを検出する。 As shown in FIG. 33C, in response to detecting the tap gesture 3350d, the device 600 switches the zoom level of the live preview 630 from the second camera sensor to a third camera sensor with a different field of view. , The 2 × zoom level in FIG. 33B is updated to 0.5 × zoom level. Here, in order for the third camera sensor to correspond to a camera having an ultra-wide lens, the device 600 is a phone in which the device is not a second camera sensor (eg, as described above in connection with FIG. 31A). When displayed with a lens or multiple lenses), it displays an indicator area 602 with a transparent overlay instead of a non-transparent (eg, or black) overlay. In response to detecting the tap gesture 3350d, the device 600 also updates the zoom affordance 2622. Specifically, the device 600 updates the display of the 2x zoom affordance 2622c so that the device 600 displays the zoom affordance 2622c as not selected (eg, in the 1x zoom affordance 2622b of FIG. 33B). Using techniques similar to those mentioned above in connection). Further, the device 600 also updates the display of the 0.5 × zoom affordance 2622a so that the device 600 displays the 2 × zoom affordance 2622c as selected (eg, the 2 × zoom in FIG. 33B). Using techniques similar to those described above in connection with affordances 2622c). In addition, in response to detecting the tap gesture 3350d, the device 600 maintains the display of the 1x zoom affordance 2622b (eg, the 1x zoom affordance 2622b remains unselected). In some embodiments, the device 600 reduces the text of the zoom affordance 2622 in response to detecting the tap gesture 3350d. In some embodiments, the device 600 is displaying the live preview 630 at a lower zoom level (eg, from 2x zoom level in FIG. 33A to 0.5x zoom level in FIG. 33B). Reduce text. In some embodiments, the reduced text displayed when the zoom level is 0.5x is smaller than the text displayed when the zoom level is 1x. In some embodiments, in response to detecting the tap gesture 3350d, the device 600 will indicate a new zoom level (eg, change the text of 1x zoom affordance 2622b to "0.5x"). The display of the 1x zoom affordance 2622b is updated, and the 1x zoom affordance 2622b is continuously displayed as selected. In some embodiments, when the device updates the display of the 1x zoom affordance 2622b to indicate a new zoom level, the device 600 is 0.5x zoomed as unselected (or selected). Affordance 2622a is displayed. In FIG. 33C, device 600 detects an additional tap gesture 3350e at a location corresponding to 1 × zoom affordance 2622b.

図33Dに示すように、タップジェスチャ3350eを検出したことに応答して、デバイス600は、第3のカメラセンサから異なる視野を有する第1のカメラセンサに切り替えることにより、ライブプレビュー630のズームレベルを、図33Cの0.5×ズームレベルから1×ズームレベルに更新する。タップジェスチャ3350eを検出したことに応答して、デバイス600はまた、ズームアフォーダンス2622を更新する。具体的には、デバイス600は、0.5×ズームアフォーダンス2622aの表示を更新することにより、デバイス600は、選択されていないものとして0.5×ズームアフォーダンス2622aを表示する(例えば、図33Bの1×ズームアフォーダンス2622bに関連して上述したようなものと同様の技術を使用して)。更には、デバイス600はまた、1×ズームアフォーダンス2622bの表示を更新することにより、デバイス600は、選択されているものとして1×ズームアフォーダンス2622bを表示する(例えば、図33Bの2×ズームアフォーダンス2622cに関連して上述したようなものと同様の技術を使用して)。加えて、タップジェスチャ3350eを検出したことに応答して、デバイス600は、2×ズームアフォーダンス2622cの表示を維持する(例えば、2×ズームアフォーダンス2622cは、未選択のままである)。いくつかの実施形態では、タップジェスチャ3350eを検出したことに応答して、デバイス600は、ズームアフォーダンス2622のテキストを増加させる。いくつかの実施形態では、デバイス600は、デバイスがより大きいズームレベルでライブプレビュー630を表示しているため(例えば、図33Aの0.5×ズームレベルから図33Bの1×ズームレベルへ)、テキストを増加させる。図33Dでは、デバイス600は、2×ズームアフォーダンス2622cに対応する場所でのタップジェスチャ3350fを検出する。 As shown in FIG. 33D, in response to detecting the tap gesture 3350e, the device 600 switches the zoom level of the live preview 630 from the third camera sensor to the first camera sensor with a different field of view. , The 0.5 × zoom level in FIG. 33C is updated to 1 × zoom level. In response to detecting the tap gesture 3350e, the device 600 also updates the zoom affordance 2622. Specifically, the device 600 updates the display of 0.5 × zoom affordance 2622a so that the device 600 displays 0.5 × zoom affordance 2622a as not selected (eg, FIG. 33B). Using techniques similar to those described above in connection with 1x Zoom Affordance 2622b). Further, the device 600 also updates the display of the 1 × zoom affordance 2622b so that the device 600 displays the 1 × zoom affordance 2622b as selected (eg, the 2 × zoom affordance 2622c in FIG. 33B). Using techniques similar to those mentioned above in connection with). In addition, in response to detecting the tap gesture 3350e, the device 600 maintains the display of the 2x zoom affordance 2622c (eg, the 2x zoom affordance 2622c remains unselected). In some embodiments, the device 600 increases the text of the zoom affordance 2622 in response to detecting the tap gesture 3350e. In some embodiments, the device 600 is displaying the live preview 630 at a higher zoom level (eg, from 0.5 × zoom level in FIG. 33A to 1 × zoom level in FIG. 33B). Increase the text. In FIG. 33D, the device 600 detects the tap gesture 3350f at a location corresponding to the 2 × zoom affordance 2622c.

図33Eに示すように、タップジェスチャ3350fを検出したことに応答して、デバイス600は、第3のカメラセンサから異なる視野を有する第1のカメラセンサに切り替えることにより、ライブプレビュー630のズームレベルを、図33Dの1×ズームレベルから2×ズームレベルに更新する。タップジェスチャ3350fを検出したことに応答して、デバイス600はまた、ズームアフォーダンス2622を更新する。具体的には、デバイス600は、選択されているものとして1×ズームアフォーダンス2622b及び2×ズームアフォーダンス2622cの表示を更新する(例えば、図33Bに関連して上述した(decreased)ようなものと同様の技術を使用して)。加えて、タップジェスチャ3350fを検出したことに応答して、デバイス600は、0.5×ズームアフォーダンス2622aの表示を維持する(例えば、0.5×ズームアフォーダンス2622aは、未選択のままである)。図33Eでは、デバイス600は、2×ズームアフォーダンス2622cに対応する場所での追加のタップジェスチャ3350gを検出する。 As shown in FIG. 33E, in response to detecting the tap gesture 3350f, the device 600 switches the zoom level of the live preview 630 from the third camera sensor to the first camera sensor having a different field of view. , Update from 1 × zoom level in FIG. 33D to 2 × zoom level. In response to detecting the tap gesture 3350f, the device 600 also updates the zoom affordance 2622. Specifically, the device 600 updates the display of the 1 × zoom affordance 2622b and the 2 × zoom affordance 2622c as selected (eg, similar to those described above in relation to FIG. 33B). Using technology). In addition, in response to detecting the tap gesture 3350f, the device 600 maintains a display of 0.5 × zoom affordance 2622a (eg, 0.5 × zoom affordance 2622a remains unselected). .. In FIG. 33E, the device 600 detects an additional tap gesture 3350 g at a location corresponding to the 2 × zoom affordance 2622c.

図33Fに示すように、タップジェスチャ3350gを検出したことに応答して、デバイス600は、ズームアフォーダンス2622及びライブプレビュー630のズームレベルを更新するのをやめる。図33Eにおいて、ライブプレビュー630は、2×ズームレベルで表示され続ける。ここで、1×ズームアフォーダンス2622b上のタップジェスチャの検出とは異なり(例えば、図35B〜図35Dに記載される)、デバイス600は、2×ズームアフォーダンス2622c上の追加のタップに応答して、複数のズームレベルでライブプレビュー630を表示しない。したがって、デバイス600が、2×ズームアフォーダンス2622cがズームレベルを循環させることができないズームアフォーダンスのタイプであると判定するので、デバイス600は、ジェスチャ3350gを検出したことに応答して、ライブプレビュー630のズームレベルを更新するのをやめる。しかしながら、デバイス600が、0.5×ズームアフォーダンス2622cがズームレベルを循環させることができるズームアフォーダンスのタイプである(例えば、1×ズームアフォーダンス2622bなど)と判定したので、デバイス600は、ジェスチャ3350gを検出したことに応答して、ライブプレビュー630のズームレベルを更新した。 As shown in FIG. 33F, in response to detecting the tap gesture 3350g, the device 600 stops updating the zoom levels of the zoom affordance 2622 and the live preview 630. In FIG. 33E, the live preview 630 continues to be displayed at a 2 × zoom level. Here, unlike the detection of tap gestures on the 1x zoom affordance 2622b (eg, as described in FIGS. 35B-35D), the device 600 responds to additional taps on the 2x zoom affordance 2622c. Do not display live preview 630 at multiple zoom levels. Therefore, since the device 600 determines that the 2x zoom affordance 2622c is a type of zoom affordance in which the zoom level cannot be circulated, the device 600 responds to the detection of the gesture 3350 g by the live preview 630. Stop updating the zoom level. However, since the device 600 has determined that 0.5 x zoom affordance 2622c is a type of zoom affordance capable of circulating the zoom level (eg, 1 x zoom affordance 2622b, etc.), the device 600 has a gesture of 3350 g. In response to the detection, the zoom level of the live preview 630 was updated.

図33F〜図33Oは、より多くのズームアフォーダンスのうちの1つの上でのスワイプジェスチャ又はプレスホールドジェスチャに応答して、調整可能なズームコントロールを表示し、かつ調整可能なズームコントロールに向けられたジェスチャを検出したことに応答して、ライブプレビューのズームレベルを変更するデバイス600を示す。図33Fでは、デバイス600は、2×ズームアフォーダンス2622cに対応する場所での上向きスワイプジェスチャ3550h(例えば、コントロール領域606からインジケータ領域602に向かう上スワイプジェスチャ)を検出する。代わりに、デバイス600デバイスは、2×ズームアフォーダンス2622cに対応する場所でのプレスアンドホールドジェスチャを検出する。 33F-33O display an adjustable zoom control in response to a swipe or press hold gesture on one of the more zoom affordances and are directed to the adjustable zoom control. A device 600 is shown which changes the zoom level of a live preview in response to detecting a gesture. In FIG. 33F, the device 600 detects an upward swipe gesture 3550h (eg, an upward swipe gesture from the control area 606 towards the indicator area 602) at a location corresponding to the 2 × zoom affordance 2622c. Instead, the device 600 device detects a press-and-hold gesture at a location corresponding to the 2x zoom affordance 2622c.

図33Gに示すように、上向きスワイプジェスチャ3350h(又はプレスアンドホールドジェスチャ)を検出したことに応答して、デバイス600は、調整可能なズームコントロール3328を表示し、かつズームアフォーダンス2622の表示を停止する。調整可能なズームコントロール3328は、図33Gにおいて、ズームアフォーダンス2622が図33Fに以前に表示された場所を覆う。いくつかの実施形態では、デバイス600は、カメラディスプレイ領域604の底部から、図33Gに表示されるカメラディスプレイ領域604内の位置にスライドする、調整可能なズームコントロール3328のアニメーションを表示することにより、調整可能なズームコントロール3328は表示する。 As shown in FIG. 33G, in response to detecting the upward swipe gesture 3350h (or press and hold gesture), the device 600 displays the adjustable zoom control 3328 and stops displaying the zoom affordance 2622. .. The adjustable zoom control 3328 covers where in FIG. 33G the zoom affordance 2622 was previously displayed in FIG. 33F. In some embodiments, the device 600 displays an animation of an adjustable zoom control 3328 that slides from the bottom of the camera display area 604 to a position within the camera display area 604 displayed in FIG. 33G. The adjustable zoom control 3328 displays.

図33Gに示すように、調整可能なズームコントロール3328は、仮想的に回転可能な車輪又はダイヤルを模倣する回転可能なユーザインタフェースである。調整可能なズームコントロール3328は、ズームインジケーション3328a1及び複数のティックマークを含み、各ティックマークは、異なるズームレベルに対応する。調整可能なズームコントロール3328上の各ティックマークは、一部と等しい距離ではない。図3328に示すように、調整可能なズームコントロール3328は、各々が第1の距離だけ離れて表示される第1の1組のティックマーク(例えば、1×ズームインジケータ3328bの下のティックマーク)及び各々が第2の距離だけ離れて表示される第2の1組のティックマーク(例えば、1×ズームインジケータ3328bの上のティックマーク)を含む。調整可能なズームコントロール3328は、1×ズームインジケータ3328b、2×ズームインジケータ3328c、及び3×レベルインジケータ3328dを更に含み、これは、1×ズームレベル、2×ズームレベル、及び3×ズームレベルにそれぞれ対応する、調整可能なズームコントロール3328上にティックマーク(又は位置)が位置する。 As shown in FIG. 33G, the adjustable zoom control 3328 is a rotatable user interface that mimics a virtually rotatable wheel or dial. The adjustable zoom control 3328 includes a zoom-in diction 3328a1 and a plurality of tick marks, each tick mark corresponding to a different zoom level. Each tick mark on the adjustable zoom control 3328 is not a partial distance. As shown in FIG. 3328, the adjustable zoom controls 3328 each have a first set of tick marks (eg, 1 × tick marks below the zoom indicator 3328b) that are displayed at a distance of a first distance. Each contains a second set of tick marks (eg, tick marks on the 1x zoom indicator 3328b) that are displayed a second distance apart. The adjustable zoom control 3328 further includes a 1x zoom indicator 3328b, a 2x zoom indicator 3328c, and a 3x level indicator 3328d, which are at 1x zoom level, 2x zoom level, and 3x zoom level, respectively. A tick mark (or position) is located on the corresponding adjustable zoom control 3328.

図33Gに示すように、上向きスワイプジェスチャ3350h(又はプレスアンドホールドジェスチャ)を検出したことに応答して、デバイス600は、2×ズームインジケータ3328cで標識されたティックマークに対応する、調整可能なズームコントロール3328上の位置にズームインジケーション3328a1を表示する。ここで、デバイス600は、実質的に調整可能なズームコントロール3328の中心にある位置で、2×ズームインジケータ3328cと位置合わせされたズームインジケーション3328a1を表示する。換言すれば、調整可能なズームコントロール3328が最初に表示されると、デバイス600は、ライブプレビュー630の現在のズームレベル(例えば、2×ズームレベル)に対応する調整可能なズームコントロール上の位置(例えば、中央位置)にズームインジケーション3328a1を表示する。更には、デバイス600は、選択されているものとして2×ズームインジケータ3328cを表示することによって、2×ズームレベルが選択されることを表示する。いくつかの実施形態では、調整可能なズームコントロール3328が最初に表示されると(又は調整可能なズームコントロール3328が表示された後の第1の時点で)、デバイス600は、ズームアフォーダンス2622のそれぞれに対応するズームインジケータを同時に表示する。図33Gでは、デバイス600は、ズームコントロール3328に対応する場所での右向きスワイプジェスチャ3350iを検出する。 As shown in FIG. 33G, in response to detecting an upward swipe gesture 3350h (or press and hold gesture), the device 600 corresponds to an adjustable zoom corresponding to a tick mark labeled with a 2x zoom indicator 3328c. The zoom-in gesture 3328a1 is displayed at a position on the control 3328. Here, the device 600 displays the zoom-in dication 3328a1 aligned with the 2x zoom indicator 3328c at a position substantially central to the adjustable zoom control 3328. In other words, when the adjustable zoom control 3328 is first displayed, the device 600 is placed on the adjustable zoom control position (eg, 2x zoom level) corresponding to the current zoom level of the live preview 630 (eg, 2x zoom level). For example, the zoom-in display 3328a1 is displayed at the center position). Further, the device 600 indicates that the 2x zoom level is selected by displaying the 2x zoom indicator 3328c as being selected. In some embodiments, when the adjustable zoom control 3328 is first displayed (or at the first time point after the adjustable zoom control 3328 is displayed), the device 600 is set to each of the zoom affordances 2622. Display the corresponding zoom indicator at the same time. In FIG. 33G, device 600 detects a rightward swipe gesture 3350i at a location corresponding to zoom control 3328.

図33Gに示すように、右向きスワイプジェスチャ3350iを検出したことに応答して、デバイス600は、右向きスワイプジェスチャ3350iの大きさに基づいて、調整可能なズームコントロール3328を時計方向に回転する。デバイス600が調整可能なズームコントロール3328を回転させると、デバイス600は、調整可能なズームコントロール3328上のティックマークを、それらが以前に表示された位置に対して時計方向である位置に動かす。更に、右向きスワイプジェスチャ3350iを検出したことに応答して、デバイス600は、2×ズームインジケータ3328cを、1.7×ズームインジケータ3328eに置き換え、かつ実質的に調整可能なズームコントロール3328の中心の位置にズームインジケーション3328a1を維持する。それにより、図33Gにおいて、デバイス600は、1.7×ズームインジケータ3328eと位置合わせされているようにズームインジケーション3328a1を表示し、デバイス600は、選択されているものとして1.7×ズームインジケータ3328eを表示する。図33Hでは、デバイス600は、ズームコントロール3328に対応する第2の場所での右向きスワイプジェスチャ3350iのリフトオフを検出する。 As shown in FIG. 33G, in response to detecting the rightward swipe gesture 3350i, the device 600 rotates the adjustable zoom control 3328 clockwise based on the size of the rightward swipe gesture 3350i. When the device 600 rotates the adjustable zoom control 3328, the device 600 moves the tick marks on the adjustable zoom control 3328 to a position where they are clockwise with respect to the previously displayed position. Further, in response to detecting the rightward swipe gesture 3350i, the device 600 replaces the 2x zoom indicator 3328c with a 1.7x zoom indicator 3328e and is a substantially adjustable center position of the zoom control 3328. The zoom-in gesture 3328a1 is maintained. Thereby, in FIG. 33G, the device 600 displays the zoom-in diction 3328a1 so as to be aligned with the 1.7 × zoom indicator 3328e, and the device 600 assumes that it is selected 1.7 × zoom indicator. 3328e is displayed. In FIG. 33H, device 600 detects lift-off of the rightward swipe gesture 3350i at a second location corresponding to zoom control 3328.

図33Iに示すように、右向きスワイプジェスチャ3350iのリフトオフを検出した後の第1の時間において、デバイス600は、調整可能なズームコントロール3328の表示を停止し、かつ0.5×ズームアフォーダンス2622a及び2×ズームアフォーダンス2622cを、図33Fにそれらが以前に表示された場所で再表示する。しかしながら、デバイス600は、1×ズームアフォーダンス2622bの表示を停止し、かつ1.7×ズームアフォーダンス2622iを、図33Fにおいて1×ズームアフォーダンス2622bの以前に表示された場所に表示する。これは、少なくとも調整可能なズームコントロールが1.7×ズームレベルに設定されているためであり、1.7×ズームレベルは、ズームアフォーダンスを置き換えるためのズームレベルの範囲の間(例えば、1×と2×との間などの所定の範囲)にある。1.7×ズームアフォーダンス2622jはまた、選択されているものとして表示される(図33Bにおいて2×ズームアフォーダンス2622c関連して上述したように)。ズームアフォーダンスを表示することにに加えて、デバイス600はまた、ライブプレビュー630のズームレベルを、1.7×ズームレベルに更新する。いくつかの実施形態では、デバイス600は、右向きスワイプジェスチャ3350iを検出したことに応答して、及び右向きスワイプジェスチャ3350iのリフトオフを検出する前に、ライブプレビュー630のズームレベルを更新する。図33Iでは、デバイス600は、0.5×ズームアフォーダンス2622aに対応する場所でのタップジェスチャ3350jを検出する。 As shown in FIG. 33I, at the first time after detecting the lift-off of the rightward swipe gesture 3350i, the device 600 stops displaying the adjustable zoom control 3328 and 0.5 × zoom affordances 2622a and 2 × Zoom affordances 2622c are redisplayed in FIG. 33F where they were previously displayed. However, the device 600 stops displaying the 1x zoom affordance 2622b and displays the 1.7x zoom affordance 2622i at a previously displayed location of the 1x zoom affordance 2622b in FIG. 33F. This is because at least the adjustable zoom control is set to 1.7x zoom level, where 1.7x zoom level is between the range of zoom levels to replace the zoom affordance (eg 1x). It is in a predetermined range (such as between and 2x). The 1.7 × zoom affordance 2622j is also displayed as selected (as described above in connection with the 2 × zoom affordance 2622c in FIG. 33B). In addition to displaying the zoom affordance, the device 600 also updates the zoom level of the live preview 630 to 1.7 x zoom level. In some embodiments, the device 600 updates the zoom level of the live preview 630 in response to detecting a right-pointing swipe gesture 3350i and before detecting a lift-off of the right-pointing swipe gesture 3350i. In FIG. 33I, the device 600 detects a tap gesture 3350j at a location corresponding to 0.5 × zoom affordance 2622a.

図33Jに示すように、タップジェスチャ3350jを検出したことに応答して、デバイス600は、ライブプレビュー630のズームレベルを0.5×ズームレベルに更新する。更に、タップジェスチャ3350jを検出したことに応答して、デバイス600は、ライブプレビュー630がデフォルトズームレベル(例えば、ズームアフォーダンス2622のうちの1つに対応するズームレベル)で表示されるため、1.7×ズームアフォーダンス2622jの表示を、2×ズームアフォーダンス2622hで置き換える。図33Jに示すように、デバイス600はまた、図33Cにおいてライブプレビュー630が0.5×ズームレベルで表示されたとき、カメラユーザインタフェースを表示することに関連して上述したものと同様の技術を使用して、カメラユーザインタフェースを更新する。図33Jでは、デバイス600は、0.5×ズームアフォーダンス2622aに対応する場所での上向きスワイプジェスチャ3350kを検出する。あるいは、デバイス600デバイスは、0.5×ズームアフォーダンス2622aに対応する場所でのプレスアンドホールドジェスチャを検出する。 As shown in FIG. 33J, in response to detecting the tap gesture 3350j, the device 600 updates the zoom level of the live preview 630 to 0.5 × zoom level. Further, in response to detecting the tap gesture 3350j, the device 600 displays the live preview 630 at the default zoom level (eg, the zoom level corresponding to one of the zoom affordances 2622). The display of 7 × zoom affordance 2622j is replaced with 2 × zoom affordance 2622h. As shown in FIG. 33J, the device 600 also uses a technique similar to that described above in connection with displaying the camera user interface when the live preview 630 is displayed at 0.5 × zoom level in FIG. 33C. Use to update the camera user interface. In FIG. 33J, the device 600 detects an upward swipe gesture 3350k at a location corresponding to 0.5 × zoom affordance 2622a. Alternatively, the device 600 device detects a press-and-hold gesture at a location corresponding to 0.5 × zoom affordance 2622a.

図33Kに示すように、上向きスワイプジェスチャ3350k(又はプレスアンドホールドジェスチャ)を検出したことに応答して、デバイス600は、調整可能なズームコントロール3328の中心の位置にズームインジケーション3328a1を表示する。上向きスワイプジェスチャ3350kが検出される直前に、ライブプレビュー630が0.5×ズームレベルで表示されたため、デバイス600は、0.5×ズームインジケータ3328aと位置合わせされたズームインジケーション3328a1を表示する。更には、デバイス600は、カメラユーザインタフェース及びデバイス600がカメラユーザインタフェースを表示することに関連して使用された0.5×ズームレベルが選択されるときの調整可能なズームコントロール3328及び2×ズームレベルが図33Gにおいて選択されたときの調整可能なズームコントロール3328を表示するのと同様の技術を使用する。図33Kでは、デバイス600は、ズームコントロール3328に対応する場所での左向きスワイプジェスチャ3350lを検出する。 As shown in FIG. 33K, in response to detecting an upward swipe gesture 3350k (or press-and-hold gesture), the device 600 displays a zoom-in projection 3328a1 at the center position of the adjustable zoom control 3328. Just before the upward swipe gesture 3350k was detected, the live preview 630 was displayed at 0.5 × zoom level, so the device 600 displays the zoom-in projection 3328a1 aligned with the 0.5 × zoom indicator 3328a. Further, the device 600 is an adjustable zoom control 3328 and 2x zoom when the camera user interface and the 0.5x zoom level used in connection with the device 600 displaying the camera user interface are selected. A technique similar to displaying an adjustable zoom control 3328 when a level is selected in FIG. 33G is used. In FIG. 33K, the device 600 detects a leftward swipe gesture 3350l at a location corresponding to the zoom control 3328.

図33Lに示すように、ズームコントロール3328に対応する場所で左向きスワイプジェスチャ3350lを検出したことに応答して、デバイスは、左向きスワイプジェスチャ3350lの大きさに基づいて、調整可能なズームコントロール3328を反時計方向に回転する。調整可能なズームコントロール3328を回転させた後、デバイス600は、調整可能なズームコントロール3328上の中心位置で、1×ズームインジケータ3328bと位置合わせされているようにズームインジケーション3328a1を表示する。更には、デバイス600は、デバイス600が、図33Hにおいて右向きスワイプジェスチャ3350iを検出したことに応答して、カメラユーザインタフェースを表示することに関連して使用された、左向きスワイプジェスチャ3350lを検出したことに応答して、カメラユーザインタフェースを表示するのと同様の技術を使用する。図33Lでは、デバイス600は、左向きスワイプジェスチャ3350lのリフトオフを検出し、かつ左向きスワイプジェスチャ3350lのリフトオフを検出した後の第1の時間(例えば、デバイス600が調整可能なズームコントロール3328の表示を停止する時間に対応する時間)の前に、デバイス600は、ズームコントロール3328の外側及びカメラディスプレイ領域604内の場所に対応する場所に、タップジェスチャ3350mを検出する。 As shown in FIG. 33L, in response to detecting a leftward swipe gesture 3350l at a location corresponding to the zoom control 3328, the device reverses the adjustable zoom control 3328 based on the size of the leftward swipe gesture 3350l. Rotate clockwise. After rotating the adjustable zoom control 3328, the device 600 displays the zoom-in diction 3328a1 at a center position on the adjustable zoom control 3328 so that it is aligned with the 1x zoom indicator 3328b. Furthermore, the device 600 has detected the leftward swipe gesture 3350l used in connection with displaying the camera user interface in response to the device 600 detecting the rightward swipe gesture 3350i in FIG. 33H. Use a technique similar to displaying the camera user interface in response to. In FIG. 33L, the device 600 detects a lift-off of the left-pointing swipe gesture 3350l and stops displaying the first time after detecting the lift-off of the left-pointing swipe gesture 3350l (eg, the device 600 stops displaying the adjustable zoom control 3328). Before the time corresponding to the time), the device 600 detects the tap gesture 3350 m at a location corresponding to the location outside the zoom control 3328 and within the camera display area 604.

図33Mに示すように、左向きスワイプジェスチャ3350lのリフトオフを検出した後の第1の時間の前に、タップジェスチャ3350mを検出したことに応答して、デバイス600は、調整可能なズームコントロール3328の表示を停止し、かつ複数のズームアフォーダンス2622を再表示する。更には、デバイス600はまた、上述したようなものと同様の技術を使用して、1×ズームレベルでライブプレビュー630を表示する。図33Iとは対照的に、図33Mは、デバイス600がどのように調整可能なズームコントロール628の表示を停止し、かつジェスチャのリフトオフを検出した後の第1の時間まで待機する前に、調整可能なズームコントロール628上に設定されたズームレベルでライブプレビュー630を表示するかの例を示す。図33Mでは、デバイスは、0.5×ズームアフォーダンス2622aに対応する場所での上向きスワイプジェスチャ3350nを検出する。あるいは、デバイス600デバイスは、0.5×ズームアフォーダンス2622aに対応する場所でのプレスアンドホールドジェスチャを検出する。 As shown in FIG. 33M, the device 600 displays an adjustable zoom control 3328 in response to the detection of the tap gesture 3350 m before the first time after detecting the lift-off of the leftward swipe gesture 3350 l. And redisplay multiple zoom affordances 2622. Furthermore, the device 600 also displays a live preview 630 at a 1x zoom level using a technique similar to that described above. In contrast to FIG. 33I, FIG. 33M adjusts before the device 600 stops displaying the adjustable zoom control 628 and waits until the first time after detecting the lift-off of the gesture. An example of displaying the live preview 630 at the zoom level set on the possible zoom control 628 is shown. In FIG. 33M, the device detects an upward swipe gesture 3350n at a location corresponding to 0.5 × zoom affordance 2622a. Alternatively, the device 600 device detects a press-and-hold gesture at a location corresponding to 0.5 × zoom affordance 2622a.

図33Nに示すように、0.5×ズームアフォーダンス2622aに対応する場所で、上向きスワイプジェスチャ3350n(又はプレスアンドホールドジェスチャ)を検出したことに応答して、デバイス600は、調整可能なズームコントロール3328上の中心位置で、1×ズームインジケータ3328bと位置合わせされているようにズームインジケーション3328a1を表示し、かつズームアフォーダンス2622の表示を停止する。ここで、図33Nでは、デバイス600は、上向きスワイプジェスチャ3350nが検出される直前に、ライブプレビュー630が1×ズームレベルで表示されたため(例えば、カメラユーザインタフェース及び/又はライブプレビュー630の現在表示されているズームレベル)、ズームレベルではなく1×ズームインジケータ3328bと位置合わせされているようにズームインジケーション3328a1を表示する。図33Nでは、デバイス600は、ズームコントロール3328の外側及びカメラディスプレイ領域604内の場所に対応する場所に、タップジェスチャ3350oを検出する。 As shown in FIG. 33N, in response to detecting an upward swipe gesture 3350n (or press-and-hold gesture) at a location corresponding to 0.5 × zoom affordance 2622a, the device 600 adjusts the zoom control 3328. At the upper center position, the zoom-in gesture 3328a1 is displayed so as to be aligned with the 1 × zoom indicator 3328b, and the display of the zoom affordance 2622 is stopped. Here, in FIG. 33N, device 600 is currently displayed because the live preview 630 was displayed at a 1 × zoom level just before the upward swipe gesture 3350n was detected (eg, the camera user interface and / or the live preview 630 is currently displayed. The zoom level 3328a1 is displayed so that it is aligned with the 1 × zoom indicator 3328b instead of the zoom level. In FIG. 33N, the device 600 detects the tap gesture 3350o at locations that correspond to locations outside the zoom control 3328 and within the camera display area 604.

図33Oに示すように、タップジェスチャ3350oを検出した後に、デバイス600は、調整可能なズームコントロール3328の表示を停止し、かつズームアフォーダンス2622を再表示する。図33Oでは、デバイス600は、カメラディスプレイ領域604に対応する場所でのデピンチジェスチャ3350pを検出する。 As shown in FIG. 33O, after detecting the tap gesture 3350o, the device 600 stops displaying the adjustable zoom control 3328 and redisplays the zoom affordance 2622. In FIG. 33O, the device 600 detects the depinch gesture 3350p at a location corresponding to the camera display area 604.

図33Pに示すように、デピンチジェスチャ3350pを検出したことに応答して、デバイス600は、デピンチジェスチャ3350pの大きさに基づいて、2.2×ズームレベルでライブプレビュー630を表示する。加えて、デピンチジェスチャ3350pを検出したことに応答して、デバイス600は、2×ズームアフォーダンス2622cの表示を、2.2×ズームアフォーダンス2622gの表示に置き換え、ここで、2.2×ズームアフォーダンス2622gが、選択されているものとして表示されて、ライブプレビュー630が2.2×ズームレベルで表示されることを示す。ここで、デバイス600は、2.2×ズームレベルがズームアフォーダンスを置き換えるためのズームレベルを上回る(例えば、2×を上回る)であるため、2×ズームアフォーダンス2622cを、2.2×ズームアフォーダンス2622gに置き換える。図31Bに示すように、デピンチジェスチャ3150aを検出したことに応答して、デバイス600は、更に、選択されているものとして2.2×ズームアフォーダンス2622gを表示して、ライブプレビュー630が2.2×ズームレベルで表示されることを示す。図33Pでは、デバイス600は、カメラディスプレイ領域604に対応する場所でのピンチジェスチャ3350qを検出する。 As shown in FIG. 33P, in response to detecting the depinch gesture 3350p, the device 600 displays a live preview 630 at a 2.2 × zoom level based on the magnitude of the depinch gesture 3350p. In addition, in response to detecting the depinch gesture 3350p, the device 600 replaces the 2x zoom affordance 2622c display with a 2.2x zoom affordance 2622g display, where the 2.2x zoom affordance display. 2622g is displayed as selected, indicating that the live preview 630 is displayed at 2.2 × zoom level. Here, in the device 600, since the 2.2 × zoom level exceeds the zoom level for replacing the zoom affordance (for example, exceeds 2 ×), the 2 × zoom affordance 2622c is changed to the 2.2 × zoom affordance 2622g. Replace with. As shown in FIG. 31B, in response to detecting the depinch gesture 3150a, the device 600 further displays 2.2 × zoom affordance 2622g as selected, and the live preview 630 2. Indicates that it is displayed at a 2x zoom level. In FIG. 33P, the device 600 detects a pinch gesture 3350q at a location corresponding to the camera display area 604.

図33Qに示すように、ピンチジェスチャ3350qを検出したことに応答して、デバイス600は、ピンチジェスチャ3550qの大きさに基づいて、0.9×ズームレベルでライブプレビュー630を表示する。加えて、ピンチジェスチャ3350qを検出したことに応答して、デバイス600は、0.5×ズームアフォーダンス2622aの表示を、0.9×ズームアフォーダンス2622dの表示に置き換える。ここで、デバイス600は、0.9×ズームレベルがズームアフォーダンスを置き換えるための閾値ズームレベル(例えば、1×)を下回るため、0.5×ズームアフォーダンス2622aを、0.9×ズームアフォーダンス2622dに置き換える。ズームレベルが2×ズームレベルをもはや上回らないため、デバイス600はまた、2.2×ズームアフォーダンス2622gを、2×ズームアフォーダンス2622cに置き換える。ピンチジェスチャ3350qを検出したことに応答して、デバイス600は、更に、選択されているものとして0.9×ズームアフォーダンス2622dを表示して、ライブプレビュー630が0.9×ズームレベルで表示されることを示す。 As shown in FIG. 33Q, in response to detecting the pinch gesture 3350q, the device 600 displays a live preview 630 at 0.9 × zoom level based on the magnitude of the pinch gesture 3550q. In addition, in response to detecting the pinch gesture 3350q, the device 600 replaces the display of 0.5 × zoom affordance 2622a with the display of 0.9 × zoom affordance 2622d. Here, the device 600 changes the 0.5 × zoom affordance 2622a to 0.9 × zoom affordance 2622d because the 0.9 × zoom level is lower than the threshold zoom level (for example, 1 ×) for replacing the zoom affordance. replace. Since the zoom level no longer exceeds the 2x zoom level, the device 600 also replaces the 2.2x zoom affordance 2622g with a 2x zoom affordance 2622c. In response to detecting the pinch gesture 3350q, the device 600 further displays 0.9 × zoom affordance 2622d as selected and the live preview 630 is displayed at 0.9 × zoom level. Show that.

図34A〜図34Bは、いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための方法を示すフロー図である。方法3400は、表示デバイス(例えば、タッチ感知ディスプレイ)を備えたデバイス(例えば、100、300、500、600)にて行われる。方法3400のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 34A-34B are flow diagrams illustrating methods for changing the zoom level using electronic devices according to some embodiments. Method 3400 is performed on a device (eg, 100, 300, 500, 600) equipped with a display device (eg, a touch-sensitive display). Some actions of Method 3400 are optionally combined, some actions are optionally changed in order, and some actions are optionally omitted.

後述するように、方法3400は、ユーザインタフェースのズームレベルを変更するための直感的な仕方を提供する。この方法は、ユーザインタフェースのズームレベルを変更する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にズームレベルを変更することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, Method 3400 provides an intuitive way to change the zoom level of the user interface. This method reduces the cognitive burden on the user when changing the zoom level of the user interface, thereby creating a more efficient human-machine interface. For battery-powered computing devices, it saves power and prolongs the time between battery charges by enabling users to change zoom levels faster and more efficiently.

後述するように、方法3400は、キャプチャされたメディアを編集するための直感的な仕方を提供する。この方法は、メディアを編集する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアを編集することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, Method 3400 provides an intuitive way to edit the captured media. This method reduces the user's cognitive burden when editing media, thereby creating a more efficient human-machine interface. For battery-powered computing devices, it saves power and prolongs the time between battery charges by enabling users to edit media faster and more efficiently.

電子デバイス(例えば、600)は、表示デバイス(例えば、タッチ感知ディスプレイ)及び1つ以上のカメラ(例えば、電子デバイスの同じ側又は異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を含む。電子デバイスは、表示デバイスを介して、第1のズームレベル(例えば、.5×、1×、2×)で表示された1つ以上のカメラの視野の少なくとも一部分の第1の表現(例えば、630)を含むカメラユーザインタフェースを表示する(3402)。カメラユーザインタフェースは、複数のズーミングアフォーダンス(例えば、2622)(例えば、選択可能ユーザインタフェースオブジェクト)を含む。複数のズームアフォーダンスは、第1のズームアフォーダンス(例えば、2622b)(例えば、選択可能ユーザインタフェースオブジェクト)及び第2のズームアフォーダンス(例えば、2622)(例えば、選択可能ユーザインタフェースオブジェクト)を含む。いくつかの実施形態では、ズームアフォーダンスは、1つ以上のカメラの視野の表現の少なくとも一部分上に重ねて表示される。異なるズームレベルに対応する複数のズームアフォーダンスを表示することにより、ユーザが表示表現のズームレベルを変更するために必要とされる入力の数を低減する。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 An electronic device (eg, 600) includes a display device (eg, a touch-sensitive display) and one or more cameras (eg, a front camera, a rear camera) on the same or different side of the electronic device. (For example, dual camera, triple camera, quad camera, etc.). The electronic device is a first representation (eg, eg) of at least a portion of the field of view of one or more cameras displayed at a first zoom level (eg, .5x, 1x, 2x) through a display device. Display the camera user interface including 630) (3402). The camera user interface includes a plurality of zooming affordances (eg, 2622) (eg, selectable user interface objects). The plurality of zoom affordances include a first zoom affordance (eg, 2622b) (eg, selectable user interface object) and a second zoom affordance (eg, 2622) (eg, selectable user interface object). In some embodiments, the zoom affordance is overlaid on at least a portion of the field of view representation of one or more cameras. By displaying multiple zoom affordances that correspond to different zoom levels, the number of inputs required by the user to change the zoom level of the display representation is reduced. By providing additional control options without cluttering the UI with the additional controllers displayed, the user-device interface is enhanced (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.

複数のズーミングアフォーダンスを表示している間に、電子デバイスは、複数のアフォーダンスのうちの1つに向けられた第1のジェスチャ(例えば、3350c〜3350g)(例えば、タップ)を受信する(3404)(例えば、検出する)。 While displaying multiple zooming affordances, the electronic device receives a first gesture (eg, 3350c-3350g) (eg, tap) directed at one of the plurality of affordances (3404). (For example, detect).

第1のジェスチャを受信したことに応答して(3406)、及び第1のジェスチャが第1のズームアフォーダンス(例えば、2622b)(例えば、特定のズームレベル(例えば、第2のズームレベル)に対応するアフォーダンス)に向けられたジェスチャ(例えば、3350c)であるという判定に従って(3410)、電子デバイスは、第2のズームレベル(例えば、.5×、1×、2×)で、1つ以上のカメラの視野の少なくとも一部分の第2の表現(例えば、630)を表示する(3412)(例えば、第1のズームレベルで表示するように、カメラユーザインタフェースを更新する)。特定のズームアフォーダンスが選択されると表現の表示を特定のズームレベルに動的に更新することによって、特定のズームアフォーダンスに対する更新された表現のズームレベルの変化についてのフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In response to receiving the first gesture (3406), and the first gesture corresponds to a first zoom affordance (eg, 2622b) (eg, a particular zoom level (eg, a second zoom level)). According to the determination (3410) that the gesture (eg, 3350c) is directed towards an affordance), the electronic device has one or more at a second zoom level (eg, .5x, 1x, 2x). Display a second representation (eg, 630) of at least a portion of the camera's field of view (3412) (eg, update the camera user interface to display at the first zoom level). It provides the user with feedback on changes in the zoom level of the updated representation for a particular zoom affordance by dynamically updating the representation display to a particular zoom level when a particular zoom affordance is selected. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

第1のジェスチャを受信したことに応答して(3410)、及び第1のジェスチャが第2のズームアフォーダンス(例えば、特定のズームレベル(例えば、第3のズームレベル)に対応するアフォーダンス)に向けられたジェスチャ(例えば、3350f)であるという判定に従って(3416)、電子デバイスは、第3のズームレベル(例えば、.5×、1×、2×)で、1つ以上のカメラの視野の少なくとも一部分の第3の表現(例えば、630)を表示する(3418)(例えば、第2のズームレベルで表示するように、カメラユーザインタフェースを更新する)。いくつかの実施形態では、第3のズームレベルは、第1のズームレベル及び第2のズームレベルとは異なる。特定のズームアフォーダンスが選択されると表現の表示を特定のズームレベルに動的に更新することによって、特定のズームアフォーダンスに対する更新された表現のズームレベルの変化についてのフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In response to receiving the first gesture (3410), and the first gesture is directed towards a second zoom affordance (eg, an affordance corresponding to a particular zoom level (eg, a third zoom level)). According to the determination that the gesture was made (eg, 3350f) (3416), the electronic device is at least in the field of view of one or more cameras at a third zoom level (eg, .5x, 1x, 2x). Display a third representation of a portion (eg, 630) (3418) (eg, update the camera user interface to display at the second zoom level). In some embodiments, the third zoom level is different from the first zoom level and the second zoom level. It provides the user with feedback on changes in the zoom level of the updated representation for a particular zoom affordance by dynamically updating the representation display to a particular zoom level when a particular zoom affordance is selected. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

いくつかの実施形態では、第1のジェスチャが第1のズームアフォーダンスに向けられたジェスチャであるという判定に従って(3410)、電子デバイスは、第2のズームアフォーダンス(例えば、3350cに応答して、図35Bの2622c)の視覚特性を維持し(例えば、視覚特性(例えば、色、テキスト、太さ、不透明度、ハイライト)を変更しない)、第1のズームアフォーダンス(例えば、3350cに応答して、図35Bの2622b)の視覚特性を変更する(3414)(例えば、第1のズームアフォーダンスの現在の視覚特性を、第1のズームアフォーダンスの新しい視覚特性に更新する、置き換える)(例えば、視覚特性(例えば、色、テキスト、太さ、不透明度、ハイライト)を変更する)。他のズームアフォーダンスの視覚特性を維持している間にズームアフォーダンスの視覚特性を更新することにより、選択されたズームアフォーダンスの現在の状態についてのフィードバックをユーザに提供し、並びにズームアフォーダンスが選択され、及び電子デバイスが、ズームアフォーダンスに対応し、かつ他のズームアフォーダンスに対応していないズームレベルで表現を現在表示していることを示す、視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, according to the determination that the first gesture is a gesture directed to a first zoom affordance (3410), the electronic device responds to a second zoom affordance (eg, 3350c). Maintaining the visual characteristics of the 35B 2622c) (eg, not changing the visual characteristics (eg, color, text, thickness, opacity, highlights)) and responding to the first zoom affordance (eg, 3350c), Modify (3414) the visual characteristics of FIG. 35B (2622b) (eg, update or replace the current visual characteristics of the first zoom affordance with new visual characteristics of the first zoom affordance) (eg, visual characteristics (eg, visual characteristics (eg). For example, change color, text, thickness, opacity, highlights)). By updating the visual properties of the zoom affordance while maintaining the visual properties of the other zoom affordances, it provides the user with feedback on the current state of the selected zoom affordance, as well as the zoom affordance is selected. And provide the user with visual feedback indicating that the electronic device is currently displaying the representation at a zoom level that supports zoom affordances and does not support other zoom affordances. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

いくつかの実施形態では、第1のジェスチャが第2のズームアフォーダンス(例えば、特定のズームレベル(例えば、第3のズームレベル)に対応するアフォーダンス)に向けられたジェスチャであるという判定に従って(3416)、電子デバイスは、第1のズームアフォーダンス(例えば、3350fに応答して、図35Eの2622b)の視覚特性を維持し(例えば、視覚特性(例えば、色、テキスト、太さ、不透明度、ハイライト)を変更しない)、第2のズームアフォーダンス(例えば、3350fに応答して、図35Eの2622c)の視覚特性を変更する(3420)(例えば、第2のズームアフォーダンスの現在の視覚特性を、第2のズームアフォーダンスの新しい視覚特性に更新する、置き換える)(例えば、視覚特性(例えば、色、テキスト、太さ、不透明度、ハイライト)を変更する)。いくつかの実施形態では、第1のズームアフォーダンスの視覚特性及び第2のズームアフォーダンスの視覚特性は、視覚特性のタイプ(例えば、例えば、色、テキスト、太さ、不透明度、ハイライト)である。いくつかの実施形態では、視覚特性は、以前に選択されたズームアフォーダンスから新しいズームアフォーダンスに動かされる(例えば、選択された1×を示すズームアフォーダンス及び未選択の0.5を示すズームアフォーダンス、並びに第1のジェスチャを検出したことに応答して、1を示す1×を示したズームアフォーダンス及び.5×を示す5を示したズームアフォーダンス(例えば、「x」は、アフォーダンス間を動く)。いくつかの実施形態では、テキストのサイズは、選択されたアフォーダンスのズームレベルで変更する(例えば、0.5×アフォーダンスが選択されるときのテキストのサイズは、1×アフォーダンスが選択されるときのテキストのサイズよりも小さい)(例えば、ズームレベルがより大きいと、より大きなテキストを有する)。他のズームアフォーダンスの視覚特性を維持している間にズームアフォーダンスの視覚特性を更新することにより、選択されたズームアフォーダンスの現在の状態についてのフィードバックをユーザに提供し、並びにズームアフォーダンスが選択され、及び電子デバイスが、ズームアフォーダンスに対応し、かつ他のズームアフォーダンスに対応していないズームレベルで表現を現在表示していることを示す、視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, according to the determination that the first gesture is a gesture directed to a second zoom affordance (eg, an affordance corresponding to a particular zoom level (eg, a third zoom level)) (3416). ), The electronic device maintains the visual characteristics of the first zoom affordance (eg, 2622b in FIG. 35E in response to 3350f) (eg, color, text, thickness, opacity, high). (Light) is not changed), the visual characteristics of the second zoom affordance (eg, 2622c in FIG. 35E in response to 3350f) are changed (3420) (eg, the current visual characteristics of the second zoom affordance). Update or replace with new visual characteristics for the second zoom affordance (eg, change visual characteristics (eg, color, text, thickness, opacity, highlights)). In some embodiments, the visual characteristics of the first zoom affordance and the visual characteristics of the second zoom affordance are the types of visual characteristics (eg, color, text, thickness, opacity, highlight). .. In some embodiments, visual properties are moved from a previously selected zoom affordance to a new zoom affordance (eg, a zoom affordance indicating a selected 1x and a zoom affordance indicating an unselected 0.5, and In response to the detection of the first gesture, a zoom affordance indicating 1x indicating 1 and a zoom affordance indicating 5 indicating 5x (for example, "x" moves between affordances). In that embodiment, the size of the text changes at the zoom level of the selected affordance (eg, the size of the text when 0.5 × affordance is selected is 1 × the text when affordance is selected). (For example, larger zoom levels have larger text). Selected by updating the visual properties of the zoom affordance while preserving the visual properties of the other zoom affordances. Provides users with feedback on the current state of the zoom affordance, and the zoom affordance is selected, and the electronic device currently represents the representation at a zoom level that supports zoom affordance and does not support other zoom affordances. Provide users with visual feedback to indicate that they are viewing. By providing users with improved visual feedback, they can improve the usability of the device (eg, operate / interact with the device). Makes the user-device interface more efficient (by assisting the user in providing proper input when doing so and reducing user errors), plus allowing the user to use the device faster and more efficiently. By doing so, it reduces power consumption and improves the battery life of the device.

いくつかの実施形態では、第1のズームアフォーダンスの視覚特性を変更することの一部として、第1のサイズから第2のサイズへの第1のズームアフォーダンス(例えば、3350cに応答して、図35Bの2622b)のサイズを変更する(例えば、増加させる)ことのうちの1つ以上を含む。いくつかの実施形態では、第1のズームアフォーダンスの第2のサイズは、第2のズームアフォーダンスの現在のサイズ(例えば、3350cに応答して、図35Bの2622c)(例えば、第2のズームアフォーダンスが現在表示されているサイズ)とは異なり、第1のズームアフォーダンスの色を第1の色から第2の色へと変更している。いくつかの実施形態では、第1のズームアフォーダンスの第2の色は、第2のズームアフォーダンスの現在の色とは異なる(例えば、第2のズームアフォーダンスが現在表示されている色)。いくつかの実施形態では、第1のズームアフォーダンスの第1のサイズは、第2のズームアフォーダンスの現在のサイズと同じサイズである。いくつかの実施形態では、電子デバイスは、第1のサイズから第1のサイズとは異なる第2のサイズへと第1のズームアフォーダンスのサイズを増加させる。他のズームアフォーダンスの視覚特性とは異なるようにズームアフォーダンスの視覚特性を更新することにより、選択されたズームアフォーダンスの現在の状態についてのフィードバックをユーザに提供し、並びにズームアフォーダンスが選択され、及び電子デバイスが、ズームアフォーダンスに対応し、かつ他のズームアフォーダンスに対応していないズームレベルで表現を現在表示していることを示す、視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, as part of changing the visual properties of the first zoom affordance, the first zoom affordance from the first size to the second size (eg, in response to 3350c, is shown in the figure. 2622b) of 35B includes one or more of resizing (eg, increasing). In some embodiments, the second size of the first zoom affordance is the current size of the second zoom affordance (eg, 2622c in FIG. 35B in response to 3350c) (eg, the second zoom affordance). Is different from the currently displayed size), the color of the first zoom affordance is changed from the first color to the second color. In some embodiments, the second color of the first zoom affordance is different from the current color of the second zoom affordance (eg, the color in which the second zoom affordance is currently displayed). In some embodiments, the first size of the first zoom affordance is the same size as the current size of the second zoom affordance. In some embodiments, the electronic device increases the size of the first zoom affordance from a first size to a second size that is different from the first size. By updating the visual properties of the zoom affordance to be different from the visual properties of other zoom affordances, it provides the user with feedback on the current state of the selected zoom affordance, and the zoom affordance is selected and electronic. It provides the user with visual feedback that the device is currently displaying the representation at a zoom level that supports zoom affordances and does not support other zoom affordances. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

いくつかの実施形態では、電子デバイスは、第1のズームアフォーダンスの色を第1の色から第2の色に変更する。いくつかの実施形態では、第1のズームアフォーダンスの第2の色は、第2のズームアフォーダンスの現在の色とは異なる(例えば、第2のズームアフォーダンスが現在表示されている色)。いくつかの実施形態では、第1のズームアフォーダンスの第1の色は、第2のズームアフォーダンスの現在の色と同じ色である。いくつかの実施形態では、電子デバイスは、第1の色から第1の色とは異なる第2の色へと第1のズームアフォーダンスの色を変更する。他のズームアフォーダンスの視覚特性とは異なるようにズームアフォーダンスの視覚特性を更新することにより、選択されたズームアフォーダンスの現在の状態についてのフィードバックをユーザに提供し、並びにズームアフォーダンスが選択され、及び電子デバイスが、ズームアフォーダンスに対応し、かつ他のズームアフォーダンスに対応していないズームレベルで表現を現在表示していることを示す、視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the electronic device changes the color of the first zoom affordance from the first color to the second color. In some embodiments, the second color of the first zoom affordance is different from the current color of the second zoom affordance (eg, the color in which the second zoom affordance is currently displayed). In some embodiments, the first color of the first zoom affordance is the same color as the current color of the second zoom affordance. In some embodiments, the electronic device changes the color of the first zoom affordance from a first color to a second color that is different from the first color. By updating the visual properties of the zoom affordance to be different from the visual properties of other zoom affordances, it provides the user with feedback on the current state of the selected zoom affordance, and the zoom affordance is selected and electronic. It provides the user with visual feedback that the device is currently displaying the representation at a zoom level that supports zoom affordances and does not support other zoom affordances. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

いくつかの実施形態では、第2のズームレベル(例えば、.5×、1×、2×)で1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示している(例えば、第1のズームレベルで表示されるようにカメラユーザインタフェースを更新する)間に、電子デバイスは、第1のズームアフォーダンスに向けられた第2のジェスチャを受信する。いくつかの実施形態では、第1のズームアフォーダンスに向けられた第2のジェスチャ(例えば、3350d、3550g)を受信したことに応答して、及び第1のズームアフォーダンスが第1のそれぞれの基準(例えば、2622b)を満たすという判定に従って、電子デバイスは、第4のズームレベル(例えば、.5×、1×、2×)で、1つ以上のカメラの視野の少なくとも一部分の第4の表現を表示する(例えば、第1のズームレベルで表示されるように、カメラユーザインタフェースを更新する)。いくつかの実施形態では、第1のそれぞれの基準は、ズームアフォーダンスがズームレベルを循環させることができるアフォーダンスのタイプであると満たされる1つ以上の基準を含み、ズームアフォーダンスは、複数のズームアフォーダンスの特定の位置(例えば、中心位置)に表示され、ズームアフォーダンスは、カメラユーザインタフェース上の特定の場所(例えば、中心場所)上に表示される。特定のアフォーダンス上の複数の入力を受信したことに応答して、表現を異なるズームレベルに更新することにより、ユーザインタフェースを雑然とさせることなく、あるズームアフォーダンスが電子デバイスのズームレベル間で変更できるように、デバイスの追加のコントロールを提供する。表示される追加コントローラによってUIを雑然とさせることなく、追加制御できるようにすることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, a second zoom level (eg, .5x, 1x, 2x) displays a second representation of at least a portion of the field of view of one or more cameras (eg, a second). While updating the camera user interface to be displayed at a zoom level of 1), the electronic device receives a second gesture directed to the first zoom affordance. In some embodiments, in response to receiving a second gesture directed at the first zoom affordance (eg, 3350d, 3550g), and the first zoom affordance is the first criterion (eg, 3350d, 3550g). For example, according to the determination that 2622b) is satisfied, the electronic device makes a fourth representation of at least a portion of the field of view of one or more cameras at a fourth zoom level (eg, .5x, 1x, 2x). Display (eg, update the camera user interface to display at the first zoom level). In some embodiments, each of the first criteria comprises one or more criteria that are satisfied that the zoom affordance is a type of affordance that can circulate the zoom level, and the zoom affordance is a plurality of zoom affordances. Is displayed at a specific position (eg, center position), and the zoom affordance is displayed at a specific location (eg, center location) on the camera user interface. By updating the representation to different zoom levels in response to receiving multiple inputs on a particular affordance, one zoom affordance can be changed between the zoom levels of the electronic device without cluttering the user interface. As such, it provides additional control for the device. The additional controller displayed allows additional control without cluttering the UI, which enhances the usability of the device and makes the user-device interface (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.

いくつかの実施形態では、第1のズームアフォーダンスに向けられた第2のジェスチャ(例えば、3350d、3550g)を受信したことに応答して、及び第1のズームアフォーダンスが第2のそれぞれの基準(例えば、2622c)を満たすという判定に従って、電子デバイスは、第4のズームレベルで、1つ以上のカメラの視野の少なくとも部分の第4の表現を表示するのをやめ、かつ第2のズームレベル(例えば、以前のズームレベル)で、1つ以上のカメラの視野の部分の第2の表現の表示を維持する(例えば、ズームレベルを変更しない)。いくつかの実施形態では、第2のそれぞれの基準は、ズームアフォーダンスがズームレベルを循環させることができないアフォーダンスのタイプであると満たされる1つ以上の基準を含み、ズームアフォーダンスは、複数のズームアフォーダンスの特定の位置(例えば、中心位置でない、中心位置の左又は右、最左端又は最右端のズームアフォーダンス)に表示され、ズームアフォーダンスは、カメラユーザインタフェース上の特定の場所(例えば、中心の左又は右)上に表示される。特定のアフォーダンス上で複数の入力を受信したことに応答して、表現を異なるズームレベルに更新するのをやめることにより、アフォーダンスが複数のズームレベルに進むために使用されることができず、かつあるズームレベルのみに関連付けられていることをユーザが迅速に判定する視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in response to receiving a second gesture directed at the first zoom affordance (eg, 3350d, 3550g), and the first zoom affordance is the second criterion (eg, 3350d, 3550g). For example, according to the determination to satisfy 2622c), the electronic device ceases to display the fourth representation of at least a portion of the field of view of one or more cameras at the fourth zoom level, and the second zoom level (2). For example, the previous zoom level) maintains the display of the second representation of the field of view portion of one or more cameras (eg, does not change the zoom level). In some embodiments, each of the second criteria comprises one or more criteria that are satisfied that the zoom affordance is a type of affordance in which the zoom level cannot be circulated, and the zoom affordance is a plurality of zoom affordances. Appears at a particular location (eg, not at the center, left or right of the center, leftmost or rightmost zoom affordance), and the zoom affordance is at a particular location on the camera user interface (eg, left or right of the center). Right) Displayed above. By stopping updating the representation to different zoom levels in response to receiving multiple inputs on a particular affordance, the affordance cannot be used to advance to multiple zoom levels, and It provides visual feedback that allows the user to quickly determine that it is associated only with a certain zoom level. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

いくつかの実施形態では、第1のジェスチャは、第1のタイプのジェスチャ(例えば、タップ)である。いくつかの実施形態では、電子デバイスは、第1のズームアフォーダンスに向けられた第3のジェスチャ(例えば、3350h)を受信する。いくつかの実施形態では、第3のジェスチャは、ジェスチャの第1のタイプ(例えば、タップ)とは異なる第2のタイプのジェスチャ(例えば、プレスアンドホールドジェスチャ又は上スワイプジェスチャ)である。いくつかの実施形態では、第1のズームアフォーダンスに向けられた第3のジェスチャを受信したことに応答して、電子デバイスは、第1の現在表示されている表現のズームレベルを変更するコントロール(例えば、3328)(例えば、スクロールホイール、スライダ)を表示する。いくつかの実施形態では、第1の現在表示されている表現のズームレベルを変更するコントロールは、第1の現在表示されている表現の現在のズームレベルの第1のインジケーション(例えば、図33Iの3328a1)を含む。いくつかの実施形態では、コントロールは、視覚表現(例えば、コントロール上の第1及び第2のズームレベル(又は複数のアフォーダンス内の各アフォーダンスに対応する他のズームレベル)のテキストインジケーション((例えば、.5×、1×、2×)))を有する。アイコンに向けられたタップジェスチャに関連付けられた動作を実行することないが、ユーザがアフォーダンスに向かうスワイプ又は長いプレスジェスチャを提供すると、表現のズームレベルを変更するコントロールを表示することにより、ユーザが意図せずに動作を実行することを回避するのを手助けし、かつユーザが選択されたズームアフォーダンスに対応しないズームレベルで表現を表示できないことをユーザが同時に認識できるようにすることによって、デバイスの更なるコントロールをユーザに提供する。表示される追加コントローラによってUIを雑然とさせることなく、追加制御できるようにすることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the first gesture is a first type of gesture (eg, tap). In some embodiments, the electronic device receives a third gesture (eg, 3350h) directed at the first zoom affordance. In some embodiments, the third gesture is a second type of gesture (eg, press and hold gesture or top swipe gesture) that is different from the first type of gesture (eg, tap). In some embodiments, the electronic device changes the zoom level of the first currently displayed representation in response to receiving a third gesture directed to the first zoom affordance (a control that changes the zoom level of the first currently displayed representation ( For example, 3328) (eg, scroll wheel, slider) is displayed. In some embodiments, the control that changes the zoom level of the first currently displayed representation is the first indication of the current zoom level of the first currently displayed representation (eg, FIG. 33I). 3328a1) is included. In some embodiments, the control is a text indication of a visual representation (eg, a first and second zoom level on the control (or another zoom level corresponding to each affordance in a plurality of affordances) (eg,). , .5 × 1 × 2 ×)))). When the user provides a swipe towards affordance or a long press gesture without performing the action associated with the tap gesture directed at the icon, the user intends by displaying a control that changes the zoom level of the expression. By helping to avoid performing actions without, and allowing the user to simultaneously recognize that the representation cannot be displayed at a zoom level that does not correspond to the selected zoom affordance. Provides control to the user. The additional controller displayed allows additional control without cluttering the UI, which enhances the usability of the device and makes the user-device interface (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.

いくつかの実施形態では、第1の現在表示されている表現のズームレベルを変更するコントロールを表示している間に、電子デバイスは、ズームレベルを変更するコントロールに向けられた第4のジェスチャ(例えば、3350i)(例えば、調整可能なコントロールに向けられたスワイプ又はドラッグジェスチャ)を受信する。いくつかの実施形態では、ズームレベルを変更するコントロールに向けられた第4のジェスチャを受信したことに応答して、電子デバイスは、ズームレベルを変更するコントロール上に第5のズームレベルの第2のインジケーション(例えば、図33Hの3328a1)(例えば、特定のズームレベルが選択されるインジケーション)を表示し、かつ第5のズームレベルで、1つ以上のカメラの視野の第4の表現(例えば、630)を表示する。いくつかの実施形態では、第1のインジケーションは、表示を停止される。いくつかの実施形態では、第1のインジケーションは、現在表示されている表現の現在のズームレベルの位置から第5のズームレベルへ動く。いくつかの実施形態では、第4の表現を、以前に表示表現の表示に置き換える。 In some embodiments, the electronic device is directed to a fourth gesture directed at the control that changes the zoom level while displaying the control that changes the zoom level of the first currently displayed representation. For example, 3350i) (eg, a swipe or drag gesture directed at an adjustable control) is received. In some embodiments, in response to receiving a fourth gesture directed at a control that changes the zoom level, the electronic device has a second zoom level on the control that changes the zoom level. (Eg, 3328a1 in FIG. 33H) (eg, an indication in which a particular zoom level is selected), and at a fifth zoom level, a fourth representation of the field of view of one or more cameras (eg, For example, 630) is displayed. In some embodiments, the first indication is stopped displaying. In some embodiments, the first indication moves from the position of the current zoom level of the currently displayed representation to the fifth zoom level. In some embodiments, the fourth expression is previously replaced by the display of the display expression.

いくつかの実施形態では、第1の現在表示されている表現のズームレベルの第1のインジケーション(例えば、3328a1)は、第1の現在表示されている表現のズームレベルを変更するコントロール上の選択されたズームレベルに対応する位置(例えば、中央位置)に表示される。いくつかの実施形態では、ズームレベルを変更するコントロールに向けられたジェスチャが受信されるとき、新しいズームレベルは、選択されたズームレベルに対応する位置に表示され、かつ現在(例えば、以前に)選択されたズームレベルのズームレベルは、現在表示されている表現のズームレベルを変更するコントロール上の別の位置に表示される。現在表示されている表現のズームレベルを変更するコントロールを、現在表示されている表現のズームレベルで更新することであって、ズームレベルは、ズームコントロール上の所定の位置に表示される、更新することにより、ユーザは、現在表示されている表現のズームレベルを迅速に判定することができ、かつ現在表示されている表現の現在のズームレベルを示す、視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the first indication of the zoom level of the first currently displayed representation (eg, 3328a1) is on the control that changes the zoom level of the first currently displayed representation. It is displayed at the position corresponding to the selected zoom level (for example, the center position). In some embodiments, when a gesture directed to a control that changes the zoom level is received, the new zoom level is displayed at the position corresponding to the selected zoom level and is now (eg, previously). The zoom level of the selected zoom level is displayed at a different position on the control that changes the zoom level of the currently displayed representation. To update the control that changes the zoom level of the currently displayed representation with the zoom level of the currently displayed representation, the zoom level is displayed at a predetermined position on the zoom control. This allows the user to quickly determine the zoom level of the currently displayed representation and provides the user with visual feedback indicating the current zoom level of the currently displayed representation. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

いくつかの実施形態では、第1の現在表示されている表現のズームレベルを変更するコントロール(例えば、3328)は、回転可能なユーザインタフェース要素(例えば、仮想的に回転可能な車輪又はダイヤル)である。 In some embodiments, the control that changes the zoom level of the first currently displayed representation (eg, 3328) is a rotatable user interface element (eg, a virtually rotatable wheel or dial). be.

いくつかの実施形態では、電子デバイスは、第1の現在表示されている表現のズームレベルを変更するコントロール(例えば、3228)(例えば、スクロールホイール、スライダ)を表示し、複数のズームアフォーダンス(例えば、2622)の表示を、第1の現在表示されている表現のズームレベルを変更するコントロールの表示に置き換えること(例えば、又は表示を停止すること)を含む。ズームレベルアフォーダンスを、ズームアフォーダンスを変更するコントロールに置き換えることによって、ユーザが意図せずに動作を実行することを回避するのを手助けし、かつ追加のズームアフォーダンスでUIを雑然とさせることなく、ズームアフォーダンスを使用することができず、及び拡張されたコントロールを提供する(例えば、ズームアフォーダンスよりも大きいズームレベルに変化することができる)ことをユーザが同時に認識できるようにすることによって、デバイスのより多くのコントロールをユーザに提供する。表示される追加コントローラによってUIを雑然とさせることなく、追加制御できるようにすることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the electronic device displays controls (eg, 3228) (eg, scroll wheels, sliders) that change the zoom level of the first currently displayed representation, and multiple zoom affordances (eg, eg). , 2622) includes replacing (or stopping the display) with the display of a control that changes the zoom level of the first currently displayed representation. By replacing the zoom level affordance with a control that changes the zoom affordance, it helps the user avoid performing actions unintentionally, and zooms without cluttering the UI with additional zoom affordances. By allowing the user to simultaneously recognize that affordances cannot be used and that they provide extended control (eg, they can change to a zoom level higher than the zoom affordance). Provides users with a lot of control. The additional controller displayed allows additional control without cluttering the UI, which enhances the usability of the device and makes the user-device interface (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.

いくつかの実施形態では、第3のジェスチャ(例えば、3350h)は、第1の方向への移動を含む(例えば、第1の方向に向けられる)。いくつかの実施形態では、第4のジェスチャ(例えば、3350i)は、第1の方向(例えば、第2の方向は、第1の方向に対して相対的に直角な、反対側でない、及び/又は平行ではない)とは異なる第2の方向への移動を含む(例えば、第2の方向に向けられる)。 In some embodiments, the third gesture (eg, 3350h) involves moving in a first direction (eg, pointing in a first direction). In some embodiments, the fourth gesture (eg, 3350i) is in the first direction (eg, the second direction is relatively perpendicular to the first direction, not on the opposite side, and / Includes movement in a second direction that is different from (or not parallel) (eg, directed in a second direction).

いくつかの実施形態では、ズームレベルを変更するコントロールに向けられた第4のジェスチャ(例えば、3350i)を受信した後に、電子デバイスは、第4のジェスチャのリフトオフを検出する。いくつかの実施形態では、第4のジェスチャのリフトオフを検出した後に、及び所定の時間枠内でズームレベルを変更するコントロールに向けられたジェスチャがないという判定に従って、電子デバイスは、ズームレベルを変更するコントロールの表示を停止する。いくつかの実施形態では、所定の時間枠内でズームレベルを変更するコントロールに向けられたジェスチャがないという判定に従って、電子デバイスは、ズームレベルを変更するコントロールの表示をやめる又は停止する。ズームアフォーダンスを変更するコントロールを、ズームレベルアフォーダンスに置き換えることによって、ユーザが意図せずに動作を実行することを回避するのを手助けし、かつ追加のズームアフォーダンスでUIを雑然とさせることなく、ズームアフォーダンスを使用することができ、及び表現の追加の表示を提供することをユーザが同時に認識できるようにすることによって、デバイスのより多くのコントロールをユーザができる。表示される追加コントローラによってUIを雑然とさせることなく、追加制御できるようにすることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the electronic device detects a lift-off of the fourth gesture after receiving a fourth gesture (eg, 3350i) directed at a control that changes the zoom level. In some embodiments, the electronic device changes the zoom level after detecting a lift-off of the fourth gesture and according to the determination that there is no gesture directed to the control that changes the zoom level within a predetermined time frame. Stop displaying controls. In some embodiments, the electronic device stops or stops displaying the control that changes the zoom level, depending on the determination that there is no gesture directed to the control that changes the zoom level within a predetermined time frame. Replacing the control that changes the zoom affordance with a zoom level affordance helps prevent the user from performing unintentional actions, and zooms without cluttering the UI with additional zoom affordances. By allowing affordances to be used and simultaneously recognizing that the user provides an additional display of expressions, the user has more control over the device. The additional controller displayed allows additional control without cluttering the UI, which enhances the usability of the device and makes the user-device interface (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.

いくつかの実施形態では、第1の現在表示されている表現のズームレベルを変更するコントロールを表示することの一部として、電子デバイスは、調整可能なコントロール上に複数の視覚インジケータ(例えば、図3Lの3228a〜c)(例えば、複数のインジケータの第1の視覚インジケータは、調整可能なコントロール上の第1の位置に表示され、複数の視覚インジケータの第2の視覚インジケータは、調整可能なコントロール上の第1の位置とは異なる調整可能なコントロール上の第2の位置に表示される)を同時に表示する。いくつかの実施形態では、ズームアフォーダンスに対応する複数のズームレベル(例えば、2622)のそれぞれ(例えば、複数の視覚インジケータの異なる対応する視覚インジケータによって表される(例えば、第1のズームアフォーダンスは、第1のインジケータによって表される、第2のズームアフォーダンスは、第2のインジケータによって表される)、複数のズームアフォーダンス(例えば、第1のズームアフォーダンス及び第2のズームアフォーダンス)のそれぞれに対応する各ズームレベル(例えば、第1のズームアフォーダンスの第2のズームレベル、第2のズームアフォーダンスの第3のズームレベル)。いくつかの実施形態では、複数の視覚インジケータのそれぞれは、他の視覚インジケータ(例えば、固有のテキスト(例えば、0.5×、1×、2×)、色、サイズ)とは異なる固有の視覚特性を有する。ズームレベルを調整するコントロール上にズームアフォーダンスのズームレベルを表示することにより、ズームアフォーダンスに関連する現在のズームレベルについてのフィードバックをユーザに提供し、かつズームレベルがズームアフォーダンスとともに変化されると、表現のうちのより多くが表示されるように、コントロールを使用することなく、ユーザが現在表示されている表現のズームレベルを変更することができることを示す、視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, as part of displaying a control that changes the zoom level of the first currently displayed representation, the electronic device has multiple visual indicators (eg, diagrams) on the adjustable control. 3L 3228a-c) (eg, the first visual indicator of the plurality of indicators is displayed in the first position on the adjustable control, and the second visual indicator of the plurality of visual indicators is the adjustable control. (Displayed in a second position on the adjustable control that is different from the first position above) is displayed at the same time. In some embodiments, each of the plurality of zoom levels (eg, 2622) corresponding to the zoom affordance (eg, the first zoom affordance is represented by different corresponding visual indicators of the plurality of visual indicators). The second zoom affordance, represented by the first indicator, corresponds to each of a plurality of zoom affordances (eg, a first zoom affordance and a second zoom affordance). Each zoom level (eg, a second zoom level of a first zoom affordance, a third zoom level of a second zoom affordance). In some embodiments, each of the plurality of visual indicators is another visual indicator. It has unique visual characteristics that are different from the unique text (eg, 0.5x, 1x, 2x), color, size). Display the zoom level of the zoom affordance on the control that adjusts the zoom level. Use the controls to provide the user with feedback about the current zoom level associated with the zoom affordance, and to display more of the representation as the zoom level changes with the zoom affordance. Provide the user with visual feedback indicating that the user can change the zoom level of the currently displayed representation without having to operate the device by providing the user with improved visual feedback. Improves sexuality and makes the user-device interface more efficient (for example, by assisting the user in providing appropriate input when manipulating / interacting with the device and reducing user error). In addition, it reduces power usage and improves device battery life by allowing users to use the device faster and more efficiently.

いくつかの実施形態では、第1のジェスチャを受信したことに応答して、及び第1のジェスチャが複数のズーミングアフォーダンス(例えば、3350b)のうちの少なくとも1つに向けられておらず、表現の第1の部分に向けられているという判定に従って、電子デバイスは、第1のジェスチャの場所に焦点を合わせるように、電子デバイスを構成する(及び任意選択的に、第1のジェスチャの場所で1つ以上のカメラの視野の特性に基づいて、露出又はホワイトバランスなどの1つ以上の他のカメラ設定が設定される)。 In some embodiments, in response to receiving a first gesture, and the first gesture is not directed to at least one of a plurality of zooming affordances (eg, 3350b), the expression. According to the determination that it is directed to the first portion, the electronic device configures the electronic device to focus on the location of the first gesture (and optionally 1 at the location of the first gesture). One or more other camera settings, such as exposure or white balance, are set based on the field of view characteristics of one or more cameras).

いくつかの実施形態では、第1のジェスチャを受信したことに応答して、及び第1のジェスチャが複数のズーミングアフォーダンスのうちの少なくとも1つに向けられておらず、表現(例えば、3350a)の第2の部分に向けられているという判定に従って、電子デバイスは、第1のジェスチャの場所に焦点を合わせるように、電子デバイスを構成するのをやめる(及び任意選択的に、第1のジェスチャの場所で1つ以上のカメラの視野の特性に基づいて、露出又はホワイトバランスなどの1つ以上の他のカメラ設定が設定するのをやめる)。いくつかの実施形態では、第2の部分は、第2の領域内に表示される。いくつかの実施形態では、第2の領域は、第1の領域から視覚的に区別される(例えば、暗色外観を有する)(例えば、1つ以上のカメラの視野の第2の部分上に半透明のオーバーレイを有する)。いくつかの実施形態では、第2の領域は、第1の領域と比較して、暗色外観を有する。いくつかの実施形態では、第2の領域は、カメラユーザインタフェース内の第1の領域の上方及び/又は下方に位置する。 In some embodiments, in response to receiving the first gesture, and the first gesture is not directed to at least one of the plurality of zooming affordances, the representation (eg, 3350a). According to the determination that it is directed to the second part, the electronic device ceases to configure the electronic device to focus on the location of the first gesture (and optionally, of the first gesture. Stop setting one or more other camera settings such as exposure or white balance based on the field of view characteristics of one or more cameras in place). In some embodiments, the second part is displayed within the second area. In some embodiments, the second region is visually distinguished from the first region (eg, has a dark appearance) (eg, half over the second portion of the field of view of one or more cameras). Has a transparent overlay). In some embodiments, the second region has a darker appearance as compared to the first region. In some embodiments, the second region is located above and / or below the first region within the camera user interface.

いくつかの実施形態では、1つ以上のカメラの視野の少なくとも一部分の第2の表現は、1つ以上のカメラのうちの第1のカメラの視野の少なくとも一部分の表現である(例えば、図31の3180b)(例えば、第1のタイプのカメラ(例えば、異なる幅の異なるレンズを有するカメラ(例えば、超広角、広角、望遠写真カメラ))。いくつかの実施形態では、1つ以上のカメラの視野の少なくとも一部分の第3の表現は、1つ以上のカメラのうちの第2のカメラの視野の少なくとも一部分の表現である(例えば、図31の3180c)(例えば、第2のタイプのカメラ(例えば、異なる幅の異なるレンズを有するカメラ(例えば、超広角、広角、望遠写真カメラ))。いくつかの実施形態では、第1のカメラは、第2のカメラとは異なる(例えば、第1のタイプのカメラは、第2のタイプのカメラとは異なる;第1のカメラのレンズは、キャプチャする(例えば、又は第2のカメラのレンズとは異なる幅の少なくとも1つの画像をキャプチャできる(例えば、キャプチャするように構成された))。 In some embodiments, the second representation of at least a portion of the field of view of one or more cameras is a representation of at least a portion of the field of view of the first camera of the one or more cameras (eg, FIG. 31). 3180b) (eg, first type cameras (eg, cameras with different lenses of different widths (eg, ultra-wide-angle, wide-angle, telephoto cameras)). In some embodiments, of one or more cameras. The third representation of at least a portion of the field of view is a representation of at least a portion of the field of view of the second camera of one or more cameras (eg, 3180c in FIG. 31) (eg, a second type of camera (eg, a second type of camera). For example, a camera with different lenses of different widths (eg, ultra-wide-angle, wide-angle, telephoto camera). In some embodiments, the first camera is different from the second camera (eg, the first camera). A type of camera is different from a second type of camera; the lens of the first camera can capture (eg, or at least one image of a different width than the lens of the second camera). It was configured to capture)).

いくつかの実施形態では、第2のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示することの一部として、電子デバイスは、第2のズームレベルが第6のズームレベル(例えば、0.5×ズームレベル)であるという判定に従って(及び/又は1つ以上のカメラの視野の部分が第1のタイプのカメラの視野の一部分であるという判定に従って(例えば、第2のタイプのカメラよりも広いレンズ(例えば、超広角レンズ)を有するカメラ))、第1の視覚外観(例えば、半透明の、第2の視覚外観よりも不透明度が低い)を有する第2の表現の一部分(例えば、領域604)を表示し、第2のズームレベルが第6のズームレベルとは異なる第7のズームレベルであるという判定に従って(及び/又は1つ以上のカメラの視野の部分が第1のタイプのカメラとは異なる第2のタイプのカメラの視野の一部分であるという判定に従って(例えば、第2のタイプのカメラよりも広いレンズ(例えば、超広角レンズ)を有するカメラ)(例えば、第1のタイプのカメラよりも狭いレンズ(例えば、望遠写真)を有するカメラ))、第1の視覚外観とは異なる第2の視覚外観(例えば、グレーアウト、ブラックアウト、第1の視覚外観よりも高い不透明度)を有する第2の表現の一部分(例えば、領域602及び606)を表現する。いくつかの実施形態では、電子デバイスは、第2のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示し、図29A〜図29Pで上述された方法/技術及び図30A〜図30Cで論じられた方法3000のうちの1つ以上に基づいて、第2の表現を表示することを含む)。 In some embodiments, as part of displaying a second representation of at least a portion of the field of view of one or more cameras at the second zoom level, the electronic device has a second zoom level of sixth. According to the determination that the zoom level of (eg, 0.5 × zoom level) is (and / or that a portion of the field of view of one or more cameras is part of the field of view of a first type camera (eg, of example). A second having a wider lens (eg, a camera with an ultra-wide angle lens) than a second type camera), a first visual appearance (eg, translucent, less opaque than a second visual appearance). Display a portion of the representation of 2 (eg, region 604) and according to the determination that the second zoom level is a seventh zoom level different from the sixth zoom level (and / or the field of view of one or more cameras). According to the determination that the portion is part of the field of view of a second type camera different from the first type camera (eg, a camera having a wider lens (eg, ultra-wide angle lens) than the second type camera). ) (Eg, a camera with a narrower lens (eg, a telephoto) than the first type of camera), a second visual appearance (eg, grayout, blackout, first) that is different from the first visual appearance. It represents a portion of a second representation (eg, regions 602 and 606) that has a higher opacity than the visual appearance. In some embodiments, the electronic device displays a second representation of at least a portion of the field of view of one or more cameras at a second zoom level, with the methods / techniques described above in FIGS. 29A-29P. Including displaying a second representation based on one or more of the methods 3000 discussed in FIGS. 30A-30C).

いくつかの実施形態では、複数のズームアフォーダンスは、第3のズームアフォーダンス(例えば、特定のズームレベル(例えば、第9のズームレベル)に対応するアフォーダンス)を含む。いくつかの実施形態では、第1、第2、及び第3のズームアフォーダンスは、異なるズームレベルに対応する(例えば、第1、第2、及び第3のズームアフォーダンスの選択により、異なる表現を表示させ、各表現は、異なるズームレベルを有する)。いくつかの実施形態では、電子デバイスは、第2の現在表示されている表現のズームレベルを変更する要求を受信する。いくつかの実施形態では、電子デバイスは、ピンチ又はデピンチジェスチャを検出することにより、現在表示されている表現のズームレベルを変更する要求を受信し、かつ調整可能なズームコントロールの選択を検出する。いくつかの実施形態では、第2の現在表示されている表現のズームレベルを第8のズームレベルに変更する要求(例えば、3350i、3350p、3350q)を受信したことに応答して、電子デバイスは、第8のズームレベルが第1のズーム値範囲(例えば、例えば、0.5×〜1×(例えば、1×未満)などの範囲)内にあるという判定に従って、第1のズームアフォーダンス(例えば、2622b)の表示を、第8のズームレベルに対応する第4のズームアフォーダンス(例えば、2622j)の表示に(例えば、第1のズームアフォーダンスの位置で)置き換え、第8のズームレベルが第2のズーム値範囲(例えば、1×を上回る及び2×未満の値などの第2のズーム値範囲)内にあるという判定に従って、第2のズームアフォーダンス(例えば、2622c)の表示を、第8のズームレベルに対応する第4のズームアフォーダンス(例えば、2622g)の表示に(例えば、第2のズームアフォーダンスの位置で)置き換え、第8のズームレベルが第3のズーム値範囲(例えば、2×を上回る)内にあるという判定に従って、第3のズームアフォーダンス(例えば、2622a)の表示を、第8のズームレベルに対応する第4のズームアフォーダンス(例えば、2622d)の表示に(例えば、第3のズームアフォーダンスの位置で)置き換える。いくつかの実施形態では、第8のズームレベルが第1のズーム値範囲(例えば、例えば、0.5×〜1×(例えば、1×などの閾値を下回る)などの範囲)内にないという判定に従って、電子デバイスは、第2又は第3のズームアフォーダンスでないズームアフォーダンスの位置に、第1のズームアフォーダンスを表示する(又は第1のズームアフォーダンスの表示を維持する。いくつかの実施形態では、第2及び第3のズームアフォーダンスを維持する。いくつかの実施形態では、第8のズームレベルが第2のズーム値範囲(例えば、1×〜2×)内にないという判定に従って、電子デバイスは、第1又は第3のズームアフォーダンスでないズームアフォーダンスの位置に、第2のズームアフォーダンスを表示する(又は第2のズームアフォーダンスの表示を維持する)。いくつかの実施形態では、第1及び第3のズームアフォーダンスを維持する。いくつかの実施形態では、第8のズームレベルが第3のズーム値範囲(例えば、例えば、2×以上)内にないという判定に従って、電子デバイスは、第1又は第2のズームアフォーダンスでないズームアフォーダンスの位置に、第1のズームアフォーダンスを表示する(又は第1のズームアフォーダンスの表示を維持する)。いくつかの実施形態では、第1、第2、第3、及び第4のズームアフォーダンスは、互いに視覚的に異なる(例えば、テキストが異なる(例えば、0.5×、1×、1.7×、2×))。いくつかの実施形態では、第2又は第3のズームアフォーダンスを維持する。所定の条件が満たされているときにのみ、ズームアフォーダンスを、ズームアフォーダンスに置き換えることを適用することにより、ユーザは、デバイスが現在のズームレベルで表現を表示するために使用されている、カメラに対応するズームレベルを迅速に認識することができ、各アフォーダンスは、異なるカメラに対応する。デバイス600は、特定のズームレベルでメディアをキャプチャするために現在使用されており、ユーザは、ユーザが必要であればこれらのズームレベルに容易に切り替えることができるように、現在表示されている表現の現在のズームレベルの範囲内でない所定のズームレベルを迅速に認識することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the plurality of zoom affordances include a third zoom affordance (eg, an affordance corresponding to a particular zoom level (eg, a ninth zoom level)). In some embodiments, the first, second, and third zoom affordances correspond to different zoom levels (eg, different representations are displayed by selecting the first, second, and third zoom affordances). And each representation has a different zoom level). In some embodiments, the electronic device receives a request to change the zoom level of the second currently displayed representation. In some embodiments, the electronic device receives a request to change the zoom level of the currently displayed representation and detects an adjustable zoom control selection by detecting a pinch or depinch gesture. .. In some embodiments, the electronic device responds to a request (eg, 3350i, 3350p, 3350q) to change the zoom level of the second currently displayed representation to the eighth zoom level. , The first zoom affordance (eg, eg, less than 1x), according to the determination that the eighth zoom level is within the first zoom value range (eg, 0.5x to 1x (eg, less than 1x)). , 2622b) is replaced with a fourth zoom affordance (eg, 2622j) display corresponding to the eighth zoom level (eg, at the position of the first zoom affordance), with the eighth zoom level being the second. A second zoom affordance (eg, 2622c) is displayed according to the determination that it is within the zoom value range of (eg, a second zoom range of values greater than 1x and less than 2x). Replaced with a display of a fourth zoom affordance (eg, 2622g) corresponding to the zoom level (eg, at the position of the second zoom affordance) and an eighth zoom level with a third zoom value range (eg, 2x). According to the determination that it is within (eg,), the display of the third zoom affordance (eg, 2622a) is changed to the display of the fourth zoom affordance (eg, 2622d) corresponding to the eighth zoom level (eg, the third). Replace (at the zoom affordance position). In some embodiments, the eighth zoom level is not within the first zoom value range (eg, for example, 0.5x to 1x (eg, below a threshold such as 1x)). According to the determination, the electronic device displays the first zoom affordance (or maintains the display of the first zoom affordance) at the position of the zoom affordance that is not the second or third zoom affordance. In some embodiments, the electronic device displays the first zoom affordance. Maintain the second and third zoom affordances. In some embodiments, the electronic device is subject to determination that the eighth zoom level is not within the second zoom value range (eg, 1x-2x). A second zoom affordance is displayed (or a display of the second zoom affordance is maintained) at a position of the zoom affordance that is not the first or third zoom affordance. In some embodiments, the first and third zoom affordances are displayed. The zoom affordance of Display the first zoom affordance (or maintain the display of the first zoom affordance) at the position of the zoom affordance that is not the zoom affordance of 2. In some embodiments, the first, second, third, and The fourth zoom affordances are visually different from each other (eg, the texts are different (eg, 0.5x, 1x, 1.7x, 2x)). In some embodiments, the second or second. Maintaining a zoom affordance of 3. By applying replacing the zoom affordance with a zoom affordance only when certain conditions are met, the user can view the representation at the current zoom level on the device. Can quickly recognize the zoom level corresponding to the camera used in the affordance, each affordance corresponds to a different camera. The device 600 is currently used to capture media at a particular zoom level. And the user should quickly recognize a given zoom level that is not within the current zoom level of the currently displayed representation so that the user can easily switch to these zoom levels if needed. By performing optimized actions when a set of states is satisfied without the need for further user input, the operability of the device can be improved (eg). For example, by assisting the user in providing appropriate input when manipulating / interacting with the device and reducing user error), the user-device interface is made more efficient, and in addition, the user Reduce power usage and improve device battery life by enabling devices to be used faster and more efficiently.

方法3400に関して上述された処理(例えば、図34A〜図34B)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2500、2700、2800、3000、3200、3600、及び3800は、方法3400を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法3200は、任意選択的に、方法3400に関連して上述したように、1つ以上の入力に応答して、カメラユーザインタフェースのズームレベルを変更することを採用する。簡潔にするために、これらの詳細は、以下で繰り返さない。 It should be noted that the details of the processes described above for Method 3400 (eg, FIGS. 34A-34B) are also applicable to the methods described above in a similar manner. For example, methods 700, 900, 1100, 1300, 1500, 1700, 1900, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3600, and 3800 are of the various methods described above with reference to method 3400. Includes one or more of the properties optionally. For example, the method 3200 optionally employs to change the zoom level of the camera user interface in response to one or more inputs, as described above in connection with the method 3400. For the sake of brevity, these details will not be repeated below.

図35A〜図35Iは、いくつかの実施形態による電子デバイスを使用してメディアキャプチャコントロールにアクセスするための例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図36A〜図36Bにおける処理を含む、以下で説明される処理を例示するために使用される。 35A-35I show exemplary user interfaces for accessing media capture controls using electronic devices according to some embodiments. The user interfaces in those figures are used to illustrate the processes described below, including the processes in FIGS. 36A-36B.

図35Aは、ディスプレイの上部からディスプレイの底部まで延在するライブプレビュー630を表示する電子デバイス600を示す。ライブプレビュー630は、1つ以上のカメラセンサによって検出された画像に基づく。いくつかの実施形態では、ライブプレビュー630は、デバイス600の上部及び/又は底部まで延びない。いくつかの実施形態では、デバイス600は、複数のカメラセンサを使用して画像をキャプチャし、それらを組み合わせてライブプレビュー630を表示する。いくつかの実施形態では、デバイス600は、単一のカメラセンサを使用して画像をキャプチャして、ライブプレビュー630を表示する。 FIG. 35A shows an electronic device 600 displaying a live preview 630 extending from the top of the display to the bottom of the display. Live preview 630 is based on images detected by one or more camera sensors. In some embodiments, the live preview 630 does not extend to the top and / or bottom of the device 600. In some embodiments, the device 600 uses a plurality of camera sensors to capture images and combine them to display a live preview 630. In some embodiments, the device 600 captures an image using a single camera sensor and displays a live preview 630.

図35Aのカメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含み、これらは、インジケータ及びコントロールがライブプレビュー630と同時に表示され得るように、ライブプレビュー630上に重ねられる。カメラディスプレイ領域604は、インジケータ又はコントロールと実質的に重ならない。この例では、ライブプレビュー630は、周囲環境内の人の肩に乗っている犬を含む。 The camera user interface of FIG. 35A includes an indicator area 602 and a control area 606, which are overlaid on the live preview 630 so that the indicators and controls can be displayed at the same time as the live preview 630. The camera display area 604 does not substantially overlap the indicator or control. In this example, live preview 630 includes a dog on the shoulder of a person in the surrounding environment.

図35Aに示すように、インジケータ領域602は、ライブプレビュー630上に重ねられ、任意選択的に着色された(例えば、灰色;半透明)オーバーレイを含む。インジケータ領域602は、フラッシュインジケータ602a及びモード−設定スイッチャアフォーダンス3502を含む。フラッシュインジケータ602aは、フラッシュが自動モード、オン、オフ、又は別のモード(例えば、赤目低減モード)であるかどうかを示す。以下で論じるように、モード−設定スイッチャアフォーダンス3502は、選択されると、デバイス600に、カメラモードアフォーダンス620の表示と、現在選択されているカメラモードの特定のカメラ設定アフォーダンス(例えば、626)の表示との間を切り替えさせる。 As shown in FIG. 35A, the indicator area 602 includes an optionally colored (eg, gray; translucent) overlay overlaid on the live preview 630. The indicator area 602 includes a flash indicator 602a and a mode-setting switch affordance 3502. The flash indicator 602a indicates whether the flash is in automatic mode, on, off, or another mode (eg, red-eye reduction mode). As discussed below, the mode-configuration switcher affordance 3502, when selected, displays the camera mode affordance 620 on the device 600 and a particular camera configuration affordance (eg, 626) for the currently selected camera mode. Switch between the display.

図35Aに示すように、カメラディスプレイ領域604は、ライブプレビュー630及びズームアフォーダンス2622を含み、ズームアフォーダンス2622は、0.5×ズームアフォーダンス2622a、1×ズームアフォーダンス2622b、及び2×ズームアフォーダンス2622cを含む。この例では、0.5×ズームアフォーダンス2622aが選択され、これは、0.5×ズームレベルでライブプレビュー630が表されることを示す。 As shown in FIG. 35A, the camera display area 604 includes a live preview 630 and a zoom affordance 2622, and the zoom affordance 2622 includes 0.5 × zoom affordance 2622a, 1 × zoom affordance 2622b, and 2 × zoom affordance 2622c. .. In this example, 0.5 × zoom affordance 2622a is selected, which indicates that the live preview 630 is represented at 0.5 × zoom level.

図35Aに示すように、コントロール領域606は、ライブプレビュー630上に重ねられ、任意選択的に着色された(例えば、灰色;半透明)オーバーレイを含む。コントロール領域606は、カメラモードアフォーダンス620、メディアコレクションの一部分624、シャッターアフォーダンス610、及びカメラスイッチャアフォーダンス612を含む。カメラモードアフォーダンス620は、どのカメラモードが現在選択されているかを示し、ユーザがカメラモードを変更することを可能にする。図35Aにおいて、カメラモードアフォーダンス620a〜620d及び620fが表示され、「Photo」カメラモードは、カメラが動作している現在のモードとして太字のテキストで、及び/又はコントロール領域606の中央に写真カメラモードアフォーダンス620cをセンタリングすることで示される。カメラモードが現在選択されている(又は電子デバイスがカメラモードで動作している)とき、電子デバイスは、特定のカメラモードのカメラ設定を使用して、(例えば、シャッターアフォーダンス610上の入力を検出したことに応答して)メディアをキャプチャするように構成される。図35Aでは、デバイス600は、カメラディスプレイ領域604に対応する場所での上向きスワイプジェスチャ3550a(例えば、コントロール領域606からインジケータ領域602に向かう上スワイプジェスチャ)を検出する。あるいは、図35Aで、デバイス600は、インジケータ領域602内に位置する、モード−設定スイッチャアフォーダンス3502に対応する場所でタップジェスチャ3550bを検出する。 As shown in FIG. 35A, the control area 606 includes an optionally colored (eg, gray; translucent) overlay overlaid on the live preview 630. The control area 606 includes a camera mode affordance 620, a portion of the media collection 624, a shutter affordance 610, and a camera switcher affordance 612. The camera mode affordance 620 indicates which camera mode is currently selected and allows the user to change the camera mode. In FIG. 35A, camera modes affordances 620a-620d and 620f are displayed, and the "Photo" camera mode is in bold text as the current mode in which the camera is operating and / or the photo camera mode in the center of the control area 606. It is shown by centering the affordance 620c. When the camera mode is currently selected (or the electronic device is operating in camera mode), the electronic device uses the camera settings of a particular camera mode (eg, detects an input on the shutter affordance 610). It is configured to capture media (in response to what you do). In FIG. 35A, the device 600 detects an upward swipe gesture 3550a (eg, an upward swipe gesture from the control area 606 towards the indicator area 602) at a location corresponding to the camera display area 604. Alternatively, in FIG. 35A, the device 600 detects the tap gesture 3550b located within the indicator area 602, at a location corresponding to the mode-setting switch affordance 3502.

図35Bに示すように、上向きスワイプジェスチャ3550a又はタップジェスチャ3550b(例えば、モード−設定スイッチャアフォーダンス3502に対応する場所でのタップジェスチャ)を検出したことに応答して、デバイス600は、カメラディスプレイ領域604を上にシフトし、これは、ズームアフォーダンス2622を上にシフトすることを含む。デバイス600は、カメラディスプレイ領域604のサイズ及びアスペクト比を維持している間に、カメラディスプレイ領域604を上にシフトする。それにより、デバイス600がカメラディスプレイ領域604を上にシフトするとき、デバイス600は、インジケータ領域602の高さの高さを低減し、かつコントロール領域606の高さを増加させる。インジケータ領域602の高さの低減に加えて、デバイス600は、フラッシュインジケータ602aの中心がモード−設定スイッチャアフォーダンス3502の中心とより位置合わせされるように、フラッシュインジケータ602aをシフトする。これを行うことにより、デバイス600は、カメラモードアフォーダンス620とカメラ設定アフォーダンス626との間で表示を切り替えている間に、インジケータ領域602内のインジケータの表示を維持する。更には、デバイス600は、上向き矢印(例えば、カメラユーザインタフェースが上にシフトされ得るインジケーション、又はモード−設定スイッチャアフォーダンス3502上での入力に応答して、カメラ設定アフォーダンス626が表示され得るインジケーション)を含むことから、下向き矢印(例えば、カメラユーザインタフェースが下にシフトされ得るインジケーション、又はモード−設定スイッチャアフォーダンス3502上での入力を検出したことに応答して、カメラモードアフォーダンスが表示され得るインジケーション)を表示するように、モード−設定スイッチャアフォーダンス3502を更新する。 As shown in FIG. 35B, in response to detecting an upward swipe gesture 3550a or a tap gesture 3550b (eg, a tap gesture at a location corresponding to the mode-setting switch affordance 3502), the device 600 receives the camera display area 604. Shifts up, which includes shifting the zoom affordance 2622 up. The device 600 shifts the camera display area 604 upwards while maintaining the size and aspect ratio of the camera display area 604. Thereby, when the device 600 shifts the camera display area 604 upwards, the device 600 reduces the height of the indicator area 602 and increases the height of the control area 606. In addition to reducing the height of the indicator area 602, the device 600 shifts the flash indicator 602a so that the center of the flash indicator 602a is more aligned with the center of the mode-setting switch affordance 3502. By doing this, the device 600 maintains the display of the indicator in the indicator area 602 while switching the display between the camera mode affordance 620 and the camera setting affordance 626. Further, the device 600 may display the camera configuration affordance 626 in response to an input on an upward arrow (eg, an indication on which the camera user interface may be shifted up, or a mode-configuration switcher affordance 3502). ), So that the camera mode affordance may be displayed in response to detecting an input on the down arrow (eg, an indication that the camera user interface may shift down, or an input on the mode-configuration switcher affordance 3502). Update the mode-setting switch affordance 3502 to display the indication).

コントロール領域606の高さを増加させることに加えて、デバイス600は、カメラモードアフォーダンス620を、第1の1組のカメラ設定アフォーダンスを含むカメラ設定アフォーダンス626に置き換える。第1の1組のカメラ設定アフォーダンスは、左から右へ、フラッシュモードコントロールアフォーダンス626a、低光モード動作コントロールアフォーダンス626g、アスペクト比コントロールアフォーダンス626c、アニメーション化された画像コントロールアフォーダンス626b、フィルタコントロールアフォーダンス626e、及びタイマーコントロールアフォーダンス626dを含む。デバイスが写真モードでメディアをキャプチャするように現在構成されているため、第1の1組のカメラ設定アフォーダンスが示される。いくつかの実施形態では、デバイスが写真モードではないカメラモードでメディアをキャプチャするように現在構成されているとき、第1の1組のカメラ設定アフォーダンスとは異なる第2の1組のカメラ設定アフォーダンスが示される。 In addition to increasing the height of the control area 606, the device 600 replaces the camera mode affordance 620 with a camera setting affordance 626 that includes a first set of camera setting affordances. The first set of camera setting affordances is, from left to right, flash mode control affordance 626a, low light mode operation control affordance 626g, aspect ratio control affordance 626c, animated image control affordance 626b, filter control affordance 626e, And timer control affordance 626d. A first set of camera setting affordances is shown because the device is currently configured to capture media in photographic mode. In some embodiments, when the device is currently configured to capture media in a camera mode that is not photo mode, a second set of camera setting affordances that differs from the first set of camera setting affordances. Is shown.

図35Bに示すように、上向きスワイプジェスチャ3550a又はタップジェスチャ3550bを検出したことに応答して、デバイス600はまた、1つ以上のカメラの視野を上にシフトする(ライブプレビュー630によって示された1つ以上のカメラの視野が維持され、かつシフトされない、図8A〜図8Bに関連して上述した例とは異なる)。それにより、デバイス600は、図35Aに表示されたいくらかの視覚部分を図35Bのディスプレイから外れるようにシフトする。例えば、図35Aのインジケータ領域602に表示されたちょう結び3540の一部分は、図35Bのインジケータ領域602に表示される。加えて、デバイス600は、図35Aに表示されなかったいくらかの視覚部分を図35Bのディスプレイ上にシフトする。例えば、図35Aのコントロール領域606に表示されたアームパッチ3538(例えば、ハート)の一部分は、図35Bのコントロール領域606に表示される。図35Bでは、デバイス600は、デバイスが、超広角レンズを有するカメラを使用して、メディアをキャプチャするように構成されるため、いくらかの新たに表示される視覚部分をディスプレイ上に、及びいくらかの以前に表示された視覚部分をディスプレイから外れるようにシフトし、これは、0.5×ズームレベルで表示されているライブプレビュー630によって明らかである(例えば、図31A〜図31Bに関連する上記の考察を参照)。いくつかの実施形態では、デバイスが、超広角レンズを有するカメラを使用してメディアをキャプチャするように構成されていない(例えば、デバイス600は、望遠写真レンズを使用してメディアをキャプチャするように構成される)とき、デバイス600は、デバイス600が2×ズームでメディアをキャプチャするように構成されるとき(例えば、ライブプレビュー630が図35Iのように2×ズームレベルで表示されるとき)など、いくらかの視覚部分をディスプレイ上に、及び/又はいくらかの視覚部分をディスプレイから外れるようにシフトしない。 As shown in FIG. 35B, in response to detecting an upward swipe gesture 3550a or tap gesture 3550b, the device 600 also shifts the field of view of one or more cameras upwards (1 shown by live preview 630). The field of view of one or more cameras is maintained and not shifted, unlike the examples described above in relation to FIGS. 8A-8B). Thereby, the device 600 shifts some visual portion displayed in FIG. 35A away from the display of FIG. 35B. For example, a portion of the tie knot 3540 displayed in the indicator area 602 of FIG. 35A is displayed in the indicator area 602 of FIG. 35B. In addition, device 600 shifts some visual portion not visible in FIG. 35A onto the display in FIG. 35B. For example, a portion of the arm patch 3538 (eg, heart) displayed in the control area 606 of FIG. 35A is displayed in the control area 606 of FIG. 35B. In FIG. 35B, the device 600 is configured to capture media using a camera with an ultra-wide-angle lens, so that some newly displayed visual parts are on the display and some. The previously displayed visual portion is shifted off the display, which is evident by the live preview 630 displayed at 0.5 x zoom level (eg, the above related to FIGS. 31A-31B). See discussion). In some embodiments, the device is not configured to capture media using a camera with an ultra-wide-angle lens (eg, device 600 is configured to capture media using a telephoto lens). When configured), the device 600 is configured such that the device 600 is configured to capture media at a 2x zoom (eg, when the live preview 630 is displayed at a 2x zoom level as in FIG. 35I). , Do not shift some visual parts onto the display and / or some visual parts off the display.

更には、図35Bに示すように、上向きスワイプジェスチャ3550aを検出した後の第1の時点で、デバイス600は、上向きスワイプジェスチャ3550a又はタップジェスチャ3550bの完了を検出する。いくつかの実施形態では、デバイス600は、上向きスワイプジェスチャ3550aのリフトオフ(例えば、デバイス600のタッチ感知面を使用する、上向きスワイプジェスチャ3550aのタッチ接触のリフトオフ)を検出する前に、上向きスワイプジェスチャ3550aの完了を検出する。いくつかの実施形態では、上向きスワイプジェスチャ3550aの完了は、上向きスワイプジェスチャ3550aのタッチ接触が、カメラディスプレイ領域604上の場所に対応する第1の場所からカメラディスプレイ領域604上の場所に対応する第2の場所までの閾値距離を動くと検出された後に発生し得る。 Further, as shown in FIG. 35B, at the first time point after detecting the upward swipe gesture 3550a, the device 600 detects the completion of the upward swipe gesture 3550a or tap gesture 3550b. In some embodiments, the device 600 detects the lift-off of the upward swipe gesture 3550a (eg, the lift-off of the touch contact of the upward swipe gesture 3550a using the touch-sensitive surface of the device 600) before the device 600 detects the upward swipe gesture 3550a. Detects the completion of. In some embodiments, the completion of the upward swipe gesture 3550a is such that the touch contact of the upward swipe gesture 3550a corresponds to a location on the camera display area 604 from a first location corresponding to a location on the camera display area 604. It can occur after it is detected to move a threshold distance to location 2.

図35Bに示すように、デバイス600が上向きスワイプジェスチャ3550a又はタップジェスチャ3550bの完了を検出するとき、デバイス600は、デバイス600がカメラモードアフォーダンス620を、選択されたカメラモードについてのカメラ設定アフォーダンスに置き換えている(又は置き換えた)ことを示す、触知出力3560aを提供する。図35Bでは、デバイス600は、上向きスワイプジェスチャ3550aのリフトオフを検出する。 As shown in FIG. 35B, when the device 600 detects the completion of the upward swipe gesture 3550a or tap gesture 3550b, the device 600 replaces the camera mode affordance 620 with the camera setting affordance for the selected camera mode. It provides a tactile output of 3560a indicating that it is (or has been replaced). In FIG. 35B, device 600 detects lift-off of the upward swipe gesture 3550a.

図35Cに示すように、上向きスワイプジェスチャ3550aのリフトオフを検出した後に、デバイス600は、触知出力をもはや提供しない。図35Cでは、デバイス600は、カメラディスプレイ領域604に対応する場所での左向きスワイプジェスチャ3550c(例えば、左から右にカメラディスプレイ領域604を横切って動くスワイプジェスチャ)を検出する。 As shown in FIG. 35C, after detecting the lift-off of the upward swipe gesture 3550a, the device 600 no longer provides a tactile output. In FIG. 35C, the device 600 detects a leftward swipe gesture 3550c (eg, a swipe gesture moving across the camera display area 604 from left to right) at a location corresponding to the camera display area 604.

図35Dに示すように、左向きスワイプジェスチャ3550cを検出したことに応答して、デバイス600は、第1の1組のカメラ設定アフォーダンス(例えば、カメラ設定アフォーダンス626a、626g、626c、626e、及び626d)を、左から右へ、フラッシュモードコントロールアフォーダンス626a、f値コントロールアフォーダンス626f、フィルタコントロールアフォーダンス626e、及びタイマーコントロールアフォーダンス626dを含む、第2の1組のカメラ設定アフォーダンスに置き換える。図35Dに示すように、第1の1組のカメラ設定アフォーダンスを、第2の1組のカメラ設定アフォーダンスに置き換える際に、デバイス600は、アニメーションを表示し、デバイス600は、カメラディスプレイ領域604に着色された(例えば、灰色;半透明)オーバーレイを重ね合わせ、ライブプレビュー630及び/又はディスプレイを暗くするか、及び/又はディスプレイ(ライブプレビュー630を含む)をぼかす。更には、図35Dでは、デバイス600は、第2の1組のカメラ設定アフォーダンス内にない第1の1組のカメラ設定アフォーダンスからの1つ以上のカメラ設定アフォーダンス(例えば、図35Cに示されたカメラ設定アフォーダンス626g、626c、626b)を暗色化、ぼかし、及び/又は収縮し得る。デバイス600は、第1の1組のカメラ設定アフォーダンス内になかった第2の1組のカメラ設定アフォーダンス(例えば、f値コントロールアフォーダンス626f)内にある、1つ以上のアフォーダンスを表示する(例えば、フェードイン又は成長する)。 As shown in FIG. 35D, in response to detecting the leftward swipe gesture 3550c, the device 600 receives a first set of camera setting affordances (eg, camera setting affordances 626a, 626g, 626c, 626e, and 626d). Is replaced from left to right with a second set of camera setting affordances, including a flash mode control affordance 626a, an f-value control affordance 626f, a filter control affordance 626e, and a timer control affordance 626d. As shown in FIG. 35D, when replacing the first set of camera setting affordances with the second set of camera setting affordances, the device 600 displays an animation and the device 600 is in the camera display area 604. Overlay colored (eg, gray; translucent) overlays to darken the live preview 630 and / or display and / or blur the display (including the live preview 630). Further, in FIG. 35D, the device 600 is shown in one or more camera setting affordances from a first set of camera setting affordances that are not within the second set of camera setting affordances (eg, FIG. 35C). Camera settings affordances 626g, 626c, 626b) can be darkened, blurred, and / or shrunk. The device 600 displays one or more affordances in a second set of camera setting affordances (eg, f-number control affordances 626f) that were not in the first set of camera setting affordances (eg, f-number control affordances 626f). Fade in or grow).

図35Eに示すように、左向きスワイプジェスチャ3550cを検出したことに応答して、デバイス600は、第2の1組のカメラ設定アフォーダンスを動かし、これにより、第2の1組のカメラ設定アフォーダンスは、ディスプレイの比較的中心に位置する。第2の1組のカメラ設定アフォーダンスが、より少ない数のアフォーダンスを含むため、フラッシュモードコントロールアフォーダンス626a及びタイマーコントロールアフォーダンス626dは、例えば、図35Cに各々がそれぞれ表示された位置よりもディスプレイの中心に近い位置に表示される。図35Eでは、左向きスワイプジェスチャ3550cを検出したことに応答して、デバイス600は、ポートレートカメラモード、及びしたがって、ポートレートメディアをキャプチャする設定に対応する(又はポートレートカメラモードに従う).第2の1組のカメラ設定アフォーダンスでメディアをキャプチャするように構成される。いくつかの実施形態では、デバイス600が別のモード(例えば、ビデオモード)でメディアをキャプチャするように構成されるとき、高ダイナミックレンジイメージングカメラ設定アフォーダンスなどの、1つ以上の追加のアフォーダンスが表示される。 As shown in FIG. 35E, in response to detecting the leftward swipe gesture 3550c, the device 600 moves a second set of camera setting affordances, thereby causing the second set of camera setting affordances. Located relatively in the center of the display. Since the second set of camera setting affordances contains a smaller number of affordances, the flash mode control affordances 626a and timer control affordances 626d are, for example, centered on the display rather than their respective positions shown in FIG. 35C. It is displayed in a close position. In FIG. 35E, in response to detecting the leftward swipe gesture 3550c, the device 600 corresponds to the portrait camera mode and, therefore, the setting to capture the portrait media (or according to the portrait camera mode). A second set of camera settings affordances are configured to capture the media. In some embodiments, when the device 600 is configured to capture media in another mode (eg, video mode), one or more additional affordances, such as high dynamic range imaging camera setting affordances, are displayed. Will be done.

図35Aに戻ると、写真カメラモードアフォーダンス620cは、中心にされ、かつ選択され、ポートレートモードアフォーダンス620dは、選択されず、かつ写真カメラモードアフォーダンス620cの右側に隣接して表示される。それにより、図8E〜図8Hにおいて左スワイプジェスチャ850gに関連して上述されたように、図35Aにおけるデバイス600上の左向きスワイプジェスチャ(例えば、ジェスチャ3550cに類似)は、デバイス600に、中心にされ、かつ選択されたようなポートレートモードアフォーダンス620d及び未選択であり、かつポートレートモードアフォーダンス620dの左に表示されたような写真カメラモードアフォーダンス620cを表示させる。更には、図8E〜図8Hにおいて左スワイプジェスチャ850gに関連して上述されたように、左向きスワイプジェスチャ(例えば、ジェスチャ3550cに類似)は、デバイス600を、ポートレートカメラモードで構成させる。それゆえ、デバイス600は、デバイス600がカメラモードアフォーダンス620(例えば、図8E〜図8H)又はカメラ設定アフォーダンス626(例えば、35C〜35E)を現在表示しているかどうかにかかわらず、左向き又は右向きスワイプジェスチャに応答して、メディアをキャプチャするように構成されるカメラモードに切り替える。更には、デバイス600が、左向き又は右向きスワイプジェスチャに応答して、メディアをキャプチャするように構成されるカメラモードに切り替えるとき、アフォーダンスのタイプ(例えば、カメラモードアフォーダンス620又はカメラ設定アフォーダンス626)は、ディスプレイ上に表示され続ける。換言すれば、左向き又は右向きスワイプジェスチャを検出する直前に、デバイス600がカメラモードアフォーダンス620を表示する場合、デバイス600は、左向き若しくは右向きスワイプジェスチャに応答して、カメラモードアフォーダンス620を、カメラ設定アフォーダンス626に置き換えず、又は逆もまた同様である。更には、同じ大きさの左又は右ジェスチャは、カメラモードアフォーダンス620が選択された現在のカメラモードアフォーダンス(例えば、写真モードアフォーダンス620c)で表示されるとき、又は選択されたモード(例えば、写真モード)に対応するカメラ設定アフォーダンス626(例えば、カメラ設定アフォーダンス626a、626g、626c、626e、及び626d)が表示されるときに、デバイス600が左又は右ジェスチャを受信するかどうかと同じ新しいモード(例えば、ポートレートモード)でメディアをキャプチャするようにデバイスを構成する。 Returning to FIG. 35A, the photographic camera mode affordance 620c is centered and selected, the portrait mode affordance 620d is not selected and is displayed adjacent to the right side of the photographic camera mode affordance 620c. Thereby, as described above in connection with the left swipe gesture 850g in FIGS. 8E-8H, the left swipe gesture on the device 600 in FIG. 35A (eg, similar to the gesture 3550c) is centered on the device 600. And display the portrait mode affordance 620d as selected and the photographic camera mode affordance 620c as displayed to the left of the unselected and portrait mode affordance 620d. Further, as described above in connection with the left swipe gesture 850g in FIGS. 8E-8H, the left swipe gesture (e.g., similar to gesture 3550c) configures the device 600 in portrait camera mode. Therefore, the device 600 swipes left or right regardless of whether the device 600 is currently displaying the camera mode affordance 620 (eg, FIGS. 8E-8H) or the camera setting affordance 626 (eg, 35C-35E). Switch to camera mode configured to capture media in response to gestures. Furthermore, when the device 600 switches to a camera mode configured to capture media in response to a left or right swipe gesture, the type of affordance (eg, camera mode affordance 620 or camera setting affordance 626) is determined. It keeps appearing on the display. In other words, if the device 600 displays the camera mode affordance 620 just before detecting a left or right swipe gesture, the device 600 responds to the left or right swipe gesture by setting the camera mode affordance 620 to the camera setting affordance. Do not replace with 626, and vice versa. Furthermore, left or right gestures of the same size are displayed when the camera mode affordance 620 is displayed in the current camera mode affordance (eg, photo mode affordance 620c) in which the camera mode affordance 620 is selected, or in the selected mode (eg, photo mode). ) Corresponding to the camera setting affordance 626 (eg, camera setting affordances 626a, 626g, 626c, 626e, and 626d), the same new mode as whether the device 600 receives a left or right gesture (eg,). , Configure the device to capture media in portrait mode).

図35Eに示すように、左向きスワイプジェスチャ3550cを検出したことに応答して、デバイス600は、インジケータ領域602内の訂正された1組のインジケータ、更新されたライブプレビュー630、及び更新されたコントロール領域606を表示する。訂正された1組のインジケータは、以前に表示されたフラッシュインジケータ602a及び新たに表示されたf値インジケータ602eを含む。更には、現在選択されている、ズームアフォーダンス2622aは、ズームアフォーダンス2622b及び2622cがカメラディスプレイ領域604内で表示を停止される間、左にシフトされた。更には、デバイス600は、カメラディスプレイ領域604内のズームアフォーダンス2622aの右に、照明効果コントロール628(アクティブ化されると、照明効果を変更することができる)を表示する。図35Eの更新されたライブプレビュー630は、図35Cのライブプレビュー630と比較して、異なる視覚効果を提供する。例えば、35Eの更新されたライブプレビュー630は、ボケ効果及び/又は照明効果を提供するのに対し、図35Cのライブプレビュー630は、ボケ効果及び/又は照明効果を提供しない。いくつかの実施形態では、カメラモード(写真モード対ポートレートモード)の変更により、ライブプレビュー630内のオブジェクトのズームは変化する。いくつかの実施形態では、カメラモード(写真モード対ポートレートモード)の変更にかかわらず、ライブプレビュー630内のオブジェクトのズームは変化しない。図35Eでは、デバイス600は、カメラディスプレイ領域604に対応する場所での下向きスワイプジェスチャ3550d(例えば、インジケータ領域602からコントロール領域606に向かう下スワイプジェスチャ)を検出する。あるいは、図35Eで、デバイス600は、インジケータ領域602内に位置する、モード−設定スイッチャアフォーダンス3502に対応する場所でタップジェスチャ3550eを検出する。 As shown in FIG. 35E, in response to detecting the leftward swipe gesture 3550c, the device 600 has a corrected set of indicators in the indicator area 602, an updated live preview 630, and an updated control area. 606 is displayed. The corrected set of indicators includes the previously displayed flash indicator 602a and the newly displayed f-number indicator 602e. Furthermore, the currently selected zoom affordance 2622a has been shifted to the left while the zoom affordances 2622b and 2622c are stopped displaying within the camera display area 604. Further, the device 600 displays a lighting effect control 628 (when activated, the lighting effect can be changed) to the right of the zoom affordance 2622a in the camera display area 604. The updated live preview 630 of FIG. 35E provides different visual effects as compared to the live preview 630 of FIG. 35C. For example, the updated live preview 630 of 35E provides bokeh and / or lighting effects, whereas the live preview 630 of FIG. 35C does not provide bokeh and / or lighting effects. In some embodiments, changing the camera mode (photo mode vs. portrait mode) changes the zoom of the objects in the live preview 630. In some embodiments, the zoom of the object in the live preview 630 does not change regardless of the change in camera mode (photo mode vs. portrait mode). In FIG. 35E, the device 600 detects a downward swipe gesture 3550d (eg, a downward swipe gesture from the indicator area 602 to the control area 606) at a location corresponding to the camera display area 604. Alternatively, in FIG. 35E, the device 600 detects the tap gesture 3550e located within the indicator area 602, at a location corresponding to the mode-setting switch affordance 3502.

図35Fに示すように、下向きスワイプジェスチャ3550d又はタップジェスチャ3550eを検出したことに応答して、デバイス600は、図35Bに示されたカメラユーザインタフェースの上シフトを反転してシフトする。具体的には、デバイス600は、カメラディスプレイ領域604のサイズ及びアスペクト比を維持している間に、カメラディスプレイ領域604を下にシフトする。それにより、デバイス600がカメラディスプレイ領域604を下にシフトするとき、デバイス600は、インジケータ領域602の高さを増加させ、図35Aに示される元のそれらの元の高さに戻るようにコントロール領域606の高さを減少させる。インジケータ領域602の高さを増加させることに加えて、デバイス600は、下向き矢印(例えば、カメラユーザインタフェースが下にシフトされ得るインジケーション、又はモード−設定スイッチャアフォーダンス3502上での入力を検出したことに応答して、カメラモードアフォーダンスが表示され得るインジケーション)を含むことから、上向き矢印(例えば、カメラユーザインタフェースが上にシフトされ得るインジケーション、又はモード−設定スイッチャアフォーダンス3502上での入力に応答して、カメラ設定アフォーダンス626が表示され得るインジケーション)を表示するように、モード−設定スイッチャアフォーダンス3502を更新する。コントロール領域606の高さを減少させることに加えて、デバイス600は、カメラ設定アフォーダンス626を、カメラモードアフォーダンス620に置き換える。デバイス600がポートレートカメラモードでメディアをキャプチャするように構成されるため、デバイス600は、左にシフトされたポートレートカメラモードアフォーダンス620dを表示し、ここで、ポートレートカメラモード620dが、選択され、かつ中心にされるように表示され、及び写真カメラモード620c(例えば、図35Aに以前に選択された)が、ポートレートカメラモード620dの右に、選択されずに表示される。 As shown in FIG. 35F, in response to detecting the downward swipe gesture 3550d or tap gesture 3550e, the device 600 inverts and shifts the upshift of the camera user interface shown in FIG. 35B. Specifically, the device 600 shifts the camera display area 604 downward while maintaining the size and aspect ratio of the camera display area 604. Thereby, when the device 600 shifts down the camera display area 604, the device 600 increases the height of the indicator area 602 and returns to their original height as shown in FIG. 35A. Reduce the height of 606. In addition to increasing the height of the indicator area 602, the device 600 has detected an input on a down arrow (eg, an indication where the camera user interface can be shifted down, or a mode-setting switch affordance 3502). In response to an indication that the camera mode affordance can be displayed in response to an upward arrow (eg, an indication that the camera user interface can be shifted up, or an input on the mode-configuration switch affordance 3502). Then, the mode-setting switcher affordance 3502 is updated so that the camera setting affordance 626 can be displayed (indication). In addition to reducing the height of the control area 606, the device 600 replaces the camera setting affordance 626 with a camera mode affordance 620. Since the device 600 is configured to capture media in portrait camera mode, device 600 displays a left-shifted portrait camera mode affordance 620d, where portrait camera mode 620d is selected. , And the photographic camera mode 620c (eg, previously selected in FIG. 35A) is displayed unselected to the right of the portrait camera mode 620d.

図35Fに示すように、下向きスワイプジェスチャ3550d又はタップジェスチャ3550eを検出したことに応答して、デバイス600はまた、1つ以上のカメラの視野を下にシフトする。それにより、デバイス600は、図35Eに表示されたいくらかの視覚部分を図35Bのディスプレイから外れるように/ディスプレイ上にシフトする。例えば、図35Eに表示されなかったインジケータ領域602内のちょう結び3540の一部分は、図35Fに表示され、図35Eに表示されたパッチ3538の一部分は、図35Fに表示されない。同様に、図35Bに関連して上述したように、デバイスが超広角レンズを有するカメラを使用してメディアをキャプチャするように構成されているため、デバイス600は、いくらかの視覚部分をディスプレイ上に、及びいくらかの視覚部分をディスプレイ上に/から外れるようにシフトする。 As shown in FIG. 35F, the device 600 also shifts the field of view of one or more cameras down in response to detecting the downward swipe gesture 3550d or tap gesture 3550e. Thereby, the device 600 shifts some visual portion displayed in FIG. 35E away from / on the display of FIG. 35B. For example, a portion of the butterfly knot 3540 in the indicator area 602 that was not displayed in FIG. 35E is displayed in FIG. 35F, and a portion of the patch 3538 displayed in FIG. 35E is not displayed in FIG. 35F. Similarly, as described above in connection with FIG. 35B, the device 600 is configured to capture media using a camera with an ultra-wide-angle lens, so that the device 600 has some visual portion on the display. , And shift some visual parts off / on the display.

更には、図35Fに示すように、下向きスワイプジェスチャ3550dを検出した後の第1の時点で、デバイス600は、下向きスワイプジェスチャ3550d又はタップジェスチャ3550eの完了を検出する。いくつかの実施形態では、デバイス600は、下向きスワイプジェスチャ3550dのリフトオフ(例えば、デバイス600のタッチ感知面を使用する、下向きスワイプジェスチャ3550dのタッチ接触のリフトオフ)を検出する前に、下向きスワイプジェスチャ3550dの完了を検出する。いくつかの実施形態では、下向きスワイプジェスチャ3550dの完了は、下向きスワイプジェスチャ3550dのタッチ接触が、カメラディスプレイ領域604上の場所に対応する第1の場所からカメラディスプレイ領域604上の場所に対応する第2の場所までの閾値距離を動くと検出された後に発生し得る。 Further, as shown in FIG. 35F, at the first time point after detecting the downward swipe gesture 3550d, the device 600 detects the completion of the downward swipe gesture 3550d or the tap gesture 3550e. In some embodiments, the device 600 detects a lift-off of the downward swipe gesture 3550d (eg, a lift-off of the touch contact of the downward swipe gesture 3550d using the touch-sensitive surface of the device 600) before the device 600 detects the downward swipe gesture 3550d. Detects the completion of. In some embodiments, the completion of the downward swipe gesture 3550d corresponds to a location where the touch contact of the downward swipe gesture 3550d corresponds to a location on the camera display area 604 from a first location corresponding to a location on the camera display area 604. It can occur after it is detected to move a threshold distance to location 2.

図35Fに示すように、デバイス600が下向きスワイプジェスチャ3550d又はタップジェスチャ3550eの完了を検出するとき、デバイス600は、デバイス600がカメラ設定アフォーダンス626を、カメラモードアフォーダンス620に置き換えている(又は置き換えた)ことを示す、触知出力3560bを提供する。図35Fでは、デバイス600は、下向きスワイプジェスチャ3550dのリフトオフを検出する。 As shown in FIG. 35F, when the device 600 detects the completion of the downward swipe gesture 3550d or tap gesture 3550e, the device 600 replaces (or replaces) the camera setting affordance 626 with the camera mode affordance 620. ) To provide a tactile output of 3560b. In FIG. 35F, device 600 detects a lift-off of the downward swipe gesture 3550d.

図35Gに示すように、下向きスワイプジェスチャ3550dのリフトオフを検出した後に、デバイス600は、触知出力をもはや提供しない。図35Gでは、デバイス600は、0.5×ズームアフォーダンス2622aに対応する場所でのタップジェスチャ3550gを検出する。 As shown in FIG. 35G, after detecting the lift-off of the downward swipe gesture 3550d, the device 600 no longer provides a tactile output. In FIG. 35G, the device 600 detects 3550 g of tap gesture at a location corresponding to 0.5 × zoom affordance 2622a.

図35Hに示すように、タップジェスチャ3550gを検出したことに応答して、デバイス600は、(例えば、第1のカメラセンサから異なる視野を有する第2のカメラセンサにカメラセンサを切り替えることにより)2×ズームレベルにライブプレビュー630のズームを更新し、かつ2×の現在のズームを示すように、ズームアフォーダンス2622を更新する。デバイス600は、図8N〜図8Pのジェスチャ850o、850p、及び850qに関連して記載されたものと同様の技術を使用して、タップジェスチャ3550gに応答する。図35Hでは、デバイス600は、カメラディスプレイ領域604に対応する場所での右向きスワイプジェスチャ3550h(例えば、左から右にカメラディスプレイ領域604を横切って動くスワイプジェスチャ)を検出する。 As shown in FIG. 35H, in response to detecting 3550 g of tap gesture, the device 600 (eg, by switching the camera sensor from the first camera sensor to a second camera sensor with a different field of view) 2 Update the zoom of the live preview 630 to the × zoom level and update the zoom affordance 2622 to show the current zoom of 2 ×. The device 600 responds to tap gestures 3550 g using techniques similar to those described in connection with gestures 850o, 850p, and 850q of FIGS. 8N-8P. In FIG. 35H, the device 600 detects a rightward swipe gesture 3550h (eg, a swipe gesture moving across the camera display area 604 from left to right) at a location corresponding to the camera display area 604.

図35Iに示すように、右向きスワイプジェスチャ3550hを検出したことに応答して、デバイス600は、右向きスワイプジェスチャ3550hの大きさに基づいて、カメラモードアフォーダンス620を右にシフトする。ここで、デバイス600は、写真モードアフォーダンス620cが未選択で、かつビデオモードアフォーダンス620bの右に留まる間に、ビデオモードアフォーダンス620bが選択され、かつ中心にされるように、右向きスワイプジェスチャ3550hがカメラモードアフォーダンス620を右にシフトするのに十分な大きさを有することを検出する。それにより、写真モードアフォーダンス620cは、右向きスワイプジェスチャ3550hの大きさのため、選択されないようにスキップされる。それにより、デバイス600は、ビデオメディアをキャプチャするように(又はビデオモードに従って)構成され、デバイスがポートレートメディアの代わりに、ビデオメディアをキャプチャするように構成されるため、デバイス600は、照明効果コントロール628の表示を停止する。更には、右向きスワイプジェスチャ3550hを検出したことに応答して、デバイス600は、ズームアフォーダンス2622(例えば、アフォーダンス2622a、2622b、及び2622c)を再表示し、ここで、ライブプレビュー630が0.5×ズームレベルで表示されるため、0.5×ズームアフォーダンス2622aが選択される。 As shown in FIG. 35I, in response to detecting the rightward swipe gesture 3550h, the device 600 shifts the camera mode affordance 620 to the right based on the magnitude of the rightward swipe gesture 3550h. Here, the device 600 has a camera with a rightward swipe gesture 3550h so that the video mode affordance 620b is selected and centered while the photo mode affordance 620c is unselected and stays to the right of the video mode affordance 620b. Detects that the mode affordance 620 is large enough to shift to the right. As a result, the photo mode affordance 620c is skipped so as not to be selected due to the size of the rightward swipe gesture 3550h. Thereby, the device 600 is configured to capture the video media (or according to the video mode) and the device is configured to capture the video media instead of the portrait media, so that the device 600 has a lighting effect. The display of the control 628 is stopped. Furthermore, in response to detecting the rightward swipe gesture 3550h, the device 600 redisplays the zoom affordances 2622 (eg, affordances 2622a, 2622b, and 2622c), where the live preview 630 is 0.5 ×. Since it is displayed at the zoom level, 0.5 × zoom affordance 2622a is selected.

図36A〜図36Bは、いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。方法3600は、表示デバイス(例えば、タッチ感知ディスプレイ)を備えたデバイス(例えば、100、300、500、600)にて行われる。方法3600のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 36A-36B are flow diagrams illustrating a method for editing media captured using an electronic device according to some embodiments. Method 3600 is performed on a device (eg, 100, 300, 500, 600) equipped with a display device (eg, a touch-sensitive display). Some actions of Method 3600 are optionally combined, some actions are arbitrarily modified in order, and some actions are optionally omitted.

後述するように、方法3600は、電子デバイスを使用してメディアキャプチャコントロールにアクセスするための直感的方法を提供する。この方法は、メディアコントロールにアクセスする際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアコントロールにアクセスすることを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, Method 3600 provides an intuitive way to access media capture controls using electronic devices. This method reduces the cognitive burden on the user when accessing media controls, thereby creating a more efficient human-machine interface. For battery-powered computing devices, it saves power and prolongs the time between battery charges by enabling users to access media controls faster and more efficiently.

電子デバイス(例えば、600)は、表示デバイス及び1つ以上のカメラ(例えば、電子デバイスの同じ側又は異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を含む。電子デバイスは、表示デバイスを介して、カメラユーザインタフェースを表示する(3602)。カメラユーザインタフェースは、カメラディスプレイ領域(例えば、602)を含む(例えば、同時に表示する)。カメラディスプレイ領域は、1つ以上のカメラの視野の表現及びカメラコントロール領域(例えば、606)を含む。カメラユーザインタフェースはまた、カメラコントロール領域を含み、カメラコントロール領域は、第1の場所(例えば、画像キャプチャアフォーダンス(例えば、アクティブ化されると、電子デバイスに、カメラディスプレイ領域内に表示されたコンテンツの画像をキャプチャさせるシャッターアフォーダンス)の上の場所)で、1つ以上のカメラの異なる動作モードを示す、第1の複数のカメラモードアフォーダンス(例えば、620)(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、異なるカメラモード(例えば、スローモーション、ビデオ、写真、ポートレート、正方形、パノラマなど)を選択するアフォーダンス)を含む。いくつかの実施形態では、複数のカメラモード(例えば、ビデオ、写真、ポートレート、スローモーション、パノラマモードのうちの2つ以上の)は、カメラ(例えば、カメラセンサ)がメディアをキャプチャするように動作している(キャプチャ後に自動的に行われる後処理を含む)モード(例えば、ポートレートモード)の複数の値(例えば、各設定の光のレベル)を有する対応する複数の設定(例えば、ポートレートカメラモードについて:スタジオ照明設定、輪郭照明設定、舞台照明設定)を有する。このようにして、例えば、カメラモードは、メディアをキャプチャするときにカメラがどのように動作するかに影響を及ぼさないモードとは異なるか、又は複数の設定(例えば、複数の値(例えば、非アクティブ、アクティブ、自動)を有する1つの設定を有するフラッシュモード)を含まない。いくつかの実施形態では、カメラモードにより、ユーザは、異なるタイプのメディア(例えば、写真又はビデオ)をキャプチャすることを可能にし、各モードの設定を最適化して、特定の特性(例えば、形状(例えば、正方形、矩形)、速さ(例えば、スローモーション、時間経過)、オーディオ、ビデオ)を有する特定のモードに対応する特定のタイプのメディアを(例えば、後処理を介して)キャプチャすることができる。例えば、静止写真モードで動作するように電子デバイスが構成されている場合、電子デバイスの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定、1つ以上のフィルタ設定)を有する第1のタイプ(例えば、矩形の写真)のメディアをキャプチャし、正方形モードで動作するように電子デバイスが構成されている場合、電子デバイスの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定及び1つ以上のフィルタ)を有する第2のタイプ(例えば、正方形の写真)のメディアをキャプチャし、スローモーションモードで動作するように電子デバイスが構成されている場合、電子デバイスの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定、秒コマ数キャプチャ速さ)を有する第3のタイプ(例えば、スローモーションビデオ)のメディアのメディアをキャプチャし、ポートレートモードで動作するように電子デバイスが構成されている場合、電子デバイスの1つ以上のカメラは、特定の設定(例えば、特定のタイプの光(例えば、舞台光、スタジオ光、輪郭光)の量、f値、ぼかし)を有する第5のタイプ(例えば、ポートレート写真(例えば、ぼかしをかけた背景を有する写真))のメディアをキャプチャし、パノラマモードで動作するように電子デバイスが構成されている場合、電子デバイスの1つ以上のカメラは、特定の設定(例えば、ズーム、移動しながらキャプチャするための視野の量)を有する第4のタイプ(例えば、パノラマ写真(例えば、広い写真)のメディアをキャプチャする。いくつかの実施形態では、モード間の切り替え時、視野の表現の表示は、モードによってキャプチャされるメディアのタイプに対応するように変化する(例えば、電子デバイスが静止写真モードで動作している間、この表現は、矩形モードであり、電子デバイスが正方形モードで動作している間、この表現は、正方形である)。いくつかの実施形態では、第1の複数のカメラモードアフォーダンスを表示している間に、電子デバイスは、第1のモードでメディアをキャプチャするように構成される。 An electronic device (eg, 600) is a display device and one or more cameras (eg, dual cameras, triples) on the same or different side of the electronic device (eg, front camera, rear camera). Cameras, quad cameras, etc.)) are included. The electronic device displays the camera user interface via the display device (3602). The camera user interface includes a camera display area (eg, 602) (eg, displaying at the same time). The camera display area includes a representation of the field of view of one or more cameras and a camera control area (eg, 606). The camera user interface also includes a camera control area, which is a first location (eg, an image capture affordance (eg, when activated, on an electronic device, of content displayed within the camera display area). A first plurality of camera mode affordances (eg, 620) (eg, selectable user interface objects) (eg, selectable user interface objects) that indicate different operating modes of one or more cameras at a location above the shutter affords that capture the image. Includes, affordance to select different camera modes (eg slow motion, video, photo, portrait, square, panorama, etc.). In some embodiments, multiple camera modes (eg, two or more of video, photo, portrait, slow motion, panorama modes) allow the camera (eg, camera sensor) to capture the media. Corresponding multiple settings (eg, ports) that have multiple values (eg, the light level of each setting) of a working mode (including post-processing that is done automatically after capture) (eg, portrait mode). About rate camera mode: Has studio lighting settings, contour lighting settings, stage lighting settings). In this way, for example, the camera mode is different from the mode that does not affect how the camera behaves when capturing media, or multiple settings (eg, multiple values (eg, non-). Does not include flash mode) with one setting that has active, active, automatic). In some embodiments, camera modes allow the user to capture different types of media (eg, photos or videos), optimizing the settings for each mode, and specifying specific characteristics (eg, shapes (eg, shapes)). For example, it is possible to capture a particular type of media (eg, via post-processing) that corresponds to a particular mode with speed (eg, slow motion, over time), audio, video) (square, rectangle). can. For example, if the electronic device is configured to operate in still photo mode, one or more cameras in the electronic device will have certain settings (eg, flash settings, one or more filter settings) when activated. ) Is captured and the electronic device is configured to operate in square mode, one or more cameras of the electronic device are activated. And the electronic device is configured to capture a second type of media (eg, a square photo) with specific settings (eg, flash settings and one or more filters) and operate in slow motion mode. If so, one or more cameras in the electronic device, when activated, have a third type of media (eg, slow motion video) with certain settings (eg, flash settings, number of frames per second capture speed). When an electronic device is configured to capture media and operate in portrait mode, one or more cameras in the electronic device may have certain settings (eg, certain types of light (eg, stage light, etc.)). Captures media of a fifth type (eg, portrait photo (eg, photo with a blurred background)) with the amount of studio light, contour light), f value, blur) and operates in panoramic mode. When the electronic device is configured as such, one or more cameras of the electronic device have a fourth type (eg, panorama) with specific settings (eg, zoom, amount of field of view for capturing while moving). Capturing media of a photo (eg, a large photo). In some embodiments, when switching between modes, the display of the visual field representation changes to correspond to the type of media captured by the mode (eg,). , While the electronic device is operating in still photo mode, this representation is in rectangular mode, and while the electronic device is operating in square mode, this representation is square). In some embodiments. The electronic device is configured to capture media in the first mode while displaying the first plurality of camera mode affordances.

1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンス(例えば、図35Aの620)を表示している間に、電子デバイスは、カメラユーザインタフェースに向けられた(例えば、その上、又はそれに対応する場所での)第1のジェスチャ(例えば、3350a及び/又は3350b)(例えば、タッチジェスチャ(例えば、上向きスワイプ又は下向き)、アフォーダンス(例えば、3502)上でのタップジェスチャ)を検出する(3604)。 While displaying a first plurality of camera mode affordances (eg, 620 in FIG. 35A) indicating different operating modes of one or more cameras, the electronic device is directed to the camera user interface (eg, its). First gesture (eg, 3350a and / or 3350b) (eg, touch gesture (eg, swipe up or down), affordance (eg, tap gesture on 3502)) above or correspondingly. Detect (3604).

カメラユーザインタフェースに向けられた第1のジェスチャを検出したことに応答して(3606)、電子デバイスは、第1の場所で第1の1組のカメラ設定(例えば、カメラ動作を制御する設定)アフォーダンス(例えば、図35Bの626)(例えば、1つ以上の選択可能ユーザインタフェースオブジェクト)(例えば、選択されたカメラモードのカメラ設定(例えば、フラッシュ、タイマー、フィルタ効果、f値、アスペクト比、ライブフォトなど)を選択又は変更するアフォーダンス)を表示し(3608)、第1の場所でカメラの異なる動作モードを示す複数のカメラモードアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)の表示を停止する(3610)。いくつかの実施形態では、第1の1組のカメラ設定アフォーダンスは、第1のカメラモード(例えば、620c)の画像キャプチャを調整する設定(例えば、画像キャプチャの動作を調整するコントロール)である(例えば、カメラモードアフォーダンスを、カメラ設定アフォーダンスに置き換える)(例えば、第1の1組のカメラ設定アフォーダンスは、選択されると、電子デバイスに、第1のカメラモードの第1の画像キャプチャ設定(例えば、特性)を調整させる、第1のアフォーダンスを含む)。ジェスチャに応答して、カメラモードでメディアをキャプチャする選択されたカメラアフォーダンスに対応するカメラ設定アフォーダンスを表示することにより、カメラモードに関連付けられたカメラ設定についてのフィードバックをユーザに提供し、かつ1つ以上の動作がカメラ設定アフォーダンスを選択するように行われると、ユーザがカメラ設定に基づいてカメラモードを容易に構成するのを手助けすることにより、デバイスのより多くのコントロールをユーザに提供する。表示される追加コントローラによってUIを雑然とさせることなく、追加制御できるようにすることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In response to detecting a first gesture directed at the camera user interface (3606), the electronic device has a first set of camera settings in a first place (eg, a setting that controls camera operation). Affordance (eg, 626 in Figure 35B) (eg, one or more selectable user interface objects) (eg, camera settings for the selected camera mode (eg, flash, timer, filter effect, f value, aspect ratio, live). Display (3608) an affordance to select or change (such as a photo) and stop displaying multiple camera mode affordances (eg, selectable user interface objects) that indicate different operating modes of the camera in the first location (3610). ). In some embodiments, the first set of camera setting affordances is a setting that adjusts the image capture of the first camera mode (eg, 620c) (eg, a control that adjusts the behavior of the image capture) (eg, a control that adjusts the behavior of the image capture). For example, replace the camera mode affordance with a camera setting affordance) (eg, a first set of camera setting affordances, when selected, gives the electronic device a first image capture setting for the first camera mode (eg, for example). , Characteristics), including the first affordance). Capture media in camera mode in response to gestures Provide users with feedback on camera settings associated with camera mode by displaying the camera setting affordances that correspond to the selected camera affordances, and one. When the above operation is performed to select the camera setting affordance, it provides the user with more control of the device by helping the user easily configure the camera mode based on the camera setting. The additional controller displayed allows additional control without cluttering the UI, which enhances the usability of the device and makes the user-device interface (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.

第1の場所で第1の1組のカメラ設定アフォーダンス(例えば、図35Cの626)を表示している間に、及び第1のカメラモードでメディア(例えば、1つ以上の画像、ビデオ)をキャプチャするように電子デバイスが構成されている(例えば、(例えば、メディアキャプチャの開始(例えば、シャッターアフォーダンス上でのタップ)により)アクティブ化されると、電子デバイスの1つ以上のカメラが、電子デバイスに、第2のカメラモードでメディアをキャプチャさせるようにする設定を調整する))間に、電子デバイスは、カメラユーザインタフェースに向けられた(例えば、その上、又はそれに対応する場所での)第2のジェスチャ(例えば、3550c)(例えば、左向きスワイプ、右向きスワイプ、及び/又は第1のジェスチャに対して相対的に直角な方向へのスワイプ)を受信する(3612)。いくつかの実施形態では、第2のジェスチャは、第1のジェスチャ.とは異なる方向(例えば、直角又は平行でない)にある。 While displaying the first set of camera setting affordances (eg, 626 in FIG. 35C) at the first location, and in the first camera mode, media (eg, one or more images, videos). When an electronic device is configured to capture (eg, by starting media capture (eg, tapping on shutter accommodation)), one or more cameras of the electronic device are electronically While (adjusting the settings that allow the device to capture media in the second camera mode)), the electronic device was pointed at the camera user interface (eg, on or where it corresponds). A second gesture (eg, 3550c) (eg, a leftward swipe, a rightward swipe, and / or a swipe in a direction relatively perpendicular to the first gesture) is received (3612). In some embodiments, the second gesture is the first gesture. In a different direction (eg, not at right angles or parallel).

カメラユーザインタフェースに向けられた第2のジェスチャを受信したことに応答して(3614)、電子デバイスは、第1のカメラモードとは異なる第2のカメラモード(例えば、620c)でメディア(例えば、1つ以上の画像、ビデオ)をキャプチャするように電子デバイスを構成し(3616)(例えば、(例えば、メディアキャプチャの開始(例えば、シャッターアフォーダンス上でのタップ)により)アクティブ化されると、電子デバイスの1つ以上のカメラが、電子デバイスに、第2のカメラモードでメディアをキャプチャさせるようにする設定を調整する))(例えば、第1のカメラモード及び第2のカメラモードは互いに隣接する)(例えば、第2の1組のカメラ設定アフォーダンスは、選択されると、電子デバイスに、第2のカメラモードの第1の画像キャプチャ設定(例えば、特性)を調整させる、第2のアフォーダンスを含む)、第1の場所で1つ以上のカメラの異なる動作モードを示す複数のカメラモードアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、異なるカメラモード(例えば、スローモーション、ビデオ、写真、ポートレート、正方形、パノラマなど)を選択するアフォーダンス)を表示することなく、第1の場所で第2の1組のカメラ設定アフォーダンス(例えば、図35Eの626)(例えば、1つ以上の選択可能ユーザインタフェースオブジェクト)(例えば、選択されたカメラモードのカメラ設定(例えば、フラッシュ、タイマー、フィルタ効果、f値、アスペクト比、ライブフォトなど)を選択又は変更するアフォーダンス)を表示する(3618)。選択されたカメラアフォーダンスに対応するカメラ設定アフォーダンスの表示を、異なるモードに対応するカメラ設定アフォーダンスの表示で更新すること、及び異なるモードで動作するように電子デバイスを構成することにより、ユーザが異なるモードで動作するようにメディアを構成する必要があり、かつ異なるモードに対応するカメラ設定を設定する必要がある動作の数を低減し、1つ以上の動作がカメラ設定アフォーダンスを選択するように行われると、ユーザがカメラ設定に基づいてカメラモードを容易に構成するのを手助けすることにより、デバイスのより多くのコントロールをユーザに提供する。操作を行うのに必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。表示される追加コントローラによってUIを雑然とさせることなく、追加制御できるようにすることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In response to receiving a second gesture directed at the camera user interface (3614), the electronic device is in media (eg, 620c) in a second camera mode (eg, 620c) that is different from the first camera mode. When an electronic device is configured to capture (one or more images, videos) (3616) (eg, by the start of media capture (eg, tapping on shutter accommodation)), the electronic device is electronic. One or more cameras on the device adjust the settings that allow the electronic device to capture media in the second camera mode) (eg, the first camera mode and the second camera mode are adjacent to each other. (For example, a second set of camera setting affordances, when selected, causes the electronic device to adjust the first image capture settings (eg, characteristics) of the second camera mode. Multiple camera mode affordances (eg, selectable user interface objects) (eg, slow motion, video, photo, port) that indicate different operating modes of one or more cameras in a first place (including). A second set of camera setting affordances (eg, 626 in Figure 35E) (eg, one or more selectable users) in a first location without displaying the affords to select rates, squares, panoramas, etc.) Interface objects) (for example, affordance to select or change camera settings (eg, flash, timer, filter effect, f-value, aspect ratio, live photo, etc.) for the selected camera mode) (3618). By updating the display of the camera settings affordances corresponding to the selected camera affordances with the display of the camera settings affordances corresponding to different modes, and by configuring the electronic device to operate in different modes, the user can use different modes. One or more actions are made to select the camera setting affordance, reducing the number of actions that need to be configured to work with and set camera settings for different modes. And by helping the user easily configure the camera mode based on the camera settings, it gives the user more control over the device. By reducing the number of inputs required to perform an operation, the device is more user-friendly and the user-device interface (eg, to provide the appropriate input when operating / interacting with the device). By helping users to make their devices more efficient (by reducing user errors), and in addition, by allowing users to use their devices faster and more efficiently, they reduce power usage and reduce device battery life. Improve. The additional controller displayed allows additional control without cluttering the UI, which enhances the usability of the device and makes the user-device interface (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.

いくつかの実施形態では、第2の1組のカメラ設定アフォーダンスは、第2のカメラモードの画像キャプチャを調整する設定(例えば、画像キャプチャの動作を調整するコントロール)である(3620)(例えば、図35Eの626)(例えば、第2の1組のカメラ設定アフォーダンスは、選択されると、電子デバイスに、第2のカメラモードの第2の画像キャプチャ設定(例えば、特性)を調整させる、第2のアフォーダンスを含む)。 In some embodiments, the second set of camera setting affordances is a setting that adjusts the image capture of the second camera mode (eg, a control that adjusts the behavior of the image capture) (3620) (eg, the control). 626 of FIG. 35E) (eg, a second set of camera setting affordances, when selected, causes the electronic device to adjust the second image capture settings (eg, characteristics) of the second camera mode. Including 2 affordances).

いくつかの実施形態では、第2の1組のカメラ設定アフォーダンス(例えば、図35Eの626)は、第1の1組のカメラ設定アフォーダンス(例えば、図35Bの626)とは異なる。いくつかの実施形態では、第1の1組のカメラ設定アフォーダンスは、第2の1組のカメラ設定アフォーダンスにあるカメラ設定アフォーダンスを含む。いくつかの実施形態では、第1の1組のカメラ設定アフォーダンスは、第2の1組のカメラ設定アフォーダンスにないカメラ設定アフォーダンスを含む。いくつかの実施形態では、第1の1組のカメラ設定アフォーダンス及び第2の1組のカメラ設定アフォーダンスは、異なる数のカメラ設定アフォーダンスを有する。いくつかの実施形態では、第2の1組のカメラ設定アフォーダンスを、第1の1組のカメラ設定アフォーダンスに置き換える。選択されたカメラアフォーダンスに対応するカメラ設定アフォーダンスの表示を、異なるモードに対応するカメラ設定アフォーダンスの表示で更新することにより、カメラモードに関連付けられたカメラ設定についてのフィードバックをユーザに提供し、かつ1つ以上の動作がカメラ設定アフォーダンスを選択するように行われると、ユーザがカメラ設定に基づいてカメラモードを容易に構成するのを手助けすることにより、デバイスのより多くのコントロールをユーザに提供する。操作を行うのに必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。表示される追加コントローラによってUIを雑然とさせることなく、追加制御できるようにすることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the second set of camera setting affordances (eg, 626 in FIG. 35E) is different from the first set of camera setting affordances (eg, 626 in FIG. 35B). In some embodiments, the first set of camera setting affordances includes the camera setting affordances in the second set of camera setting affordances. In some embodiments, the first set of camera setting affordances includes a camera setting affordance that is not in the second set of camera setting affordances. In some embodiments, the first set of camera setting affordances and the second set of camera setting affordances have different numbers of camera setting affordances. In some embodiments, the second set of camera setting affordances is replaced with a first set of camera setting affordances. By updating the display of the camera settings affordances corresponding to the selected camera affordances with the display of the camera settings affordances corresponding to different modes, the user is provided with feedback on the camera settings associated with the camera mode, and 1 When one or more actions are taken to select a camera setting affordance, it provides the user with more control of the device by helping the user easily configure the camera mode based on the camera setting. By reducing the number of inputs required to perform an operation, the device is more user-friendly and the user-device interface (eg, to provide the appropriate input when operating / interacting with the device). By helping users to make their devices more efficient (by reducing user errors), and in addition, by allowing users to use their devices faster and more efficiently, they reduce power usage and reduce device battery life. Improve. The additional controller displayed allows additional control without cluttering the UI, which enhances the usability of the device and makes the user-device interface (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.

いくつかの実施形態では、第1の1組のカメラ設定アフォーダンス(例えば、図35Bの626)(又は第2の1組のカメラ設定アフォーダンス)は、フラッシュ設定アフォーダンス(例えば、626a)(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、選択されると、電子デバイスに、電子デバイスが、メディアをキャプチャする要求に応答して、フラッシュ動作を使用して、メディアをキャプチャする状態に又は状態から変更させ(例えば、又は電子デバイスに、変化させるオプションを表示する)、表示されたフラッシュ設定アフォーダンスの状態(非アクティブ、アクティブ、自動、1つ以上の文字、及び/又はカメラ設定アフォーダンスに関連付けられた画像)の表示をトグル(例えば、変化)させ、及び/又はフラッシュ動作を設定するユーザインタフェースを表示させる、フラッシュ設定アフォーダンス)、画像キャプチャ設定アフォーダンス(例えば、626b)(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、選択されると、電子デバイスに、電子デバイスが、メディアをキャプチャする要求に応答して、アニメーション化された画像(例えば、動画(例えば、静止画像(複数可)及び/又はビデオ))をキャプチャする状態に又は状態から変更させ(例えば、又は電子デバイスに、変化させるオプションを表示する)、表示された画像キャプチャ設定アフォーダンスの状態(非アクティブ、アクティブ、自動、1つ以上の文字、及び/又はカメラ設定アフォーダンスに関連付けられた画像)の表示をトグル(例えば、変化)させ、及び/又はアニメーション化された画像キャプチャ動作を設定するユーザインタフェースを表示させる、画像キャプチャ設定アフォーダンス(例えば、アニメーション化された画像キャプチャ設定アフォーダンス))、アスペクト比カメラ設定アフォーダンス(例えば、626c)(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、選択されると、電子デバイスに、電子デバイスが、メディアをキャプチャする要求に応答して、特定のアスペクト比を使用してメディアをキャプチャする状態に又は状態から変更させ(例えば、又は電子デバイスに、変化させるオプションを表示する)、表示されたアスペクト比カメラ設定アフォーダンスの状態(非アクティブ、アクティブ、自動、1つ以上の文字、及び/又はカメラ設定アフォーダンスに関連付けられた画像)の表示をトグル(例えば、変化)させ、及び/又はメディアをキャプチャするときに、特定のアスペクト比の使用のためのユーザインタフェースを表示させる、アスペクト比設定アフォーダンス)、フィルタ設定カメラ設定アフォーダンス(例えば、626e)(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、選択されると、電子デバイスに、電子デバイスが、メディアをキャプチャする要求に応答して、特定のフィルタを使用して、キャプチャする状態に又は状態から変更させ(例えば、又は電子デバイスに、変化させるオプションを表示する)、表示されたフィルタカメラ設定アフォーダンスの状態(非アクティブ、アクティブ、自動、1つ以上の文字、及び/又はカメラ設定アフォーダンスに関連付けられた画像)の表示をトグル(例えば、変化)させ、及び/又はメディアをキャプチャするときに、特定のフィルタの使用を設定するユーザインタフェースを表示させる、フィルタ設定アフォーダンス)、高ダイナミックレンジイメージングカメラ設定アフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、選択されると、電子デバイスに、電子デバイスが、画像メディアをキャプチャする要求に応答して、高ダイナミックレンジをキャプチャする状態に又は状態から変更させ(例えば、又は電子デバイスに、変化させるオプションを表示する)、表示された高ダイナミックレンジ設定アフォーダンスの状態(非アクティブ、アクティブ、自動、1つ以上の文字、及び/又はカメラ設定アフォーダンスに関連付けられた画像)の表示をトグル(例えば、変化)させ、及び/又はメディアをキャプチャするときに、高ダイナミックレンジイメージングを使用するユーザインタフェースを表示させる、高ダイナミックレンジ設定アフォーダンス)、及び低光カメラ設定アフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、選択されると、電子デバイスに、電子デバイスが、メディアをキャプチャする要求に応答して、低光モード動作を使用して、メディアをキャプチャする状態に又は状態から変更させ(例えば、又は電子デバイスに、変化させるオプションを表示する)、表示された低光キャプチャカメラモードアフォーダンスの状態(非アクティブ、アクティブ、自動、1つ以上の文字、及び/又はカメラ設定アフォーダンスに関連付けられた画像)の表示をトグル(例えば、変化)させ、及び/又は低光キャプチャカメラモードを設定するユーザインタフェースを表示させる、低光カメラ設定アフォーダンス)のうちの1つ以上を含む。 In some embodiments, the first set of camera setting affordances (eg, 626 in FIG. 35B) (or the second set of camera setting affordances) is a flash setting affordance (eg, 626a) (eg, selection). Possible user interface objects) (eg, when selected, causes the electronic device to change from state to state to capture media using flash operation in response to a request for the electronic device to capture media (eg). For example, or on an electronic device, display options to change), the displayed flash setting affordance state (inactive, active, automatic, one or more characters, and / or the image associated with the camera setting affordance). Toggle the display (eg, change) and / or display the user interface that sets the flash behavior, flash settings affordance, image capture settings affordance (eg, 626b) (eg, selectable user interface objects) (eg, selectable user interface objects). When selected, the electronic device captures an animated image (eg, a moving image (eg, still image (s) and / or video)) in response to a request to capture the media. Change to or from state (eg, or electronic device, display options to change) and display image capture settings affordable state (inactive, active, automatic, one or more characters, and / or camera Image capture settings affordance (eg, animated images) that toggle the display of the settings affordance (eg, change) and / or display a user interface that sets the animated image capture behavior. Capture settings affordance)), aspect ratio camera settings affordance (eg, 626c) (eg, selectable user interface objects) (eg, when selected, to the electronic device, in response to a request for the electronic device to capture the media. The state of the aspect ratio camera settings afforded (inactive, Active, automatic, one or more characters, and / or camera Toggle (eg, change) the display of the camera (image associated with the camera) and / or display the user interface for the use of a particular aspect ratio when capturing the media. , Filter settings Camera settings Affordability (eg, 626e) (eg, selectable user interface objects) (eg, when selected, the electronic device receives a particular filter in response to a request for the electronic device to capture the media. Use to change to or from the state to capture (eg, or to the electronic device, display options to change) and the displayed filter camera settings affordance state (inactive, active, automatic, one or more Filters that toggle (eg, change) the display of text and / or images associated with camera settings affordance, and / or display a user interface that sets the use of specific filters when capturing media. Settings Affordance), High Dynamic Range Imaging Camera Settings Affordance (eg, selectable user interface objects) (eg, when selected, the electronic device has a high dynamic range in response to a request for the electronic device to capture image media. The state of the high dynamic range setting affordance displayed (inactive, active, automatic, one or more characters, for example, or the electronic device shows the option to change). High dynamic range settings that toggle (eg, change) the display of (and / or images associated with camera settings) and / or display a user interface that uses high dynamic range imaging when capturing media. Affordance), and low-light camera settings Affordance (eg, selectable user interface objects) (eg, when selected, the electronic device uses low-light mode operation in response to a request to capture the media. Then change to or out of state to capture the media (eg, or show the electronic device the option to change) and the displayed low light capture camera mode affordance state (inactive, active, automatic, 1). One or more characters, and / Or one of the low-light camera setting affordances) that toggles (eg, changes) the display of the camera settings affordances) and / or displays the user interface that sets the low-light capture camera mode. Including the above.

いくつかの実施形態では、電子デバイスは、第1のジェスチャ(例えば、3550a)(例えば、ドラッグジェスチャ)を検出し、カメラユーザインタフェースに向けられた第1の接触(例えば、連続的な接触)を検出することを含む。いくつかの実施形態では、第1のジェスチャを検出している間に、電子デバイスは、第1の接触のリフトオフを検出する前に、第1のジェスチャの完了(例えば、図35Bの3550a)(例えば、第1の閾値移動又は移動をドラッグ)を検出する。いくつかの実施形態では、ジェスチャの移動が第1の閾値移動を有する(例えば、第1の距離を移動した)という判定に従って、電子デバイスは、第1のジェスチャの完了を検出する。いくつかの実施形態では、第1の接触のリフトオフを検出する前に、第1のジェスチャの完了を検出したことに応答して、電子デバイスは、触知出力(例えば、3560a)(例えば、1つ以上の触知出力生成器で生成された触覚(例えば、振動)出力)を提供する。 In some embodiments, the electronic device detects a first gesture (eg, 3550a) (eg, drag gesture) and makes a first contact (eg, continuous contact) directed at the camera user interface. Including to detect. In some embodiments, while detecting the first gesture, the electronic device completes the first gesture (eg, 3550a in FIG. 35B) before detecting the lift-off of the first contact. For example, the first threshold movement or dragging the movement) is detected. In some embodiments, the electronic device detects the completion of the first gesture according to the determination that the gesture movement has a first threshold movement (eg, has traveled a first distance). In some embodiments, in response to detecting the completion of the first gesture before detecting the lift-off of the first contact, the electronic device has a tactile output (eg, 3560a) (eg, 1). It provides a tactile (eg, vibration) output) generated by one or more tactile output generators.

いくつかの実施形態では、カメラユーザインタフェースを表示している間に、電子デバイスは、カメラユーザインタフェースに向けられた第3のジェスチャ(例えば、3550d)(例えば、左向きスワイプ、右向きスワイプ、及び/又は第2のジェスチャと同じ又は反対の方向へのスワイプ)を検出する。いくつかの実施形態では、カメラユーザインタフェースに向けられた第3のジェスチャ(例えば、3550c又は3550h)を検出したことに応答して、及び第3のジェスチャが検出されたときに、第2の1組のカメラ設定アフォーダンス(例えば、図35Cの626)(又は第1の1組のカメラ設定アフォーダンス)が表示されたという判定に従って、電子デバイスは、第3のカメラモードでメディア(例えば、1つ以上の画像、ビデオ)をキャプチャするように電子デバイスを構成し(例えば、(例えば、メディアキャプチャの開始(例えば、シャッターアフォーダンス上でのタップ)により)アクティブ化されると、電子デバイスの1つ以上のカメラが、電子デバイスに、第2のカメラモードでメディアをキャプチャさせるようにする設定を調整する))(例えば、第1のカメラモード及び第2のカメラモードは互いに隣接する)(例えば、第2の1組のカメラ設定アフォーダンスは、選択されると、電子デバイスに、第2のカメラモードの第1の画像キャプチャ設定(例えば、特性)を調整させる、第2のアフォーダンスを含む)、1つ以上のカメラの異なる動作モードを示す複数のカメラモードアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、異なるカメラモード(例えば、スローモーション、ビデオ、写真、ポートレート、正方形、パノラマなど)を選択するアフォーダンス)を表示することなく、第1の場所で、第3の1組のカメラ設定アフォーダンス(例えば、図35Eの626)(例えば、1つ以上の選択可能ユーザインタフェースオブジェクト)(例えば、選択されたカメラモードのカメラ設定(例えば、フラッシュ、タイマー、フィルタ効果、f値、アスペクト比、ライブフォトなど)を選択又は変更するアフォーダンス)を表示する。いくつかの実施形態では、カメラユーザインタフェースに向けられた第3のジェスチャを受信したことに応答して、及び第1の1組のカメラ設定アフォーダンス又は第2の1組のカメラ設定アフォーダンスが現在表示されているという判定に従って、電子デバイスは、第1の1組のカメラ設定アフォーダンス又は第2の1組のカメラ設定アフォーダンスの表示を停止する。いくつかの実施形態では、カメラユーザインタフェースに向けられた第3のジェスチャ(例えば、3550c又は3550h)を検出したことに応答して、及び第3のジェスチャが検出されたときに、第2の1組のカメラ設定アフォーダンス(例えば、図35Cの626)(又は第1の1組のカメラ設定アフォーダンス)が表示されたという判定に従って、電子デバイスは、第3のカメラモードでメディア(例えば、1つ以上の画像、ビデオ)をキャプチャするように電子デバイスを構成し、かつ第3のジェスチャ(例えば、3550h)が検出されたときに、第1の複数のカメラモードアフォーダンス(例えば、図35Hの620)が表示されたという判定に従って、電子デバイスは、第2の1組のカメラ設定アフォーダンス(又は第1の1組のカメラ設定アフォーダンス)及び第3の1組のカメラ設定アフォーダンスを表示することなく、第1の場所で、カメラの異なるカメラ動作モードを示す第2の複数のカメラモードアフォーダンス(例えば、図35I)を表示し、第1のカメラモード及び第3のカメラモードでメディアをキャプチャするように電子デバイスを構成する。いくつかの実施形態では、カメラユーザインタフェースに向けられた第3のジェスチャを受信したことに応答して、及び第1の複数のカメラモードアフォーダンスが現在表示されているという判定に従って、電子デバイスは、第1の複数のカメラモードアフォーダンスの表示を停止する。いくつかの実施形態では、第2の複数のカメラモードアフォーダンスを表示している間に、電子デバイスは、第2のモードでメディアをキャプチャするように構成される。いくつかの実施形態では、第2の複数のカメラモードアフォーダンスを表示している間に、電子は、第3のモードでメディアをキャプチャするように構成される。いくつかの実施形態では、第2の複数のカメラアフォーダンスは、第1の複数のカメラモードアフォーダンスとは異なる。いくつかの実施形態では、第2の複数のカメラモードアフォーダンスは、第1の複数のカメラモードアフォーダンスにない1つ以上のアフォーダンスを含み、又は逆もまた同様である。ジェスチャに応答して、カメラモードアフォーダンスが表示されるときにカメラモードアフォーダンスを維持すること、又はカメラ設定アフォーダンスが表示されるときにカメラ設定アフォーダンスを維持することにより、入力に応答して、カメラモードアフォーダンス又はカメラ設定アフォーダンスにおける変化の視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, while displaying the camera user interface, the electronic device is directed to a third gesture (eg, 3550d) (eg, leftward swipe, rightward swipe, and / or). Swipe in the same or opposite direction as the second gesture). In some embodiments, in response to detecting a third gesture directed at the camera user interface (eg, 3550c or 3550h), and when a third gesture is detected, a second one. According to the determination that a set of camera setting affordances (eg, 626 in FIG. 35C) (or a first set of camera setting affordances) is displayed, the electronic device is set to media (eg, one or more) in the third camera mode. When an electronic device is configured to capture a camera (image, video) (eg, by starting a media capture (eg, tapping on shutter accommodation)), one or more of the electronic devices The camera adjusts the settings that allow the electronic device to capture media in the second camera mode) (eg, the first camera mode and the second camera mode are adjacent to each other) (eg, the second A set of camera setting affordances, when selected, causes the electronic device to adjust the first image capture settings (eg, characteristics) of the second camera mode, including a second affordance), one or more. Affordance to select multiple camera mode affordances (eg, selectable user interface objects) (eg, slow motion, video, photo, portrait, square, panorama, etc.) that indicate different operating modes of the camera. ) At the first location, a third set of camera configuration affordances (eg, 626 in FIG. 35E) (eg, one or more selectable user interface objects) (eg, selected cameras). Shows the affordability to select or change the mode's camera settings (eg flash, timer, filter effect, f value, aspect ratio, live photo, etc.). In some embodiments, in response to receiving a third gesture directed at the camera user interface, and a first set of camera setting affordances or a second set of camera setting affordances is currently displayed. According to the determination, the electronic device stops displaying the first set of camera setting affordances or the second set of camera setting affordances. In some embodiments, in response to detecting a third gesture directed at the camera user interface (eg, 3550c or 3550h), and when a third gesture is detected, a second one. According to the determination that a set of camera setting affordances (eg, 626 in FIG. 35C) (or a first set of camera setting affordances) is displayed, the electronic device is set to media (eg, one or more) in the third camera mode. When the electronic device is configured to capture the image, video) and a third gesture (eg, 3550h) is detected, the first plurality of camera mode affordances (eg, 620 in FIG. 35H) According to the determination that it is displayed, the electronic device does not display the second set of camera setting affordances (or the first set of camera setting affordances) and the third set of camera setting affordances. At the location of, display a second plurality of camera mode accommodations (eg, FIG. 35I) indicating different camera operating modes of the camera, and electronic devices to capture media in the first and third camera modes. To configure. In some embodiments, the electronic device responds to the receipt of a third gesture directed at the camera user interface, and according to the determination that the first plurality of camera mode affordances are currently displayed. The display of the first plurality of camera mode affordances is stopped. In some embodiments, the electronic device is configured to capture media in the second mode while displaying the second plurality of camera mode affordances. In some embodiments, the electrons are configured to capture the media in a third mode while displaying the second plurality of camera mode affordances. In some embodiments, the second plurality of camera affordances are different from the first plurality of camera mode affordances. In some embodiments, the second plurality of camera mode affordances include one or more affordances not found in the first plurality of camera mode affordances, and vice versa. In response to a gesture, the camera mode responds to input by maintaining the camera mode affordance when the camera mode affordance is displayed, or by maintaining the camera setting affordance when the camera setting affordance is displayed. Affordance or camera settings Provide users with visual feedback of changes in affordances. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

いくつかの実施形態では、電子デバイスは、第1の場所で、第3の1組のカメラ設定アフォーダンス(例えば、図35Eの626)を表示し、第1の1組のカメラ設定アフォーダンス(例えば、図35Cの626)(例えば、又は現在表示される第2の1組のカメラ設定アフォーダンス)を置き換える、第3の1組のカメラ設定アフォーダンスのアニメーション(例えば、図35C〜図35E)を表示することを含む。いくつかの実施形態では、第3のジェスチャ(例えば、スワイプ)を検出すると、カメラ設定アフォーダンスが隠れる場合には、アニメーションは表示されない。いくつかの実施形態では、アニメーションは、1つ以上のコントロールのフェード又はフェードアウトを含む。いくつかの実施形態では、アニメーションは、1つ以上のコントロールを含み、1つ以上のコントロールは、近づくように又は更に離れるように動いて、追加のコントロールのための余地を作る、又は消失したコントロールによって以前に占有されていた空間を充填する。) In some embodiments, the electronic device displays a third set of camera setting affordances (eg, 626 in FIG. 35E) at a first location and a first set of camera setting affordances (eg, eg). Displaying a third set of camera setting affordance animations (eg, FIGS. 35C-35E) that replaces (eg, or currently displayed a second set of camera setting affordances) in FIG. 35C. including. In some embodiments, detecting a third gesture (eg, swipe) does not display the animation if the camera setting affordances are hidden. In some embodiments, the animation comprises fading or fading out one or more controls. In some embodiments, the animation comprises one or more controls, the one or more controls moving closer or further away, leaving room for additional controls or disappearing controls. Fills the space previously occupied by. )

いくつかの実施形態では、1つ以上のカメラの視野の表現は、1つ以上のカメラの視野の第1の部分の第1の表現である。いくつかの実施形態では、カメラユーザインタフェースに向けられた第2のジェスチャを受信したことに応答して、及び第1のタイプのカメラ(例えば、超広角カメラ)(例えば、3180a)を介してメディアをキャプチャするように電子デバイスが構成されているという判定に従って、電子デバイスは、1つ以上のカメラの視野の第2の部分(例えば、図35Aの630に表示された3540)の第2の表現を表示する。いくつかの実施形態では、視野の第2の部分は、1つ以上のカメラの視野の第1の部分(例えば、図35Bの630に表示される3540)のうちのいくらかを含まない(例えば、1つ以上のカメラの視野の部分の一部は、第2の表現を表示するときに、ディスプレイから外れてシフトされる)。所定の条件が満たされているときにのみ、ディスプレイのコンテンツをオン/オフをシフトすることにより、ユーザは、電子デバイスがカメラモードを表示することとカメラ設定を表示することとの間を切り替えたことを迅速に認識することができ、かつユーザは、メディアの以前に表示された部分がキャプチャされず、又は電子デバイスが特定のユーザインタフェースを表示する間に、メディアをキャプチャする要求に応答して、メディアの新たに表示された部分がキャプチャされることを認識することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the representation of the field of view of one or more cameras is the first representation of the first portion of the field of view of one or more cameras. In some embodiments, the media responds to receiving a second gesture directed at the camera user interface and via a first type of camera (eg, ultra-wide angle camera) (eg, 3180a). According to the determination that the electronic device is configured to capture, the electronic device is a second representation of a second portion of the field of view of one or more cameras (eg, 3540 displayed in 630 of FIG. 35A). Is displayed. In some embodiments, the second portion of the field of view does not include some of the first portion of the field of view of one or more cameras (eg, 3540 displayed in 630 of FIG. 35B) (eg, 3540). A portion of the field of view of one or more cameras is shifted off the display when displaying the second representation). By shifting the display content on and off only when certain conditions are met, the user switches between displaying the camera mode and displaying the camera settings on the electronic device. Can be quickly recognized and the user responds to a request to capture the media while the previously displayed portion of the media is not captured or the electronic device displays a particular user interface. , It can be recognized that the newly displayed part of the media is captured. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.

いくつかの実施形態では、1つ以上のカメラの視野の表現は、1つ以上のカメラの視野の第3の部分の第3の表現である。いくつかの実施形態では、カメラユーザインタフェースに向けられた第2のジェスチャを受信したことに応答して、及び第2のタイプのカメラ(例えば、超広角カメラ(例えば、第1のタイプのカメラと同一カメラタイプのカメラ))を使用してメディアをキャプチャするように電子デバイスが構成されているという判定に従って、電子デバイスは、1つ以上のカメラの視野の第4の部分の第4の表現を表示する。いくつかの実施形態では、1つ以上のカメラの視野の第4の部分(例えば、図35Aの630に表示される3538)は、1つ以上のカメラの視野の第3の部分内にない1つ以上のカメラの視野の一部分(例えば、図35Bの630に表示される3538)を含む(例えば、1つ以上のカメラの視野の部分の一部は、第2の表現を表示するときに、ディスプレイ上にシフトされる)。所定の条件が満たされているときにのみ、ディスプレイのコンテンツをオン/オフをシフトすることにより、ユーザは、電子デバイスがカメラモードを表示することとカメラ設定を表示することとの間を切り替えたことを迅速に認識することができ、かつユーザは、メディアの以前に表示された部分がキャプチャされず、又は電子デバイスが特定のユーザインタフェースを表示する間に、メディアをキャプチャする要求に応答して、メディアの新たに表示された部分がキャプチャされることを認識することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the representation of the field of view of one or more cameras is the third representation of the third portion of the field of view of one or more cameras. In some embodiments, in response to receiving a second gesture directed at the camera user interface, and a second type of camera (eg, an ultra-wide angle camera (eg, with a first type of camera)). According to the determination that the electronic device is configured to capture media using the same camera type camera)), the electronic device makes a fourth representation of the fourth part of the field of view of one or more cameras. indicate. In some embodiments, the fourth portion of the field of view of one or more cameras (eg, 3538 displayed in 630 of FIG. 35A) is not within the third portion of the field of view of one or more cameras1. A portion of the field of view of one or more cameras (eg, 3538 displayed in 630 of FIG. 35B) is included (eg, a portion of the field of view of one or more cameras when displaying the second representation. Shifted onto the display). By shifting the display content on and off only when certain conditions are met, the user switches between displaying the camera mode and displaying the camera settings on the electronic device. Can be quickly recognized and the user responds to a request to capture the media while the previously displayed portion of the media is not captured or the electronic device displays a particular user interface. , It can be recognized that the newly displayed part of the media is captured. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.

いくつかの実施形態では、1つ以上のカメラの視野の表現は、1つ以上のカメラの視野の第5の部分の第5の表現である。いくつかの実施形態では、第5の表現は、ディスプレイ上の第2の場所に表示される。いくつかの実施形態では、カメラユーザインタフェースに向けられた第2のジェスチャを受信したことに応答して、及び第3のタイプのカメラ(例えば、広角又は望遠写真カメラ(例えば、第3のタイプのカメラは、第1のタイプのカメラ及び第2のタイプのカメラとは異なる)を使用してメディアをキャプチャするように電子デバイスが構成されているという判定に従って、電子デバイスは、ディスプレイ上の第2の場所からディスプレイ上の第3の場所に第5の表現を動かす(例えば、1つ以上のカメラの視野の部分がディスプレイから外れてシフトされているように見えない)。 In some embodiments, the representation of the field of view of one or more cameras is the fifth representation of the fifth portion of the field of view of one or more cameras. In some embodiments, the fifth representation is displayed in a second location on the display. In some embodiments, in response to receiving a second gesture directed at the camera user interface, and a third type of camera (eg, a wide-angle or telephoto camera (eg, a third type). According to the determination that the electronic device is configured to capture media using a camera of the first type and a camera of the second type), the electronic device is a second on the display. Move the fifth representation from one location to a third location on the display (eg, parts of the field of view of one or more cameras do not appear to be shifted off the display).

いくつかの実施形態では、第1のカメラモードは、ポートレートモード(例えば、図35Gの626c)である。いくつかの実施形態では、1つ以上のカメラの視野の表現(例えば、図35Gの630)は、第1のズームレベル(例えば、2622a)(例えば、0.5×、1×、2×)で表示される。いくつかの実施形態では、第1の複数のカメラモードアフォーダンス(例えば、620)(例えば、ポートレートモード)を表示している間に、電子デバイスは、照明効果動作及びズームアフォーダンス(例えば、2622a)を制御するアフォーダンス(例えば、628)(例えば、選択可能ユーザインタフェースオブジェクト)を表示する(例えば、同時に表示された)。ズームアフォーダンス(例えば、フォーカスセレクタがズームアフォーダンスに向けられている間のズームアフォーダンス上でのタップ入力又はマウスクリック又は他のアクティブ化入力)を表示している間に、電子デバイスは、ズームアフォーダンスに向けられた第4のジェスチャ(例えば、3550g)を受信する。いくつかの実施形態では、ズームアフォーダンスに向けられた第4のジェスチャを受信したことに応答して、電子デバイスは、第2のズームレベル(例えば、2622c)(例えば、0.5×、1×、2×)で1つ以上のカメラの視野の表現(例えば、図35Hの630)を表示する。 In some embodiments, the first camera mode is a portrait mode (eg, 626c in FIG. 35G). In some embodiments, the representation of the field of view of one or more cameras (eg, 630 in FIG. 35G) is the first zoom level (eg, 2622a) (eg, 0.5x, 1x, 2x). Is displayed. In some embodiments, while displaying the first plurality of camera mode affordances (eg, 620) (eg, portrait mode), the electronic device has a lighting effect operation and zoom affordance (eg, 2622a). Display affordances (eg, 628) (eg, selectable user interface objects) that control (eg, displayed at the same time). While displaying the zoom affordance (eg, tap input or mouse click or other activation input on the zoom affordance while the focus selector is directed to the zoom affordance), the electronic device is directed to the zoom affordance. Receive the fourth gesture (eg, 3550 g) that has been made. In some embodiments, in response to receiving a fourth gesture directed to zoom affordance, the electronic device has a second zoom level (eg, 2622c) (eg, 0.5x, 1x). , 2x) indicates the representation of the field of view of one or more cameras (eg, 630 in FIG. 35H).

いくつかの実施形態では、第1の複数のカメラモードアフォーダンスは、選択されると、メディアをキャプチャする要求に応答して、電子デバイスに第1のカメラモードでメディアをキャプチャさせる第1のカメラモードアフォーダンス(例えば、620c)(例えば、選択可能ユーザインタフェースオブジェクト)と、選択されると、メディアをキャプチャする要求に応答して、電子デバイスに第2のカメラモードでメディアをキャプチャさせる第2のカメラモードアフォーダンス(例えば、620d)(例えば、選択可能ユーザインタフェースオブジェクト)と、を含む。いくつかの実施形態では、第1の複数のカメラモードアフォーダンスが表示されている間に、第1のカメラモードアフォーダンスが選択される(例えば、ディスプレイ上の特定の位置(例えば、中心位置)に、異なるフォント、色、テキストサイズの太字で表示される)。 In some embodiments, the first plurality of camera mode interfaces, when selected, cause the electronic device to capture the media in the first camera mode in response to a request to capture the media. An affordance (eg, 620c) (eg, a selectable user interface object) and, when selected, a second camera mode that causes the electronic device to capture the media in the second camera mode in response to a request to capture the media. Includes affordance (eg, 620d) (eg, selectable user interface objects). In some embodiments, while the first plurality of camera mode affordances are displayed, the first camera mode affordance is selected (eg, at a particular position (eg, center position) on the display). Displayed in bold with different fonts, colors, and text sizes).

いくつかの実施形態では、第1の複数のカメラモードアフォーダンスを表示している間に、第1のカメラモードアフォーダンス(例えば、620c)は、第2のカメラモードアフォーダンス(例えば、620d)に隣接して表示される。いくつかの実施形態では、第1のカメラモードアフォーダンスは、カメラユーザインタフェースに向けられた第1のジェスチャを検出する前、かつ第1の複数のカメラモードアフォーダンスを表示している間に、第1のカメラモードがアクティブ(例えば、図35Aの620c)であるインジケーションとともに表示される(例えば、プレスされた、太字、及び/又は第1のカメラモードが非アクティブ(例えば、黒対グレーアウト)であるときとは異なる色である第1のカメラモードアフォーダンスとともに、第1のカメラモードがアクティブである視覚インジケーションとともに表示される)。いくつかの実施形態では、第2のカメラモードアフォーダンスは、カメラユーザインタフェースに向けられた第1のジェスチャを検出する前、かつ第1の複数のカメラモードアフォーダンスを表示している間に、及び/又は電子デバイスが第1のカメラモードで動作するように構成される間に、第2のカメラモードが非アクティブであるインジケーションとともに表示される(例えば、プレスされない、太字でない、及び/又は第2のカメラモードがアクティブ(例えば、グレーアウト対黒)であるときとは異なる色であるなどの、第2のカメラモードが非アクティブである視覚インジケーションとともに表示される)。 In some embodiments, the first camera mode affordance (eg, 620c) is adjacent to the second camera mode affordance (eg, 620d) while displaying the first plurality of camera mode affordances. Is displayed. In some embodiments, the first camera mode affordance is the first before detecting the first gesture directed at the camera user interface and while displaying the first plurality of camera mode affordances. Is displayed with an indication that the camera mode is active (eg, 620c in FIG. 35A) (eg, pressed, bold, and / or the first camera mode is inactive (eg, black vs. grayout). Along with the first camera mode affordance, which is a different color than the time, the first camera mode is displayed with the active visual indication). In some embodiments, the second camera mode affordance is before detecting the first gesture directed at the camera user interface, and while displaying the first plurality of camera mode affordances, and /. Or while the electronic device is configured to operate in the first camera mode, the second camera mode is displayed with an indication that it is inactive (eg, not pressed, not bold, and / or a second. A second camera mode is displayed with a visual indication that is inactive, such as a different color than when the camera mode is active (eg, grayout vs. black).

いくつかの実施形態では、第1の場所で第2の1組のカメラ設定アフォーダンス(例えば、図35Eの626)を表示している間に、電子デバイスは、カメラインタフェースに向けられた第5のジェスチャを検出する。いくつかの実施形態では、カメラインタフェースに向けられた第5のジェスチャ(例えば、3550e及び3550d)を検出したことに応答して、電子デバイスは、カメラの異なるカメラ動作モードを示す第3の複数のカメラモードアフォーダンス(例えば、図35Fの620)(例えば、選択可能ユーザインタフェースオブジェクト)を表示する。いくつかの実施形態では、第3の複数のカメラモードアフォーダンスは、第2のモードアフォーダンス(例えば、図35Fの620d)を含む。いくつかの実施形態では、第2のカメラモードアフォーダンス(例えば、図35Fの太字620d)は、第2のカメラモードがアクティブであるインジケーションとともに表示される(例えば、プレスされた、太字、及び/又は第2のカメラモードが非アクティブ(例えば、黒対グレーアウト)であるときとは異なる色であるなどの、第2のカメラモードがアクティブである視覚インジケーションとともに表示される)。いくつかの実施形態では、第3の複数のカメラモードアフォーダンスは、第1のカメラモードアフォーダンスを含む。いくつかの実施形態では、第1のカメラモードアフォーダンスは、第3のカメラモードアフォーダンスが、第3のカメラモードがアクティブであるインジケーションとともに表示される間に、及び/又は電子デバイスが第2のカメラモードで動作するように構成される間に、第1のカメラモードが非アクティブであるインジケーションとともに表示される(例えば、プレスされない、太字でない、及び/又は第2のカメラモードがアクティブ(例えば、グレーアウト対黒)であるときとは異なる色であるなどの、第1のカメラモードが非アクティブである視覚インジケーションとともに表示される)。 In some embodiments, the electronic device is directed at the camera interface while displaying a second set of camera setting affordances (eg, 626 in FIG. 35E) at the first location. Detect gestures. In some embodiments, in response to detecting a fifth gesture directed at the camera interface (eg, 3550e and 3550d), the electronic device indicates a third plurality of different camera operating modes of the camera. Display camera mode affordances (eg, 620 in FIG. 35F) (eg, selectable user interface objects). In some embodiments, the third plurality of camera mode affordances includes a second mode affordance (eg, 620d in FIG. 35F). In some embodiments, the second camera mode affordance (eg, bold 620d in FIG. 35F) is displayed with the indication that the second camera mode is active (eg, pressed, bold, and /. Alternatively, it is displayed with a visual indication in which the second camera mode is active, such as a different color than when the second camera mode is inactive (eg, black vs. grayout). In some embodiments, the third plurality of camera mode affordances includes a first camera mode affordance. In some embodiments, the first camera mode affordance is while the third camera mode affordance is displayed with the indication that the third camera mode is active, and / or the electronic device is second. While configured to operate in camera mode, the first camera mode is displayed with indications that are inactive (eg, not pressed, not bold, and / or the second camera mode is active (eg,). The first camera mode is displayed with visual indications that are inactive, such as a different color than when grayed out vs. black).

方法3600に関して上述された処理(例えば、図36A〜図36B)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2500、2700、2800、3000、3200、3400、及び3800は、方法3600を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法3200は、任意選択的に、方法3600に関連して上述した様々な技術を使用して、メディアをキャプチャするカメラモードについて様々なカメラ設定にアクセスすることを採用する。簡潔にするために、これらの詳細は、以下で繰り返さない。 It should be noted that the details of the processes described above for method 3600 (eg, FIGS. 36A-36B) are also applicable to the methods described above in a similar manner. For example, methods 700, 900, 1100, 1300, 1500, 1700, 1900, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3400, and 3800 are of the various methods described above with reference to method 3600. Includes one or more of the properties optionally. For example, the method 3200 employs, optionally, using the various techniques described above in connection with the method 3600 to access different camera settings for camera modes that capture media. For the sake of brevity, these details will not be repeated below.

図37A〜図37AAは、いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図38A〜図38Cにおける処理を含む、以下で説明される処理を例示するために使用される。 37A-37AA show an exemplary user interface for automatically adjusting captured media using electronic devices according to some embodiments. The user interfaces in those figures are used to illustrate the processes described below, including the processes in FIGS. 38A-38C.

図37Aは、図37C〜図37AAにおいて以下に説明する実施形態の理解を向上させるための例示的なシーン3780を示す。左から右へ動くシーン3780は、左部分3782及び右部分3784を含む。左部分3782は、矩形プリズム2432上に座っている人を含む。右部分3784は、人3784bの肩に座っている犬3784aを含む。更には、シーン3780は、シーン3780の幅にわたって走る水平線2438を更に含む。 FIG. 37A shows exemplary scenes 3780 for improving understanding of the embodiments described below in FIGS. 37C-37AA. Scene 3780 moving from left to right includes a left portion 3782 and a right portion 3784. The left portion 3782 includes a person sitting on a rectangular prism 2432. The right portion 3784 includes a dog 3784a sitting on the shoulder of a person 3784b. Further, the scene 3780 further includes a horizon 2438 running over the width of the scene 3780.

図37Bは、図37C〜図37AAにおいて以下に説明する実施形態の理解を向上させるための設定ユーザインタフェースを表示する電子デバイス600を示す。設定ユーザインタフェースは、設定アフォーダンス3702含む。具体的には、設定アフォーダンス3702は、追加のコンテンツ設定アフォーダンス3702aを含む。図37Bにおいて、追加のコンテンツ設定アフォーダンス3702aは、選択されていないように(例えば、オフ状態で)表示され、これは、デバイス600が追加のコンテンツをキャプチャするように構成されていないことを示す。 FIG. 37B shows an electronic device 600 displaying a set user interface for improving the understanding of the embodiments described below in FIGS. 37C-37AA. The configuration user interface includes configuration affordance 3702. Specifically, the setting affordance 3702 includes an additional content setting affordance 3702a. In FIG. 37B, the additional content setting affordance 3702a is displayed as unselected (eg, in the off state), indicating that the device 600 is not configured to capture additional content.

図37C〜図37Jは、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための画像をキャプチャするための例示的なユーザインタフェースを示す。図37K〜図37Qは、メディアが表示されると(例えば、図37C及び図37Tに示すように)、デバイス600がキャプチャされたメディアを自動的に調整するように構成される場合、図37C〜図37Jのうちの1つ以上においてキャプチャされた画像を自動的に調整する例示的なユーザインタフェースを示す。図37R〜図37Wは、メディアが表示されると(例えば、図37Oに示すように)、デバイス600がキャプチャされたメディアを自動的に調整するように構成されていない場合、図37C〜図37Jのうちの1つ以上においてキャプチャされた画像を自動的に調整する例示的なユーザインタフェースを示す。更には、図37X〜図37AAは、図37K〜図37Wに関連して記載されたものと同様の技術を使用して、他のメディア(例えば、ビデオメディア)を調整する例示的なユーザインタフェースを示す。図37Bでは、デバイス600は、設定ユーザインタフェースの底部部分に対応する場所での右向きスワイプジェスチャ3750bを検出する。 37C-37J show an exemplary user interface for capturing an image for automatically adjusting the captured media using an electronic device. 37K-37Q are shown in FIGS. 37C-37Q when the device 600 is configured to automatically adjust the captured media when the media is displayed (eg, as shown in FIGS. 37C and 37T). FIG. 37J shows an exemplary user interface that automatically adjusts the captured image in one or more of them. 37R-37W show 37C-37J if the device 600 is not configured to automatically adjust the captured media when the media is displayed (eg, as shown in FIG. 37O). Shown is an exemplary user interface that automatically adjusts the captured image in one or more of them. Furthermore, FIGS. 37X-37AA provide an exemplary user interface for adjusting other media (eg, video media) using techniques similar to those described in connection with FIGS. 37K-37W. show. In FIG. 37B, device 600 detects a rightward swipe gesture 3750b at a location corresponding to the bottom portion of the configuration user interface.

図37Cに示すように、右向きスワイプジェスチャ3750bを検出したことに応答して、デバイス600は、設定ユーザインタフェースの表示を、カメラユーザインタフェースに置き換える。図37Cにおいて、デバイス600は、右部分3784の写真を撮る位置にある。図37Cでは、デバイス600は、右部分3784に近接した場所にあり、これにより、犬3784a及び人3784bの肩は、ライブプレビュー630を含むカメラユーザインタフェース上に表示される。ライブプレビュー630は、1つ以上のカメラセンサによって検出された画像に基づく。ライブプレビュー630は、1×ズームレベルで表示され、選択された1×ズームアフォーダンス2622bによって明らかである。ライブプレビュー630が1×ズームレベルで表示され、かつデバイス600が現在デバイス600の裏側のカメラを使用して、メディアをキャプチャするため、デバイス600は、図31Cに関連して上述したように、広い視野を有するカメラ(例えば、超広角カメラ)及び狭い視野を有するカメラ(例えば、広角カメラ)を使用して、犬3784aの画像をキャプチャしている。 As shown in FIG. 37C, in response to detecting the rightward swipe gesture 3750b, the device 600 replaces the display of the configured user interface with the camera user interface. In FIG. 37C, the device 600 is in a position to take a picture of the right portion 3784. In FIG. 37C, the device 600 is located close to the right portion 3784, whereby the shoulders of the dog 3784a and the person 3784b are displayed on the camera user interface including the live preview 630. Live preview 630 is based on images detected by one or more camera sensors. The live preview 630 is displayed at a 1x zoom level and is apparent by the selected 1x zoom affordance 2622b. The device 600 is wide, as described above in connection with FIG. 31C, because the live preview 630 is displayed at a 1x zoom level and the device 600 currently uses the camera behind the device 600 to capture the media. An image of the dog 3784a is captured using a camera with a field of view (eg, an ultra-wide-angle camera) and a camera with a narrow field of view (eg, a wide-angle camera).

図37Cに示すように、カメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含み、これらは、インジケータ及びコントロールがライブプレビュー630と同時に表示され得るように、ライブプレビュー630上に重ねられる。インジケータ領域602及びコントロール領域606にライブプレビュー630の部分を表示するために、デバイス600は、広い視野(WFOV)を有するカメラの視野内にある環境の部分(例えば、犬3784aの肉球の上部又は耳及び底部)を使用する。更には、カメラユーザインタフェースは、カメラディスプレイ領域604を含む。デバイス600は、狭い視野(NFOV)を有するカメラの視野内にある環境(例えば、犬3784aの体)の部分を使用することにより、カメラディスプレイ領域604内にライブプレビュー630の部分を表示する。 As shown in FIG. 37C, the camera user interface includes an indicator area 602 and a control area 606, which are superposed on the live preview 630 so that the indicators and controls can be displayed at the same time as the live preview 630. To display a portion of the live preview 630 in the indicator region 602 and the control region 606, the device 600 may include a portion of the environment within the field of view of a camera having a wide field of view (WFOV) (eg, the top of the paws of dog 3784a or Use the ears and bottom). Furthermore, the camera user interface includes a camera display area 604. The device 600 displays a portion of the live preview 630 within the camera display area 604 by using a portion of the environment (eg, the body of the dog 3784a) within the field of view of the camera having a narrow field of view (NFOV).

図37Cに示すように、インジケータ領域602は、灰色オーバーレイを含み、カメラディスプレイ領域604は、灰色オーバーレイを含まない。インジケータ領域602とカメラディスプレイ領域604との間の色の遷移では、視覚境界部608は、インジケータ領域602とカメラディスプレイ領域604との間に表示される。インジケータ領域602はまた、フラッシュインジケータ602aを含み、フラッシュインジケータ602aは、フラッシュが自動モード、オン、オフ、又は別のモード(例えば、赤目低減モード)であるかどうかを示す。いくつかの実施形態では、他のインジケータ(例えば、インジケータ602b〜602fはまた、インジケータ領域602に含まれる。 As shown in FIG. 37C, the indicator area 602 includes a gray overlay and the camera display area 604 does not include a gray overlay. In the color transition between the indicator area 602 and the camera display area 604, the visual boundary 608 is displayed between the indicator area 602 and the camera display area 604. The indicator area 602 also includes a flash indicator 602a, which indicates whether the flash is in automatic mode, on, off, or another mode (eg, red-eye reduction mode). In some embodiments, other indicators (eg, indicators 602b-602f) are also included in the indicator region 602.

図37Cに示すように、コントロール領域606はまた、灰色オーバーレイを含み、視覚境界部608は、コントロール領域606とカメラディスプレイ領域604との間にこれらの領域の間の色の遷移時に表示される。いくつかの実施形態では、視覚境界部608は、領域602、604、及び608の間に実線又は点線として表示される。コントロール領域606は、カメラモードアフォーダンス620、メディアコレクションの一部分624、シャッターアフォーダンス610、及びカメラスイッチャアフォーダンス612を含む。カメラモードアフォーダンス620は、どのカメラモードが現在選択されているか(例えば、太字で表示された「写真」モード)を示し、ユーザがカメラモードを変更することを可能にする。 As shown in FIG. 37C, the control area 606 also includes a gray overlay, and the visual boundary 608 is displayed between the control area 606 and the camera display area 604 during the color transition between these areas. In some embodiments, the visual boundary 608 is displayed as a solid or dotted line between the areas 602, 604, and 608. The control area 606 includes a camera mode affordance 620, a portion of the media collection 624, a shutter affordance 610, and a camera switcher affordance 612. The camera mode affordance 620 indicates which camera mode is currently selected (eg, the "photo" mode displayed in bold) and allows the user to change the camera mode.

図37Cに示すように、デバイス600は、インジケータ領域602とカメラディスプレイ領域604との間に、(図29B〜図29Iで論じられたように)視覚境界部608に沿って視覚的引裂きを含む。ここで、インジケータ領域602内に表示される犬の(例えば、犬3784a)耳の上部部分は、カメラディスプレイ領域604に表示される犬の耳の残部の左にシフトされる。いくつかの実施形態では、インジケータ領域602及びコントロール領域606内に表示されるライブプレビュー630の部分は、デバイス600が、図37Bに関連して上述したように、追加のコンテンツ(例えば、領域602及び606内に表示されるライブプレビュー630の部分)をキャプチャするように構成されるため、ブラックアウトされる。図37Cでは、デバイス600は、シャッターアフォーダンス610に対応する場所でのタップジェスチャ3750cを検出する。 As shown in FIG. 37C, device 600 includes a visual tear between the indicator area 602 and the camera display area 604 along the visual boundary 608 (as discussed in FIGS. 29B-29I). Here, the upper portion of the dog's (eg, dog 3784a) ear displayed within the indicator area 602 is shifted to the left of the rest of the dog's ear displayed in the camera display area 604. In some embodiments, the portion of the live preview 630 displayed within the indicator area 602 and the control area 606 is such that the device 600 has additional content (eg, area 602 and, as described above in connection with FIG. 37B). It is blacked out because it is configured to capture the live preview 630 portion displayed within the 606). In FIG. 37C, the device 600 detects a tap gesture 3750c at a location corresponding to the shutter affordance 610.

図37Dに示すように、タップジェスチャ3750cを検出したことに応答して、デバイス600は、デバイス600が追加のコンテンツ(例えば、領域602及び606内に表示されるライブプレビュー630の部分)をキャプチャするように構成されていないため、カメラディスプレイ領域604内に表示されるライブプレビュー630の部分に対応するメディアアイテム(例えば、写真)をキャプチャする。更に、タップジェスチャ3750cを検出したことに応答して、デバイス600は、タップジェスチャ3750cに応答して、キャプチャされたメディアアイテムの表現3724aで、メディアコレクション624を更新する。いくつかの実施形態では、ライブプレビュー630内の視覚的引裂きが閾値レベルを上回る場合、デバイス600が追加のコンテンツをキャプチャするように構成されている場合であっても、デバイス600は、タップジェスチャ3750cを検出したことに応答して、追加のコンテンツ(例えば、領域602及び606内に表示されるライブプレビュー630の部分)を含まないメディアアイテムをキャプチャする。 As shown in FIG. 37D, in response to detecting the tap gesture 3750c, the device 600 captures additional content (eg, a portion of the live preview 630 displayed within regions 602 and 606). Therefore, the media item (for example, a photograph) corresponding to the portion of the live preview 630 displayed in the camera display area 604 is captured. Further, in response to detecting the tap gesture 3750c, the device 600 updates the media collection 624 with the captured media item representation 3724a in response to the tap gesture 3750c. In some embodiments, if the visual tear in the live preview 630 exceeds a threshold level, the device 600 will tap gesture 3750c, even if the device 600 is configured to capture additional content. In response to the detection, a media item that does not contain additional content (eg, a portion of the live preview 630 displayed within areas 602 and 606) is captured.

図37Dでは、デバイス600は、右部分3784から更に離れるように、位置を変更した。移動の変化を検出した後に、デバイス600は、図37Dに示すように、ライブプレビュー630を更新し、ここで、犬の耳は、もはや視覚境界部608を遮らず、人3784bの頭の一部分が新たに表示される。ここで、デバイス600は、視覚的引裂きがライブプレビュー630上に存在しないように、右部分3784から十分離れている。図37Dでは、デバイス600は、コントロール領域606の底部上の場所での右向きスワイプジェスチャ3750dを検出する。 In FIG. 37D, the device 600 has been repositioned further away from the right portion 3784. After detecting the change in movement, the device 600 updates the live preview 630, as shown in FIG. 37D, where the dog's ears no longer block the visual boundary 608 and a portion of the human 3784b's head It will be newly displayed. Here, the device 600 is sufficiently far from the right portion 3784 so that no visual tear is present on the live preview 630. In FIG. 37D, device 600 detects a rightward swipe gesture 3750d at a location on the bottom of control area 606.

図37Eに示すように、右向きスワイプジェスチャ3750dを検出したことに応答して、デバイス600は、カメラ設定ユーザインタフェースの代わりに設定ユーザインタフェースを再表示する。図37Eでは、デバイス600は、追加のコンテンツ設定アフォーダンス3702aに対応する場所でのタップジェスチャ3750eを検出する。 As shown in FIG. 37E, in response to detecting the rightward swipe gesture 3750d, the device 600 redisplays the configuration user interface instead of the camera configuration user interface. In FIG. 37E, the device 600 detects a tap gesture 3750e at a location corresponding to the additional content setting affordance 3702a.

図37Fに示すように、タップジェスチャ3750eを検出したことに応答して、デバイス600は、選択されているものとして(例えば、オン状態で)追加のコンテンツ設定アフォーダンス3702aを表示し、これは、デバイス600が追加のコンテンツをキャプチャするように構成されることを示す。タップジェスチャ3750eを検出したことに応答して、デバイス600はまた、選択されているものとして自動メディア補正設定アフォーダンス3702a1を表示し、これは、いくつかの状況では、以下で論じるようにメディアが表示されるときに、デバイス600がキャプチャされたメディアを自動的に調整するように構成されることを示す。自動メディア補正設定アフォーダンス3702a1を表示することとともに、タップジェスチャ3750eを検出したことに応答して、デバイス600は、選択されているものとして、メディアをキャプチャする要求(例えば、タップジェスチャ3750c)を検出したことに応答して、デバイス600が画像メディアの追加のコンテンツをキャプチャするように構成されることを示す、追加の画像コンテンツキャプチャ設定アフォーダンス3702a2と、メディアをキャプチャする要求を検出したことに応答して、デバイス600がビデオメディアの追加のコンテンツをキャプチャするように構成されることを示す、追加のビデオコンテンツキャプチャ設定アフォーダンス3702a3と、を表示する。いくつかの実施形態では、自動メディア補正設定アフォーダンス3702a1(又はアフォーダンス3702a2〜3702a3)は、タップジェスチャ3750eを検出したことに応答して、選択されたものとして表示されず、かつデバイス600が自動メディア補正設定アフォーダンス3702a1に対応する場所で追加のタップジェスチャを検出するとき、デバイス600は、選択されるように、自動メディア補正設定アフォーダンス3702a1を更新する。いくつかの実施形態では、デバイス600が選択されていないように追加の画像コンテンツキャプチャ設定アフォーダンス3702a2を表示する場合、デバイス600は、メディアをキャプチャする要求に応答して、画像メディアの追加のコンテンツをキャプチャするように構成されていない。いくつかの実施形態では、デバイス600が選択されていないように追加のビデオコンテンツキャプチャ設定アフォーダンス3702a3を表示する場合、デバイス600は、メディアをキャプチャする要求に応答して、ビデオメディアの追加のコンテンツをキャプチャするように構成されていない。図37Fでは、デバイス600は、設定ユーザインタフェースの底部に対応する場所での右向きスワイプジェスチャ3750fを検出する。 As shown in FIG. 37F, in response to detecting the tap gesture 3750e, the device 600 displays an additional content setting affordance 3702a as selected (eg, in the on state), which is the device. Indicates that the 600 is configured to capture additional content. In response to detecting the tap gesture 3750e, the device 600 also displays the automatic media correction setting affordance 3702a1 as selected, which in some situations the media displays as discussed below. Indicates that the device 600 is configured to automatically adjust the captured media when it is done. In response to detecting the tap gesture 3750e while displaying the automatic media correction setting affordance 3702a1, the device 600 has detected a request to capture the media (eg, tap gesture 3750c) as selected. In response to the additional image content capture setting affordance 3702a2 indicating that the device 600 is configured to capture additional content on the image media, in response to detecting a request to capture the media. , Additional video content capture settings affordance 3702a3, indicating that the device 600 is configured to capture additional content on the video media. In some embodiments, the automatic media correction setting affordance 3702a1 (or affordances 3702a2-3702a3) is not displayed as selected in response to detecting the tap gesture 3750e, and the device 600 automatically media corrects. When detecting an additional tap gesture at a location corresponding to the setting affordance 3702a1, the device 600 updates the automatic media correction setting affordance 3702a1 to be selected. In some embodiments, if the device 600 displays the additional image content capture settings affordance 3702a2 such that it is not selected, the device 600 responds to the request to capture the media with additional content on the image media. Not configured to capture. In some embodiments, if the device 600 displays the additional video content capture settings affordance 3702a3 such that it is not selected, the device 600 responds to the request to capture the media with additional content on the video media. Not configured to capture. In FIG. 37F, device 600 detects a rightward swipe gesture 3750f at a location corresponding to the bottom of the configured user interface.

図37Gに示すように、右向きスワイプジェスチャ3750fを検出したことに応答して、デバイス600は、図37Dに表示されたように、設定ユーザインタフェースの表示を、カメラユーザインタフェースの表示に置き換える。図37Gでは、デバイス600は、シャッターアフォーダンス610に対応する場所でのタップジェスチャ3750gを検出する。 In response to detecting the rightward swipe gesture 3750f, as shown in FIG. 37G, the device 600 replaces the display of the configured user interface with the display of the camera user interface, as displayed in FIG. 37D. In FIG. 37G, device 600 detects tap gesture 3750g at a location corresponding to shutter affordance 610.

図37Hに示すように、タップジェスチャ3750gを検出したことに応答して、デバイス600は、図37Gのライブプレビュー630に対応する新しいメディアアイテム(例えば、写真)(例えば、視覚的引裂きを伴わずに人3784bの肩の一部分上に座っている犬3784aの画像)をキャプチャする。更に、タブジェスチャ3750gを検出したことに応答して、デバイス600は、メディアコレクション624を、新たにキャプチャされたメディアアイテムの表現3724bで更新する。 As shown in FIG. 37H, in response to detecting tap gesture 3750g, the device 600 responds to a new media item (eg, photo) corresponding to the live preview 630 of FIG. 37G (eg, without visual tearing). Image of dog 3784a sitting on a portion of the shoulder of person 3784b) is captured. Further, in response to detecting the tab gesture 3750g, the device 600 updates the media collection 624 with the representation 3724b of the newly captured media item.

図37Hでは、デバイス600は、右にシフトしている。右にシフトした後、デバイス600は、デバイス600の1つ以上のカメラのうちの1つの更新された視野に基づいて、犬3784aの頭の半分がライブプレビュー630からカットオフされるように、ライブプレビュー630を更新する。図37Hでは、デバイス600は、シャッターアフォーダンス610に対応する場所でのタップジェスチャ3750hを検出する。 In FIG. 37H, the device 600 is shifted to the right. After shifting to the right, the device 600 is live so that half of the dog 3784a's head is cut off from the live preview 630 based on the updated field of view of one of the devices 600's cameras. Update preview 630. In FIG. 37H, the device 600 detects the tap gesture 3750h at a location corresponding to the shutter affordance 610.

図37Iに示すように、タップジェスチャ3750hを検出したことに応答して、デバイス600は、図37Hのライブプレビュー630に対応する新しいメディアアイテム(例えば、写真)(例えば、犬3784aの頭の半分を有する画像)をキャプチャする。更に、タップジェスチャ3750hを検出したことに応答して、デバイス600は、メディアコレクション624を、新たにキャプチャされたメディアアイテムの表現3724cで更新する。 In response to detecting tap gesture 3750h, as shown in FIG. 37I, the device 600 has a new media item (eg, photo) corresponding to the live preview 630 of FIG. 37H (eg, half of the head of dog 3784a). The image you have) is captured. Further, in response to detecting the tap gesture 3750h, the device 600 updates the media collection 624 with the representation 3724c of the newly captured media item.

図37Iでは、デバイス600は、デバイス600の1つ以上のカメラが、矩形プリズム2432上に座っている人を有する左部分3782に向けられるように、位置を変更した。移動の変化を検出した後に、デバイス600は、図37Iに示すように、ライブプレビュー630を更新する。例えば、ライブプレビュー630を表示している間に、デバイス600は、カメラディスプレイ領域604内の矩形プリズム2432上に座っている人及びインジケータ領域602内のデバイス600の後カメラの視野内に入ってきた鳥2440を表示する。デバイス600がわずかに傾斜している(例えば、シーンの平面に対してx軸、y軸、及び/又はz軸のうちの1つ以上に沿って回転される)ため、左部分3782の様々な部分は、上記の図24Aの左部分3782と比較して、図37Iのライブプレビュー630内に表示されるように歪む。図37Iにおいて、ライブプレビュー630は、補正されていない垂直遠近歪(例えば、垂直線2434a〜2434cは、ライブプレビュー630の底部に向かって、それぞれの点で視覚的に収束するように見える)、水平遠近歪(例えば、水平線2436a〜2436bは、ライブプレビュー630において右から左へ動いて収束するように見える)、及び水平線歪(例えば、水平線は、左部分3782で一直線であるとき、ライブプレビュー630内で対角線である)を含む。図37Iでは、デバイス600は、シャッターアフォーダンス610に対応する場所でのタップジェスチャ3750iを検出する。 In FIG. 37I, device 600 has been repositioned so that one or more cameras of device 600 are directed at the left portion 3782 with a person sitting on a rectangular prism 2432. After detecting the change in movement, the device 600 updates the live preview 630 as shown in FIG. 37I. For example, while displaying the live preview 630, the device 600 came into the field of view of the camera after the person sitting on the rectangular prism 2432 in the camera display area 604 and the device 600 in the indicator area 602. Display bird 2440. Various of the left portion 3782 because the device 600 is slightly tilted (eg, rotated along one or more of the x-axis, y-axis, and / or z-axis with respect to the plane of the scene). The portion is distorted so as to be displayed in the live preview 630 of FIG. 37I as compared to the left portion 3782 of FIG. 24A above. In FIG. 37I, the live preview 630 is uncorrected vertical perspective distortion (eg, vertical lines 2434a-2434c appear to visually converge at each point towards the bottom of the live preview 630), horizontal. Perspective distortion (eg, horizontal lines 2436a-2436b appear to move from right to left and converge in live preview 630), and horizontal line distortion (eg, when the horizontal line is straight at the left portion 3782, within live preview 630. Includes (diagonal). In FIG. 37I, the device 600 detects the tap gesture 3750i at a location corresponding to the shutter affordance 610.

図37Jに示すように、タップジェスチャ3750iを検出したことに応答して、デバイス600は、図37Iのライブプレビュー630に対応する新しいメディアアイテム(例えば、写真)(例えば、歪みを有する矩形プリズム2432上に座っている人)をキャプチャする。更に、タップジェスチャ3750iを検出したことに応答して、デバイス600は、メディアコレクション624を、新たにキャプチャされたメディアアイテムの表現3724dで更新する。図37Jでは、デバイス600は、メディアコレクション624に対応する場所でのタップジェスチャ3750jを検出し、ここで、タップジェスチャ3750iを検出したことに応答して、キャプチャされたメディアアイテムは、キャプチャされた最後のメディアであり、表現3724dは、メディアコレクション624の上に表示される。 As shown in FIG. 37J, in response to detecting the tap gesture 3750i, the device 600 responds to a new media item (eg, photo) corresponding to the live preview 630 of FIG. 37I (eg, on a rectangular prism 2432 with distortion). The person sitting in) is captured. Further, in response to detecting the tap gesture 3750i, the device 600 updates the media collection 624 with the representation 3724d of the newly captured media item. In FIG. 37J, the device 600 detects a tap gesture 3750j at a location corresponding to the media collection 624, where the captured media item is the last captured in response to the detection of the tap gesture 3750i. The media of, representation 3724d, is displayed above the media collection 624.

図37Kに示すように、タップジェスチャ3750jを検出したことに応答して、デバイス600は、カメラユーザインタフェースの表示を停止し、代わりに、写真ビューワユーザインタフェースを表示する。写真ビューワユーザインタフェースは、写真ビューワユーザインタフェースの底部で表示されるメディアコレクション624を含む。メディアコレクション624は、上述の図37C〜図37Jでキャプチャされたメディアアイテムの表現3724aをそれぞれ含む。表現3724a〜dを表示することとともに、写真ビューワユーザインタフェースは、メディアを編集するための編集アフォーダンス644aと、キャプチャされたメディアを伝送するための送信アフォーダンス644bと、キャプチャされたメディアをお気に入りのメディアとしてマーキングするためのお気に入りアフォーダンス644cと、キャプチャされたメディアを削除するためのごみ箱アフォーダンス644dと、ライブプレビュー630の表示に戻るための戻るアフォーダンス644eと、を含む。 As shown in FIG. 37K, in response to detecting the tap gesture 3750j, the device 600 stops displaying the camera user interface and instead displays the photo viewer user interface. The photo viewer user interface includes a media collection 624 displayed at the bottom of the photo viewer user interface. The media collection 624 includes representations 3724a of the media items captured in FIGS. 37C-37J described above, respectively. Along with displaying the representations 3724a-d, the photo viewer user interface has an edit affordance 644a for editing the media, a transmit affordance 644b for transmitting the captured media, and the captured media as favorite media. Includes a favorite affordance 644c for marking, a recycle bin affordance 644d for deleting captured media, and a return affordance 644e for returning to the live preview 630 display.

図37Kでは、タップジェスチャ3750jを検出したことに応答して、デバイス600は、コンテンツ(例えば、データ)が図37Iのインジケータ領域602及びコントロール領域606(及びカメラディスプレイ領域604)の部分からキャプチャされたため(例えば、デバイス600が、図37Fに関連して上述したように、追加のコンテンツをキャプチャするように構成されるため)、コンテンツ処理インジケータ3732を表示し、表現3724dによって表されたメディアアイテムは、完全に処理されていない。換言すれば、デバイス600は、表現3724dによって表されたメディアアイテムをキャプチャしたとき、デバイス600が追加のコンテンツをキャプチャし、メディアアイテムに対応するコンテンツが完全に処理されるのに閾値時間量より少ない時間量が経過したため、コンテンツ処理インジケータ3732を表示する。ここで、表現3724dによって表されたメディアアイテムは、図37Iのライブプレビュー630内に表示されるように、WFOVからのインジケータ領域602及びコントロール領域606の部分及びNFOVからのカメラディスプレイ領域604の部分からキャプチャされたコンテンツを含む。しかしながら、表現3724dは、NFOVからのカメラディスプレイ領域604の部分からキャプチャされるコンテンツ飲みを含む。本明細書では、メディアアイテムの表現(例えば、メモリに保存されるデータ構造)は、メディアアイテムのコンテンツ(例えば、データ)の一部分のみを使用して形成され得る。いくつかの実施形態では、コンテンツ処理インジケータ3732は、スピンするアニメーション化されたインジケータである。いくつかの実施形態では、コンテンツ処理インジケータ3732は、処理された要求されたメディアアイテム(例えば、表現3724dによって表されたメディアアイテム)に対応する、キャプチャされたコンテンツのパーセンテージを示すように、埋まるアニメーション化されたプログレスバーである。 In FIG. 37K, in response to detecting tap gesture 3750j, the device 600 captures content (eg, data) from portions of indicator area 602 and control area 606 (and camera display area 604) of FIG. 37I. The media item representing the content processing indicator 3732 and represented by representation 3724d (for example, because the device 600 is configured to capture additional content as described above in connection with FIG. 37F). Not completely processed. In other words, when the device 600 captures the media item represented by the representation 3724d, the device 600 captures additional content and less than the threshold amount of time for the content corresponding to the media item to be fully processed. Since the amount of time has elapsed, the content processing indicator 3732 is displayed. Here, the media item represented by the representation 3724d is from the indicator area 602 and the control area 606 from the WFOV and the camera display area 604 from the NFOV, as displayed in the live preview 630 of FIG. 37I. Includes captured content. However, representation 3724d includes a content drink captured from a portion of the camera display area 604 from the NFOV. As used herein, a representation of a media item (eg, a data structure stored in memory) may be formed using only a portion of the content (eg, data) of the media item. In some embodiments, the content processing indicator 3732 is an animated indicator that spins. In some embodiments, the content processing indicator 3732 is an animation that fills in to indicate the percentage of captured content that corresponds to the requested media item processed (eg, the media item represented by representation 3724d). It is a progress bar that has been converted.

図37Kでは、デバイス600が表現3724dによって表されたメディアアイテムのコンテンツが完全に処理されていないため、デバイス600は、拡大された調整されていない表現3730d1を表示し、これは、調整されていないメディアアイテムの表現である。ここで、調整されていない表現3730d1は、図37Iのライブプレビュー630内に表示される歪みに類似した、垂直遠近歪、水平遠近歪、及び水平線歪みを含む。調整されていない表現3730d1は、図37Iの領域602及び606内に表示されるコンテンツからキャプチャされたことを使用して、調整がメディアアイテム(表現3724dによって表された)を適用されなかったため、図37I内に表示されるように、カメラディスプレイ領域604内に表示されるコンテンツからキャプチャされたコンテンツのみを含む。例えば、調整されていない表現3730d1は、図37Iのインジケータ領域602内に表示される追加のコンテンツ(例えば、鳥2440)を含まない。調整されていない表現3724d1を表示することとともに、デバイス600はまた、調整されていない表現3730d1と一致する表現3724dを表示する。 In FIG. 37K, the device 600 displays the magnified unadjusted representation 3730d1 because the device 600 has not completely processed the content of the media item represented by the representation 3724d, which is untuned. It is a representation of a media item. Here, the unadjusted representation 3730d1 includes vertical perspective distortion, horizontal perspective distortion, and horizontal line distortion similar to the distortion displayed in the live preview 630 of FIG. 37I. The unadjusted representation 3730d1 was captured from the content displayed within regions 602 and 606 of FIG. 37I, and the adjustment was not applied to the media item (represented by representation 3724d). It includes only the content captured from the content displayed within the camera display area 604 so that it is displayed within 37I. For example, the untuned representation 3730d1 does not include additional content (eg, bird 2440) displayed within the indicator area 602 of FIG. 37I. Along with displaying the untuned representation 3724d1, the device 600 also displays a representation 3724d that matches the untuned representation 3730d1.

図37Lに示すように、表現3724dによって表されたメディアアイテムの追加のコンテンツを処理した後、デバイス600は、コンテンツ処理インジケータ3732が時計方向に回転するコンテンツ処理インジケータ3732の表示をアニメーション又は更新し続ける。図37Lでは、デバイス600は、表現3724d(例えば、調整されていない表現3730d1)によって表されたメディアアイテムの水平線2438、垂直線2434a〜2434c、及び水平線2436a〜2436bが補正される必要があるため、コンテンツが表現3724dによって表されたメディアアイテムを補正するために使用される必要があるとの判定を行う。いくつかの実施形態では、以前にキャプチャされたメディアアイテム(例えば、表現3724dによって表されたメディアアイテム)が、領域602及び606(例えば、図37I)内に表示される表現の部分からキャプチャされたコンテンツを使用して補正され得る、1つ以上の視覚アスペクト(例えば、ビデオ安定化、水平線補正、垂直補正、水平補正、及びリフレーミング)を含むという判定を行う。いくつかの実施形態では、以前にキャプチャされたメディアアイテムのコンテンツを使用して判定される計算された信頼度確信値に基づいて、以前にキャプチャされたメディアアイテムが補正される必要がある1つ以上の視覚アスペクトを含むという判定を行う。いくつかの実施形態では、計算された信頼度確信値が閾値を上回る(又は等しい)場合、以前にキャプチャされたメディアアイテムが補正される必要があるという判定を行う。いくつかの実施形態では、計算された信頼度確信値が閾値を下回る(又は等しい)場合、以前にキャプチャされたメディアアイテムが補正される必要があるという判定を行う。 As shown in FIG. 37L, after processing the additional content of the media item represented by representation 3724d, the device 600 continues to animate or update the display of the content processing indicator 3732 in which the content processing indicator 3732 rotates clockwise. .. In FIG. 37L, device 600 needs to correct the horizontal lines 2438, vertical lines 2434a-2434c, and horizontal lines 2436a-2436b of the media item represented by representation 3724d (eg, unadjusted representation 3730d1). Determine that the content needs to be used to correct the media item represented by the representation 3724d. In some embodiments, previously captured media items (eg, media items represented by representation 3724d) have been captured from the portion of the representation displayed within regions 602 and 606 (eg, FIG. 37I). It determines that it contains one or more visual aspects that can be corrected using the content (eg, video stabilization, horizontal line correction, vertical correction, horizontal correction, and reframing). In some embodiments, the previously captured media item needs to be corrected based on the calculated confidence confidence value determined using the content of the previously captured media item. It is determined that the above visual aspect is included. In some embodiments, if the calculated confidence confidence value exceeds (or is equal to) a threshold, it determines that the previously captured media item needs to be corrected. In some embodiments, if the calculated confidence confidence value is below (or equal to) the threshold, it is determined that the previously captured media item needs to be corrected.

デバイス600がキャプチャされたメディアを自動的に調整するように構成されるため(図37Fにおいて上述のように、自動メディア補正設定アフォーダンス3702a1によってアクティブ状態に設定されている)、及びコンテンツ(例えば、図37Iの領域602及び606内に表示される表現の部分からキャプチャされたコンテンツ)が表現3724dによって表されたメディアアイテムを補正するために使用される必要があるという判定のため、デバイス600は、(追加のユーザ入力なしで)アニメーションを自動的に表示する。アニメーションを表示するときに、デバイス600は、図37Lの部分的に調整された表現3730d2などの更新された表現を表示するように、調整されていない表現3730d1を調整する。すなわち、いくつかの実施形態では、デバイス600は、デバイス600が追加のコンテンツのうちのより多くを処理する間に、調整されていない表現を更新するアニメーションを表示する。図37Lでは、デバイス600は、水平線2438の水平線歪みを補正するように、表現を回転させた。特に、デバイス600が表現を回転させたため、デバイス600は、インジケータ領域602内に表示されるライブプレビュー630の部分のうちのいくつか(例えば、図37Iの鳥2440)を、部分的に調整された表現3730d2内に(例えば、表現3724dによって表されたメディアアイテムの追加のコンテンツのうちのいくつかを使用して)表示する。更には、回転により、調整されていない表現3730d1内での対角線から(例えば、水平線2438のいくつかの点が異なるy値を有する)水平線(例えば、水平線の各点が同じy値を有するへ、水平線2438を変更し、かつ水平線2438は、図24Eに関連して論じられた技術を使用して、部分的に調整された表現3730d2内の表現のx軸に沿ってのみ進む。部分的に調整された表現3730d2を表示することとともに、デバイス600はまた、部分的に調整された表現3730d2と一致するように、メディアコレクション624内の表現3724dを更新する。いくつかの実施形態では、デバイス600は、表現3724dを更新したときに、デバイス600が部分的に調整された表現3730d2などの更新された表現を表示するために、調整されていない表現3730d1を調整したときに表示するものと類似のアニメーションを表示する。 Because the device 600 is configured to automatically adjust the captured media (set to active by the automatic media correction setting affordance 3702a1 as described above in FIG. 37F), and content (eg, FIG. The device 600 determines that (content captured from the portion of the representation displayed within regions 602 and 606 of 37I) needs to be used to correct the media item represented by the representation 3724d. Automatically display animations (without additional user input). When displaying the animation, the device 600 adjusts the unadjusted representation 3730d1 to display an updated representation such as the partially adjusted representation 3730d2 of FIG. 37L. That is, in some embodiments, the device 600 displays an animation that updates the untuned representation while the device 600 processes more of the additional content. In FIG. 37L, device 600 rotated the representation to correct the horizontal line distortion of the horizontal line 2438. In particular, as the device 600 rotated the representation, the device 600 partially adjusted some of the parts of the live preview 630 displayed within the indicator area 602 (eg, bird 2440 in FIG. 37I). Display within representation 3730d2 (eg, using some of the additional content of the media item represented by representation 3724d). Furthermore, due to rotation, from the diagonal within the unadjusted representation 3730d1 (eg, some points on the horizon 2438 have different y values) to the horizon (eg, each point on the horizon has the same y value). The horizon 2438 is modified and the horizon 2438 travels only along the x-axis of the representation in the partially adjusted representation 3730d2 using the techniques discussed in connection with FIG. 24E. Along with displaying the expressed representation 3730d2, the device 600 also updates the representation 3724d in the media collection 624 to match the partially tuned representation 3730d2. In some embodiments, the device 600 An animation similar to that displayed when the device 600 adjusts the unadjusted representation 3730d1 to display the updated representation, such as the partially adjusted representation 3730d2, when the representation 3724d is updated. Is displayed.

図37Mに示すように、図37Lで上述したアニメーションを表示する理由に加えて、デバイス600が表現3724dによって表されたメディアアイテムのコンテンツを完全に処理しているため(デバイス600がキャプチャされたメディアを自動的に調整するように構成されるため、及びコンテンツが表現3724dによって表されたメディアアイテムを補正するために使用される必要があるとの判定のため、デバイス600は、アニメーションを表示する)、デバイス600は、自動的に(追加のユーザ入力なしで)、部分的に調整された表現3730d2を、調整された表現3730d3に置き換える。デバイス600は、表現3724dによって表されたメディアアイテムの垂直及び水平視点を更新することによって、調整された表現3730d3を表示する。図37Mにおいて、図37Iでキャプチャされたライブプレビュー630と比較して、調整された表現3730d3は、垂直遠近歪(例えば、垂直線2434a〜2434cは、表現3730d1においてより平行に見える)、水平遠近歪(例えば、水平線2436a〜2436bは、ライブプレビュー630において右から左へ動いて収束しないように見える)、及び水平線歪(例えば、水平線は、より水平である)がより少ない。ここで、調整された表現3730d3は、図37Iのカメラディスプレイ領域604内に表示されるライブプレビュー630の部分のうちのいくつか(矩形プリズム2432上に座っている人)、及び図37Iのインジケータ領域602内に表示されるライブプレビュー630の部分のうちのいくつか(例えば、鳥2440)を含む。上述のように、表現(represented)3724dによって表されたメディアアイテムを使用して、表現を調整するとき、デバイス600は、メディアアイテムの様々な構成要素を補正するために、追加の視覚コンテンツ(例えば、鳥2440)を利用する(例えば、持ち込む)(例えば、図24Dに関連して上述したように)。それにより、デバイス600は、調整された表現3730d3を追加の視覚コンテンツとともに表示する。調整された表現3730d3を表示することとともに、デバイス600はまた、調整された表現3730d3と一致するように、メディアコレクション624内の表現3724dを更新する。 As shown in FIG. 37M, in addition to the reason for displaying the animation described above in FIG. 37L, because the device 600 is completely processing the content of the media item represented by the representation 3724d (the media on which the device 600 was captured). The device 600 displays an animation because it is configured to automatically adjust and to determine that the content needs to be used to correct the media item represented by the representation 3724d). The device 600 automatically (without additional user input) replaces the partially tuned representation 3730d2 with the tuned representation 3730d3. The device 600 displays the adjusted representation 3730d3 by updating the vertical and horizontal viewpoints of the media item represented by the representation 3724d. In FIG. 37M, compared to the live preview 630 captured in FIG. 37I, the adjusted representation 3730d3 has vertical perspective distortion (eg, vertical lines 2434a-2434c appear more parallel in representation 3730d1), horizontal perspective distortion. (For example, horizontal lines 2436a-2436b appear to move from right to left and do not converge in live preview 630), and horizontal line distortion (eg, horizontal lines are more horizontal). Here, the adjusted representation 3730d3 is a portion of the live preview 630 displayed within the camera display area 604 of FIG. 37I (the person sitting on the rectangular prism 2432), and the indicator area of FIG. 37I. Includes some of the parts of the live preview 630 displayed within 602 (eg, bird 2440). As mentioned above, when adjusting the representation using the media item represented by represented 3724d, the device 600 adds additional visual content (eg, eg) to correct various components of the media item. , Bird 2440) (eg, bring in) (eg, as described above in connection with FIG. 24D). Thereby, the device 600 displays the tuned representation 3730d3 with additional visual content. Along with displaying the tuned representation 3730d3, the device 600 also updates the representation 3724d in the media collection 624 to match the tuned representation 3730d3.

図37Mに示すように、図37Lで上述したアニメーションを表示する理由に加えて、デバイス600が表現3724dによって表されたメディアアイテムのコンテンツを完全に処理しているため、デバイス600は、デバイス600がメディアアイテムのコンテンツを完全に処理しているため、コンテンツ処理インジケータ3732を、自動調整アフォーダンス1036bに置き換える。自動調整アフォーダンス1036bは、選択されているものとして(例えば、太字、プレスされて)表示され、これは、デバイス600がメディアアイテムの表現(例えば、調整された表現3730d3)を表示していることを示し、ここで、メディアアイテムが1つ以上の調整アルゴリズムに基づいて調整されている。図37Mでは、デバイス600は、自動調整アフォーダンス1036bに対応する場所でのタップジェスチャ3750mを検出する。 As shown in FIG. 37M, in addition to the reason for displaying the animation described above in FIG. 37L, the device 600 is fully processed by the device 600 because the device 600 is completely processing the content of the media item represented by the representation 3724d. Since the content of the media item is completely processed, the content processing indicator 3732 is replaced with the auto-adjustment affordance 1036b. The auto-adjusted affordance 1036b is displayed as selected (eg, bold, pressed), which means that the device 600 is displaying a representation of the media item (eg, adjusted representation 3730d3). Shown, where the media item is adjusted based on one or more adjustment algorithms. In FIG. 37M, the device 600 detects a tap gesture 3750 m at a location corresponding to the auto-adjustment affordance 1036b.

図37Nに示すように、タップジェスチャ3750mを検出したことに応答して、デバイス600は、図37Kに関連して上述したように、調整されていない表現3724dによって表されたメディアアイテムである、拡大された調整されていない表現3730d1を表示する。換言すれば、デバイス600は、タップジェスチャ3750mを検出したことに応答して、図37K〜図37Lにおいて行われた調整を復元する。更には、タップジェスチャ37350mを検出したことに応答して、デバイス600は、自動調整アフォーダンスが未選択(例えば、太字でなく、プレスされていない)であるものとして表示されるように、自動調整アフォーダンス1036bの表示を更新し、かつ調整されていない表現3730d1と一致するように、メディアコレクション624内の3724bの表現を更新する。図37Nでは、デバイス600は、メディアコレクション624における表現3724bに対応する場所でのタップジェスチャ3750nを検出する。 As shown in FIG. 37N, in response to the detection of the tap gesture 3750m, the device 600 is a media item represented by the untuned representation 3724d as described above in connection with FIG. 37K, magnified. Display the adjusted and unadjusted representation 3730d1. In other words, the device 600 restores the adjustments made in FIGS. 37K-37L in response to detecting the tap gesture 3750m. Furthermore, in response to detecting the tap gesture 37350m, the device 600 will display the auto-adjustment affordance as unselected (eg, not bold and not pressed). The display of 1036b is updated and the representation of 3724b in the media collection 624 is updated to match the unadjusted representation 3730d1. In FIG. 37N, device 600 detects tap gesture 3750n at a location corresponding to representation 3724b in media collection 624.

図37Oに示すように、タップジェスチャ3750nを検出したことに応答して、デバイス600は、拡大された調整されていない表現3730d1を、調整されていない表現3730b1に置き換え、これは、メディアコレクション624内に表現3724bによって表されたメディアアイテムに対応する。更に、タップジェスチャ3750nを検出したことに応答して、デバイス600は、自動調整アフォーダンス1036bの表示を、コンテンツ処理インジケータ3732に置き換える。デバイス600は、図37Kの表現3724dによって表されたメディアアイテムの処理に関連して論じられたものと同様の理由で、コンテンツ処理インジケータ3732を表示する。例えば、デバイス600は、コンテンツが図37Dのインジケータ領域602及びコントロール領域606の部分からキャプチャされたため(例えば、デバイス600が、図37Fに関連して上述したように、追加のコンテンツをキャプチャするように構成されるため)、コンテンツ処理インジケータ3732を表示し、表現3724bによって表されたメディアアイテムのコンテンツは、完全に処理されていない。 As shown in FIG. 37O, in response to detecting the tap gesture 3750n, the device 600 replaces the magnified unadjusted representation 3730d1 with the unadjusted representation 3730b1, which is within the media collection 624. Corresponds to the media item represented by the expression 3724b. Further, in response to detecting the tap gesture 3750n, the device 600 replaces the display of the auto-adjustment affordance 1036b with the content processing indicator 3732. The device 600 displays the content processing indicator 3732 for the same reasons as discussed in connection with the processing of the media item represented by representation 3724d in FIG. 37K. For example, device 600 may have content captured from portions of indicator area 602 and control area 606 of FIG. 37D (eg, device 600 may capture additional content as described above in connection with FIG. 37F). (Because it is configured), the content processing indicator 3732 is displayed and the content of the media item represented by the representation 3724b is not completely processed.

図37Pに示すように、デバイス600は、表現3724bによって表されたメディアアイテムのコンテンツを完全に処理し、かつキャプチャされたコンテンツ(例えば、追加のコンテンツ)が表現3724dによって表されたメディアアイテムを補正するために使用される必要がないとの判定を行う。図37Bでは、デバイス600は、表現3724bによって表されたメディアアイテムのコンテンツを完全に処理し、かつキャプチャされたコンテンツ(例えば、追加のコンテンツ)が表現3724dによって表されたメディアアイテムを補正するために使用される必要がないとの判定を行い、デバイス600は、表現3724bによって表されたメディアアイテムの調整された表現を表示するのをやめ、かつ調整されていない表現3730b1の表示を維持する。更には、キャプチャされたコンテンツが表現3724bによって表されたメディアアイテムを補正するために使用される必要がないとの判定を行うため、デバイス600は、デバイス600が表現3724bによって表されたメディアアイテムのコンテンツを完全に処理したときに、非選択可能自動調整インジケータ3734を表示する。非選択可能自動調整インジケータ3734は、追加のコンテンツ(例えば、領域602及び606からキャプチャされたコンテンツ)がキャプチャされたことを示す。しかしながら、非選択可能自動調整インジケータ3734は、自動調整アフォーダンス1036bのように機能しない(タップジェスチャ3750mに関連して上述したように)。すなわち、自動調整アフォーダンス1036bは、非選択可能自動調整インジケータ3734に対応する場所でのジェスチャに応答して、表示表現を調整しない。いくつかの実施形態では、デバイス600が、追加のコンテンツが表現3724bによって表されたメディアアイテムの自動調整に使用される必要があると判定したが、追加のコンテンツは、表現3724bによって表されたメディアアイテムに関連する1つ以上の動作(例えば、手動での編集)で使用するのに利用可能なままである。図37Pでは、デバイス600は、非選択可能自動調整インジケータ3734に対応する場所でのタップジェスチャ3750pを検出する。 As shown in FIG. 37P, the device 600 completely processes the content of the media item represented by representation 3724b and the captured content (eg, additional content) corrects the media item represented by representation 3724d. Determine that it does not need to be used to do so. In FIG. 37B, device 600 completely processes the content of the media item represented by representation 3724b and the captured content (eg, additional content) corrects the media item represented by representation 3724d. Determining that it does not need to be used, the device 600 ceases to display the adjusted representation of the media item represented by representation 3724b and maintains the display of the unadjusted representation 3730b1. Further, in order to determine that the captured content does not need to be used to correct the media item represented by the representation 3724b, the device 600 determines that the device 600 does not need to be used to correct the media item represented by the representation 3724b. When the content is completely processed, the non-selectable auto-adjustment indicator 3734 is displayed. The non-selectable auto-tuning indicator 3734 indicates that additional content (eg, content captured from areas 602 and 606) has been captured. However, the non-selectable auto-adjustment indicator 3734 does not function like the auto-adjustment affordance 1036b (as described above in connection with the tap gesture 3750m). That is, the auto-adjustment affordance 1036b does not adjust the display representation in response to the gesture at the location corresponding to the non-selectable auto-adjustment indicator 3734. In some embodiments, the device 600 has determined that additional content needs to be used for automatic adjustment of the media item represented by representation 3724b, but the additional content is media represented by representation 3724b. It remains available for use in one or more actions related to the item (eg, manual editing). In FIG. 37P, device 600 detects tap gesture 3750p at a location corresponding to the non-selectable auto-adjustment indicator 3734.

図37Qに示すように、タップジェスチャ3750pに応答して、デバイス600は、表現3724bによって表されたメディアアイテムの新しい表現を表示する及び非選択可能自動調整インジケータ3734を更新するのをやめる。換言すれば、タップジェスチャ3750pに応答して、デバイス600は、図37Pに表示されたのと同じ方法で、調整されていない表現3730b1及び非選択可能自動調整インジケータ3734を表示し続ける。 As shown in FIG. 37Q, in response to the tap gesture 3750p, the device 600 stops displaying a new representation of the media item represented by the representation 3724b and updates the non-selectable auto-tuning indicator 3734. In other words, in response to the tap gesture 3750p, the device 600 continues to display the unadjusted representation 3730b1 and the non-selectable auto-adjustment indicator 3734 in the same way as displayed in FIG. 37P.

図37K〜図37Qに戻ると、追加のコンテンツ(例えば、領域602及び606からキャプチャされたコンテンツ)がメディアを補正するために使用される必要があるとの判定を行うときに、デバイス600は、デバイス600がメディアのコンテンツを完全に処理し、かつ追加のコンテンツがキャプチャされた(図37K〜図37Nに関連して上述したように)後に、選択可能自動調整アフォーダンスを表示し、かつメディアの表現を自動的に調整する。しかしながら、いくつかの実施形態では、追加のコンテンツがメディアを補正するために使用される必要がないとの判定を行うときに、デバイス600は、デバイス600がメディアのコンテンツを完全に処理し、かつ追加のコンテンツがキャプチャされた後に、非選択可能自動調整インジケータ3734を表示し、かつメディアの表現を調整しない(図37O〜図37Qに関連して上述したように)。図37Qでは、デバイス600は、写真ビューワユーザインタフェースの底部に対応する場所での右向きスワイプジェスチャ3750qを検出する。 Returning to FIGS. 37K-37Q, the device 600 determines that additional content (eg, content captured from areas 602 and 606) needs to be used to correct the media. After the device 600 has completely processed the content of the media and additional content has been captured (as described above in connection with FIGS. 37K-37N), the selectable auto-adjustment affordances are displayed and the media representation. Automatically adjusts. However, in some embodiments, the device 600 completely processes the content of the media and the device 600 determines that the additional content does not need to be used to correct the media. After the additional content is captured, the non-selectable auto-adjustment indicator 3734 is displayed and the media representation is not adjusted (as described above in connection with FIGS. 37O-37Q). In FIG. 37Q, device 600 detects a rightward swipe gesture 3750q at a location corresponding to the bottom of the photo viewer user interface.

図37Rに示すように、右向きスワイプジェスチャ3750qを検出したことに応答して、デバイス600は、写真ビューワユーザインタフェースの表示を、設定ユーザインタフェースの表示に置き換え、ここで、自動メディア補正設定アフォーダンス3702a1は、選択されているものとして表示される(図Fに関連して論じられるように)。図37Rでは、デバイス600は、自動メディア補正設定アフォーダンス3702a1に対応する場所でのタップジェスチャ3750rをする。 As shown in FIG. 37R, in response to detecting the rightward swipe gesture 3750q, the device 600 replaces the display of the photo viewer user interface with the display of the setting user interface, where the automatic media correction setting affordance 3702a1 , Displayed as selected (as discussed in connection with Figure F). In FIG. 37R, the device 600 makes a tap gesture 3750r at a location corresponding to the automatic media correction setting affordance 3702a1.

図37Sに示すように、タップジェスチャ3750rを検出したことに応答して、デバイス600は、自動メディア補正設定アフォーダンス3702a1が選択されるように、自動メディア補正設定アフォーダンス3702a1の表示を更新する。未選択の(非アクティブ状態に設定された)自動メディア補正設定アフォーダンス3702a1は、デバイス600がキャプチャされたメディアを自動的に調整するように構成されていないことを示す。図37Sでは、デバイス600は、設定ユーザインタフェースの底部に対応する場所での左向きスワイプジェスチャ3750sを検出する。 As shown in FIG. 37S, in response to detecting the tap gesture 3750r, the device 600 updates the display of the automatic media correction setting affordance 3702a1 so that the automatic media correction setting affordance 3702a1 is selected. An unselected (set to inactive) automatic media correction setting affordance 3702a1 indicates that the device 600 is not configured to automatically adjust the captured media. In FIG. 37S, device 600 detects a leftward swipe gesture 3750s at a location corresponding to the bottom of the configured user interface.

図37Tに示すように、スワイプジェスチャ3750sを検出したことに応答して、デバイス600は、調整されていない表現3730c1を表示する(タップジェスチャ3750nに関連して上述したものと同様の技術を使用して、メディアコレクション624内の表現3724cの場所に対応する、タップジェスチャによって以前にナビゲーションされたように)。調整されていない表現3730c1は、メディアコレクション624内の表現3724cに対応する。更に、タップジェスチャ3750sを検出したことに応答して、デバイス600は、図37Kの表現3724dによって表されたメディアアイテムの処理に関連して論じられたものと同様の理由で、コンテンツ処理インジケータ3732とともに、自動調整アフォーダンス1036bを表示する。 As shown in FIG. 37T, in response to detecting the swipe gesture 3750s, the device 600 displays the untuned representation 3730c1 (using a technique similar to that described above in connection with the tap gesture 3750n). And corresponding to the location of representation 3724c in the media collection 624, as previously navigated by the tap gesture). The unadjusted representation 3730c1 corresponds to representation 3724c in the media collection 624. Further, in response to detecting the tap gesture 3750s, the device 600 together with the content processing indicator 3732 for the same reason as discussed in connection with the processing of the media item represented by representation 3724d in FIG. 37K. , Automatically adjust affordance 1036b is displayed.

図37Uに示すように、デバイス600が表現3724cによって表されたメディアアイテム(例えば、犬3784aの頭の一部分がなくなっている画像)のコンテンツを完全に処理したため、及びデバイス600がキャプチャされたメディアを自動的に調整するように構成されていないため(図37Sで論じられたように)、デバイス600は、アニメーション又は調整された表現を表示するのをやめる。換言すれば、デバイス600がキャプチャされたメディアを自動的に調整するように構成されているときに図37M〜図37Nに論じられるように自動的に調整された表現を表示することとは対照的に、デバイス600がキャプチャされたメディアを自動的に調整するように構成されていないため、デバイス600は、調整されていない表現3730c1の表示を維持する。更に、デバイス600は、未選択であるものとして自動調整アフォーダンス1036bを表示する。ここで、デバイス600は、デバイス600がキャプチャされたメディアを自動的に調整するように構成されていないため(図37Sに論じられるように)、選択される代わりに(例えば、図37M)、未選択であるものとして自動調整アフォーダンス1036bを表示する。加えて、デバイス600は、コンテンツが表現3724cによって表されたメディアアイテムを補正するために使用される必要があるとの判定を行ったため、非選択可能自動調整インジケータ3734の代わりに、自動調整アフォーダンス1036bを表示する。特に、デバイス600がキャプチャされたメディアを自動的に調整するように構成されていないため、デバイス600は、コンテンツが表現3724cによって表されたメディアアイテムを補正するために使用される必要があるとの判定を行いつつも、表現3724cによって表されたメディアアイテムの調整された表現を表示するのをやめる。図37Uでは、デバイス600は、自動調整アフォーダンス1036bに対応する場所でのジェスチャ3750uを検出する。 As shown in FIG. 37U, because the device 600 has completely processed the content of the media item represented by the representation 3724c (eg, an image in which a portion of the dog 3784a's head is missing), and because the device 600 captures the media. The device 600 ceases to display the animated or tuned representation because it is not configured to tune automatically (as discussed in FIG. 37S). In other words, as opposed to displaying the automatically adjusted representation as discussed in FIGS. 37M-37N when the device 600 is configured to automatically adjust the captured media. In addition, the device 600 maintains the display of the untuned representation 3730c1 because the device 600 is not configured to automatically adjust the captured media. Further, the device 600 displays the auto-adjustment affordance 1036b as unselected. Here, device 600 is not configured to automatically adjust the captured media (as discussed in FIG. 37S), instead of being selected (eg, FIG. 37M). The auto-adjustment affordance 1036b is displayed as a choice. In addition, the device 600 has determined that the content needs to be used to correct the media item represented by the representation 3724c, so instead of the non-selectable auto-adjustment indicator 3734, the auto-adjustment affordance 1036b Is displayed. In particular, the device 600 is not configured to automatically adjust the captured media, so the device 600 needs to be used to correct the media item whose content is represented by the representation 3724c. While making the determination, stop displaying the adjusted representation of the media item represented by representation 3724c. In FIG. 37U, the device 600 detects the gesture 3750u at the location corresponding to the auto-adjustment affordance 1036b.

図37Vに示すように、ジェスチャ3750uを検出したことに応答して、デバイス600は、調整されていない表現3730c1を、調整された表現3730c2に置き換える。調整された表現3730c2は、調整されていない表現3730c1内に以前に表示されなかった犬3784a(例えば、識別されたオブジェクト)の頭の一部分を含む。ここで、デバイス600は、犬3784aの頭のより多くを表示するために追加のコンテンツ内(例えば、領域602、606内、及び/又は図37Hのライブプレビュー630の一部として表示されなかったカメラディスプレイ領域604の面上の部分)に導入することによって、犬3784aの頭にリフレームする。いくつかの実施形態では、デバイス600は、ジェスチャ3750uを検出したことに応答して、各部分的に調整された表現が以前のものよりも調整された表現3730c1に近い、いくつかの部分的に調整された表現を表示することによって、調整されていない表現3730c1をリフレーミングするアニメーションを表示する。調整された表現3730c2を表示することとともに、デバイス600はまた、調整された表現3730c2と一致するように、メディアコレクション624内の表現3724cを更新する。更に、ジェスチャ3750uを検出したことに応答して、デバイス600は、自動調整アフォーダンス1036bが選択されているものとして表示されるように、自動調整アフォーダンス1036bを更新する。図37Vでは、デバイス600は、メディアコレクション624における表現3724aに対応する場所でのジェスチャ3750vを検出する。 As shown in FIG. 37V, in response to detecting the gesture 3750u, the device 600 replaces the untuned representation 3730c1 with the tuned representation 3730c2. The adjusted representation 3730c2 includes a portion of the head of a dog 3784a (eg, an identified object) that was not previously displayed within the unadjusted representation 3730c1. Here, the device 600 is a camera that was not displayed in additional content (eg, in areas 602, 606, and / or as part of the live preview 630 of FIG. 37H) to display more of the dog 3784a's head. Reframe to the head of dog 3784a by introducing into the surface portion of display area 604). In some embodiments, the device 600 responds to the detection of the gesture 3750u, with some partially tuned representations closer to the tuned representation 3730c1 than the previous ones. By displaying the adjusted representation, an animation that reframs the unadjusted representation 3730c1 is displayed. Along with displaying the tuned representation 3730c2, the device 600 also updates the representation 3724c in the media collection 624 to match the tuned representation 3730c2. Further, in response to detecting the gesture 3750u, the device 600 updates the auto-adjustment affordance 1036b so that the auto-adjustment affordance 1036b appears to be selected. In FIG. 37V, the device 600 detects the gesture 3750v at the location corresponding to the representation 3724a in the media collection 624.

図37Wに示すように、ジェスチャ3750vを検出したことに応答して、デバイス600は、表現3730aを表示し、コンテンツ処理インジケータ3732、非選択可能自動調整インジケータ3734、及び自動調整アフォーダンス1036bの表示するのをやめる。図37Wにおいて、デバイス600は、(調整できない)表現3730aを表示し、表現3734aによって表されたメディアアイテムをキャプチャするときに、デバイス600が追加のコンテンツをキャプチャしなかったため、インジケータ3732及び3734並びにアフォーダンス1036bを表示するのをやめる。37B〜37Dに戻ると、デバイス600が図37C〜図37Dにおいて表現3724aによって表されたメディアアイテムをキャプチャしたとき、デバイス600は、追加のコンテンツをキャプチャするように構成されなかった(追加のコンテンツアフォーダンス3702aが図37Bにおいてオフに設定されたため)。この例では、表現3724aによって表されたメディアアイテムをキャプチャしたとき、カメラの視野の外側にある追加のコンテンツは、キャプチャされない。図37Wに戻ると、いくつかの実施形態では、デバイス600は、表現3730aを表示し、追加のコンテンツがキャプチャされる場合であっても、コンテンツ処理インジケータ3732、非選択可能自動調整インジケータ3734、及び自動調整アフォーダンス1036bを表示するのをやめる。いくつかの実施形態では、デバイス600は、追加のコンテンツが保存されないように、キャプチャされた追加のコンテンツが使用不可であることを判定する(例えば、画像内の視覚的引裂きは、視覚的引裂きの特定の閾値レベルを上回るとき)。 As shown in FIG. 37W, in response to detecting the gesture 3750v, the device 600 displays the representation 3730a, displaying the content processing indicator 3732, the non-selectable auto-adjustment indicator 3734, and the auto-adjustment affordance 1036b. Stop. In FIG. 37W, the device 600 displays the (non-adjustable) representation 3730a, and when capturing the media item represented by the representation 3734a, the device 600 did not capture additional content, so the indicators 3732 and 3734 and affordances. Stop displaying 1036b. Returning to 37B-37D, when device 600 captured the media item represented by representation 3724a in FIGS. 37C-37D, device 600 was not configured to capture additional content (additional content affordance). Because 3702a was set to off in FIG. 37B). In this example, when capturing the media item represented by representation 3724a, no additional content outside the camera's field of view is captured. Returning to FIG. 37W, in some embodiments, the device 600 displays the representation 3730a, the content processing indicator 3732, the non-selectable auto-tuning indicator 3734, and even when additional content is captured. Stop displaying the auto-adjustment affordance 1036b. In some embodiments, the device 600 determines that the captured additional content is unavailable so that the additional content is not saved (eg, a visual tear in an image is a visual tear. When a certain threshold level is exceeded).

図37X〜図37AAは、図37K〜図37Vに関連して記載されたものと同様の技術を使用して、他のメディア(例えば、ビデオメディア)を調整する例示的なユーザインタフェースを示す。具体的には、図37Xは、表現3724zによって表されたメディアアイテムの調整された表現である、調整された表現3730z1を表示するデバイス600を示す。更に、図37Xは、(タップジェスチャ3750mに関連して上述したようなものと同様の技術を使用して)選択されると、デバイス600に、表現3724zによって表されたメディアアイテムの調整されていない表現を表示させる、自動調整アフォーダンス1036bを表示するデバイス600を示す。図37Xでは、デバイス600は、メディアアイテムを閲覧する要求(例えば、メディアコレクション624における表現3724zに対応する場所でのタップジェスチャ)が行われた前に、デバイス600が表示3724zで表されるメディアアイテムのコンテンツを完全に処理したため、コンテンツ処理インジケータ3732を表示することなく、調整された表現3724z1及び自動調整アフォーダンス1036bを表示する。更には、デバイス600は、追加のコンテンツがビデオメディアを安定化するために使用される必要があるとデバイス600が判定したため、調整された表現3730z1及び自動調整アフォーダンス1036bを表示する。ここで、調整された表現3730z1は、追加のコンテンツを使用して修正された表現3724z(例えば、より不安定であるビデオ)によって表されたメディアアイテムの1つ以上の修正されたフレームを含む。ここで、デバイス600は、表現3724zによって表されたメディアアイテムがキャプチャされ、各ビデオフレームについて、追加のコンテンツを使用して(例えば、表現3724zによって表されたメディアアイテムがキャプチャされたときの領域602及び606内)、表現3724zによって表されたメディアアイテムがキャプチャされたときに、カメラディスプレイ領域604内に表示されるコンテンツのシフトから得られた1つ以上のギャップを埋めるときに、カメラディスプレイ領域604内に表示されるシフトされたコンテンツを有する。図37Xでは、デバイス600は、メディアコレクション624における表現3724yに対応する場所でのタップジェスチャ3750xを検出する。 37X-37AA show an exemplary user interface for adjusting other media (eg, video media) using techniques similar to those described in relation to FIGS. 37K-37V. Specifically, FIG. 37X shows the device 600 displaying the adjusted representation 3730z1, which is the adjusted representation of the media item represented by the representation 3724z. Furthermore, FIG. 37X, when selected (using a technique similar to that described above in connection with the tap gesture 3750m), is not tuned to the device 600 for the media item represented by the representation 3724z. The device 600 displaying the auto-adjustment affordance 1036b displaying the representation is shown. In FIG. 37X, the device 600 is represented by the media item displayed at 3724z before the device 600 is requested to view the media item (eg, a tap gesture at a location corresponding to the representation 3724z in the media collection 624). Since the content of is completely processed, the adjusted expression 3724z1 and the automatic adjustment affordance 1036b are displayed without displaying the content processing indicator 3732. Further, the device 600 displays the adjusted representation 3730z1 and the auto-adjusted affordance 1036b because the device 600 has determined that additional content needs to be used to stabilize the video media. Here, the adjusted representation 3730z1 includes one or more modified frames of the media item represented by the modified representation 3724z (eg, a more unstable video) with additional content. Here, the device 600 captures the media item represented by the representation 3724z and uses additional content for each video frame (eg, region 602 when the media item represented by the representation 3724z is captured). And within 606), when the media item represented by the representation 3724z is captured, the camera display area 604 fills one or more gaps obtained from the shift of the content displayed within the camera display area 604. Has shifted content displayed within. In FIG. 37X, device 600 detects tap gesture 3750x at a location corresponding to representation 3724y in media collection 624.

図37Yに示すように、タップジェスチャ3750xを検出したことに応答して、デバイス600は、調整された表現3730z1の表示を、調整されていない表現3730y1の表示に置き換え、これは、表現3724yによって表されたメディアアイテムの調整された表現である。図37X〜図37Yでは、デバイス600は、キャプチャされたメディアを自動的に調整しないように構成された(例えば、非アクティブ状態に設定された自動メディア補正設定アフォーダンス3702a1)。図37Yでは、デバイス600が、追加のコンテンツがメディアを補正する(例えば、ビデオメディアを安定化する)のに使用される必要があるという判定を判定したが、デバイス600がキャプチャされたメディアを自動的に調整するように構成されていないため、デバイス600は、表現3724zによって表されたメディアアイテムの調整されていない表現を表示する。更に、デバイス600は、類似の理由で未選択であるものとして1036bを表示する。図37Yでは、デバイス600は、表現3724xに対応する場所でのタップジェスチャ3750yを検出する。 As shown in FIG. 37Y, in response to detecting the tap gesture 3750x, the device 600 replaces the display of the adjusted representation 3730z1 with the display of the unadjusted representation 3730y1, which is represented by the representation 3724y. A tailored representation of a media item that has been made. In FIGS. 37X-37Y, the device 600 is configured not to automatically adjust the captured media (eg, automatic media correction setting affordances 3702a1 set to inactive state). In FIG. 37Y, the device 600 determines that additional content needs to be used to correct the media (eg, stabilize the video media), but the device 600 automatically automatically captures the captured media. The device 600 displays an unadjusted representation of the media item represented by the representation 3724z because it is not configured to be tuned. In addition, device 600 displays 1036b as unselected for similar reasons. In FIG. 37Y, device 600 detects tap gesture 3750y at a location corresponding to representation 3724x.

図37Zに示すように、タップジェスチャ3750yを検出したことに応答して、デバイス600は、追加のコンテンツがキャプチャされ、かつ追加のコンテンツが表現3724xによって表されたメディアアイテム(例えば、ビデオメディア安定化させる)を補正するために使用される必要がないとの判定を行うため、調整されていない表現3730x1(表現3724xによって表されたメディアアイテムに対応する)及び非選択可能自動調整インジケータ3734を表示する。図37Zでは、デバイス600は、表現3724wに対応する場所でのタップジェスチャ3750zを検出する。 As shown in FIG. 37Z, in response to detecting the tap gesture 3750y, the device 600 captures additional content and the additional content is represented by the representation 3724x media item (eg, video media stabilization). Display the unadjusted representation 3730x1 (corresponding to the media item represented by the representation 3724x) and the non-selectable auto-adjustment indicator 3734 to determine that it does not need to be used to correct .. In FIG. 37Z, device 600 detects tap gesture 3750z at a location corresponding to representation 3724w.

図37AAに示すように、タップジェスチャ3750zを検出したことに応答して、デバイス600は、表現3730wを表示し、これは、表現3724wによって表されたメディアアイテムに対応する。デバイス600は、表現3730wを表示し、表現3724wによって表されたメディアアイテムをキャプチャするときに、デバイス600が追加のコンテンツをキャプチャしなかったため、インジケータ3732及び3734並びにアフォーダンス1036bを表示するのをやめる。 As shown in FIG. 37AA, in response to detecting tap gesture 3750z, device 600 displays representation 3730w, which corresponds to the media item represented by representation 3724w. The device 600 displays the representation 3730w and stops displaying the indicators 3732 and 3734 as well as the affordance 1036b because the device 600 did not capture the additional content when capturing the media item represented by the representation 3724w.

メディアアイテムの自動調整は、上記の図37A〜図37AAの説明に使用される画像及びビデオメディアに限定されるものではない。例えば、いくつかの実施形態では、デバイス600は、オーディオを含むメディア(例えば、ビデオ、オーディオ記録)をキャプチャする。いくつかの実施形態では、デバイス600は、ビームフォーミングを使用することによって、当初キャプチャされたオーディオを調整する。いくつかの実施形態では、デバイス600は、デバイス600の1つ以上のマイクロフォンを使用して、メディア内のオブジェクト又は対象にズームするときに判定される方向入力に基づいて、単一の出力を生成する。 The automatic adjustment of media items is not limited to the image and video media used in the above description of FIGS. 37A-37AA. For example, in some embodiments, the device 600 captures media containing audio (eg, video, audio recording). In some embodiments, the device 600 adjusts the initially captured audio by using beamforming. In some embodiments, the device 600 uses one or more microphones of the device 600 to generate a single output based on the directional input determined when zooming to an object or object in the media. do.

図38A〜図38Cは、いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。方法3800は、表示デバイス(例えば、タッチ感知ディスプレイ)を備えたデバイス(例えば、100、300、500、600)にて行われる。方法3800のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 38A-38C are flow diagrams illustrating a method for editing media captured using an electronic device according to some embodiments. Method 3800 is performed on a device (eg, 100, 300, 500, 600) equipped with a display device (eg, a touch-sensitive display). Some actions of Method 3800 are optionally combined, some actions are arbitrarily modified in order, and some actions are optionally omitted.

後述するように、方法3800は、いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを自動的に調整するための直感的方法を提供する。この方法は、キャプチャされたメディアを調整する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的に調整されたメディアにアクセスすることを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, Method 3800 provides an intuitive method for automatically adjusting captured media using electronic devices according to some embodiments. This method reduces the user's cognitive burden in adjusting the captured media, thereby creating a more efficient human-machine interface. For battery-powered computing devices, it saves power and prolongs the time between battery charges by enabling users to access tuned media faster and more efficiently.

電子デバイス(例えば、600)は、表示デバイスを含む。電子デバイスは、1つ以上のカメラの視野の第1の部分(例えば、領域604に表示されたライブプレビュー630に対応するコンテンツ)(例えば、1つ以上のカメラの視野の主要又は中心部分であって、そのうちの大部分が、メディアアイテムを表示するときに1つ以上のカメラの視野の表現に含まれる)からの第1のコンテンツ(例えば、画像データ(例えば、コンピュータシステム上に記憶された画像データ))及び1つ以上のカメラの視野の第2の部分(例えば、領域602及び606に表示されたライブプレビュー630に対応するコンテンツ)(例えば、1つ以上のカメラの視野の主要又は中心部分の外側であり、かつ任意選択的に、1つ以上のカメラの視野の主要又は中心部分である1つ以上のカメラの異なるカメラによってキャプチャされる、1つ以上のカメラの視野の一部分)からの第2のコンテンツ(例えば、画像データ(例えば、コンピュータシステム上に記憶された画像データ))を含む、以前にキャプチャされたメディアアイテム(例えば、静止画像、ビデオ)の表現を表示する要求(例えば、3750j、3750n、3750v、3750w、3750x、3750y、3750z)(例えば、サムネイル画像の選択、画像キャプチャアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、アクティブ化されると、第1の領域に表示されたコンテンツの画像をキャプチャするシャッターアフォーダンス)の選択)を受信する(3802)。 Electronic devices (eg, 600) include display devices. The electronic device is a first portion of the field of view of one or more cameras (eg, content corresponding to a live preview 630 displayed in area 604) (eg, a major or central portion of the field of view of one or more cameras). Most of them are included in the representation of the field of view of one or more cameras when displaying a media item (eg, image data (eg, an image stored on a computer system). Data)) and a second portion of the field of view of one or more cameras (eg, content corresponding to the live preview 630 displayed in areas 602 and 606) (eg, a major or central portion of the field of view of one or more cameras). From (a portion of the field of view of one or more cameras) captured by different cameras of one or more cameras that are outside and optionally the main or central part of the field of view of one or more cameras. A request (eg, eg, still image, video) to display a representation of a previously captured media item (eg, still image, video), including second content (eg, image data (eg, image data stored on a computer system)). 3750j, 3750n, 3750v, 3750w, 3750x, 3750y, 3750z) (eg, thumbnail image selection, image capture affordance (eg, selectable user interface object) (eg, when activated, displayed in the first area The selection of the shutter affordance) to capture the image of the content) is received (3802).

以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応答して(3804)、及び自動メディア補正基準が満たされているという判定に従って(3806)、電子デバイスは、表示デバイスを介して、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現(例えば、3730d3)を表示する(3810)。いくつかの実施形態では、自動メディア補正基準は、メディアが特定の時間フレーム中にキャプチャされたと満たされる1つ以上の基準を含み、メディアは、閲覧されず、メディアは、第2の表現を含み、メディアは、第2のコンテンツを使用して、補正され得る1つ以上の視覚アスペクト(例えば、ビデオ安定化、水平線補正、スキュー/歪み(例えば、水平、垂直)補正)を含む。いくつかの実施形態では、第1及び第2のコンテンツの組み合わせを含むメディアアイテムの表現は、メディアの表現の補正されたバージョン(例えば、安定化、水平補正、垂直視点補正、水平視点補正)である。いくつかの実施形態では、第1及び第2のコンテンツの組み合わせを含むメディアアイテムの表現は、第1のコンテンツの少なくともいくつかの表現及びコンテンツの少なくともいくつかの表現を表示することを含む。いくつかの実施形態では、第1のコンテンツ及び第2のコンテンツの組み合わせを含むメディアアイテムの表現は、第2のコンテンツ(又は第1のコンテンツ)の少なくともいくつかの表現を表示することを含まず、代わりに、第1のコンテンツ及びコンテンツの組み合わせを含むメディアアイテムの表現は、第2のコンテンツの少なくともいくつかを表示せずに、第2のコンテンツ少なくともいくつかを使用して生成され得る。所定の条件が満たされているときに、調整されたキャプチャされたメディアの表現(例えば、第1及び第2のコンテンツを含む表現)を表示することにより、ユーザは、手動で調整されるべき画像の部分を調整する必要なく、調整されたメディアの表現を迅速に閲覧することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In response to receiving a request to display a representation of a previously captured media item (3804), and according to the determination that the automatic media correction criteria are met (3806), the electronic device is via the display device. The previously captured representation of the previously captured media item (eg, 3730d3), including the first content and the combination of the second content, is displayed (3810). In some embodiments, the automatic media correction criteria include one or more criteria that satisfy that the media was captured during a particular time frame, the media is not viewed, and the media contains a second representation. The media includes one or more visual aspects that can be corrected using the second content (eg, video stabilization, horizon correction, skew / distortion (eg, horizontal, vertical) correction). In some embodiments, the representation of a media item, including a combination of first and second content, is in a corrected version of the representation of the media (eg, stabilization, horizontal correction, vertical viewpoint correction, horizontal viewpoint correction). be. In some embodiments, the representation of a media item that includes a combination of first and second content comprises displaying at least some representation of the first content and at least some representation of the content. In some embodiments, the representation of the media item, including the first content and the combination of the second content, does not include displaying at least some representation of the second content (or the first content). , Alternatively, the representation of the media item, including the first content and the combination of contents, may be generated using at least some of the second content without displaying at least some of the second content. By displaying an adjusted representation of the captured media (eg, a representation that includes first and second content) when certain conditions are met, the user can manually adjust the image. You can quickly browse the adjusted media representation without having to adjust the part of. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.

以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応答して(3804)、及び自動メディア補正基準が満たされていないという判定に従って(3810)、電子デバイスは、表示デバイスを介して、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現(例えば、3730b1、3730c1)を表示する(3816)。いくつかの実施形態では、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現は、補正されていない(例えば、水平線を安定化させ、補正し、メディアの垂直又は水平視点を補正するために、第2のコンテンツを使用して補正された)表現である。所定の条件が満たされているときに、調整されなかったキャプチャされたメディアの表現(例えば、第1のコンテンツを含むが、第2のコンテンツを含まない表現)を表示することにより、ユーザは、メディアが自動的に調整された場合に行われる必要がある調整を手動で反転する必要なく、調整されなかったメディアの表現を迅速に閲覧することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In response to receiving a request to display a representation of a previously captured media item (3804), and according to the determination that the automatic media correction criteria are not met (3810), the electronic device is via the display device. It displays representations of previously captured media items (eg, 3730b1, 3730c1) that include the first content and do not include the second content (3816). In some embodiments, the representation of a previously captured media item that contains the first content and does not contain the second content is uncorrected (eg, stabilizing and correcting the horizon, media). Is a representation (corrected using a second content) to correct the vertical or horizontal viewpoint of. By displaying an untuned representation of the captured media (eg, a representation that includes the first content but not the second content) when certain conditions are met, the user can: You can quickly browse the unadjusted media representation without having to manually flip the adjustments that would have to be made if the media were automatically adjusted. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.

いくつかの実施形態では、メディアアイテムの表現を表示する要求を受信する前に、表示デバイスを介して、第1の領域(例えば、604)(例えば、カメラディスプレイ領域)を含むカメラユーザインタフェースを表示する。いくつかの実施形態では、第1の領域は、1つ以上のカメラの視野の第1の部分の表現を含む。いくつかの実施形態では、カメラユーザインタフェースは、第2の領域(例えば、602、606)(例えば、カメラコントロール領域)を含む。いくつかの実施形態では、第2の領域は、1つ以上のカメラの視野の第2の部分の表現を含む。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分の表現は、第1の部分の表現から視覚的に区別される(例えば、暗色外観を有する)(例えば、1つ以上のカメラの視野の第2の部分上に半透明のオーバーレイを有する)。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分の表現は、1つ以上のカメラの視野の第1の部分の表現と比較して、暗色外観を有する。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分の表現は、カメラユーザインタフェース内のカメラディスプレイ領域の上方及び/又は下方に位置する。第1の領域とは視覚的に異なる第2の領域を表示することにより、メディアを表示するためにキャプチャ及び使用されるメインコンテンツ及びメディアを表示するためにキャプチャされ得る追加のコンテンツであるコンテンツについてのフィードをユーザに提供し、ユーザが、メディアをキャプチャするときに、異なる領域内/外に物を維持するために、メディアをフレーム化できるようにする。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, a camera user interface that includes a first area (eg, 604) (eg, a camera display area) is displayed via a display device before receiving a request to display a representation of the media item. do. In some embodiments, the first region comprises a representation of the first portion of the field of view of one or more cameras. In some embodiments, the camera user interface includes a second area (eg, 602, 606) (eg, a camera control area). In some embodiments, the second region comprises a representation of a second portion of the field of view of one or more cameras. In some embodiments, the representation of the second portion of the field of view of one or more cameras is visually distinguished from the representation of the first portion (eg, having a dark appearance) (eg, one or more). Has a translucent overlay on the second part of the camera's field of view). In some embodiments, the representation of the second portion of the field of view of one or more cameras has a darker appearance as compared to the representation of the first portion of the field of view of one or more cameras. In some embodiments, the representation of the second portion of the field of view of one or more cameras is located above and / or below the camera display area within the camera user interface. For content that is the main content captured and used to display the media and additional content that can be captured to display the media by displaying a second area that is visually different from the first area. Provide the feed to the user so that the user can frame the media to keep things in and out of different areas when capturing the media. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

いくつかの実施形態では、自動メディア補正基準が満たされているという判定に従って(3806)、電子デバイスは、自動調整が以前にキャプチャされたメディアアイテムに適用されたことを示す第1の補正アフォーダンス(例えば、例えば、図37Mの1036b)(例えば、自動調整が以前にキャプチャされたメディアアイテムに適用されたことを示す、第1の状態(例えば、アクティブ状態(例えば、選択されているものとして示される(例えば、プレスされて、太字、暗色化され、第1の文字又はマークとともに第1の色で表示される)))で表示される、自動調整アフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト))を表示する(3814)。自動調整が適用されることを示す自動調整アフォーダンスを表示することにより、アフォーダンスの現在の状態についてのフィードバックをユーザに提供し、かつユーザがアイコンをアクティブ化すると表現に適用された調整を反転するための動作が行われることを示す、視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, according to the determination that the automatic media correction criteria are met (3806), the electronic device has a first correction affordance indicating that the automatic adjustment has been applied to a previously captured media item (3806). For example, the first state (eg, the active state (eg, selected)) (eg, 1036b in FIG. 37M) (eg, indicating that the auto-adjustment has been applied to a previously captured media item). (For example, pressed, bolded, darkened, and displayed in the first color with the first letter or mark))), the auto-adjusted affordance (eg, selectable user interface object)). Display (3814). To provide feedback to the user about the current state of the affordance by displaying an auto-adjustment affordance that indicates that the auto-adjustment will be applied, and to reverse the adjustment applied to the expression when the user activates the icon. Provides the user with visual feedback indicating that the action is taken. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

いくつかの実施形態では、自動メディア補正基準が満たされていないという判定に従って(3808)、電子デバイスは、第2の補正アフォーダンス(例えば、図37Uの1036bなど)を表示する(3818)。いくつかの実施形態では、自動調整が以前にキャプチャされたメディアアイテムに適用されていないことを示す第2の自動調整アフォーダンス(例えば、自動調整が以前にキャプチャされたメディアアイテムに適用されていないことを示す、第2の状態(例えば、非アクティブ状態(例えば、未選択であるものとして示される(例えば、プレスされず、太字又は明るくなく、第2の文字又はマークとともに第2の色で表示される)))で表示される、自動調整アフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト))。いくつかの実施形態では、第2の自動調整アフォーダンスは、第1の自動調整アフォーダンスとは視覚的に異なる。いくつかの実施形態では、第2のコンテンツを使用して、メディアをキャプチャすることができるという判定に従って、電子デバイスは、自動調整が以前にキャプチャされたメディアアイテムに適用されていないことを示す第3の自動調整アフォーダンスを表示し、自動調整が以前にキャプチャされたメディアアイテムに適用されていないことを示す、第2の自動調整アフォーダンス(例えば、自動調整が以前にキャプチャされたメディアアイテムに適用されていないことを示す、第2の状態(例えば、非アクティブ状態(例えば、未選択であるものとして示される(例えば、プレスされず、太字又は明るくなく、第2の文字又はマークとともに第2の色で表示される)))で表示される、自動調整アフォーダンス)を表示する。いくつかの実施形態では、第2の自動調整アフォーダンスは、第1の自動調整アフォーダンスとは視覚的に異なり、及び第2のコンテンツがメディアを補正するために使用されないという判定に従って、電子デバイスは、第1の自動調整アフォーダンス及び第2の自動調整アフォーダンスを表示するのをやめる。いくつかの実施形態では、メディア内の第2のコンテンツを使用して、補正され得る1つ以上の視覚アスペクト(例えば、ビデオ安定化、水平線補正、スキュー/歪み(例えば、水平、垂直)補正)の分析に基づいて、第2のコンテンツがメディアを補正するために使用され得るという判定を行う。いくつかの実施形態では、分析は、信頼度確信スコアを計算し、信頼度確信スコアを閾値と比較することを含む。いくつかの実施形態では、信頼度確信スコアが閾値を上回る(又は等しい)場合、コンテンツがメディアを補正するために使用され得るという判定を行う。自動調整が適用されないことを示す自動調整アフォーダンスを表示することにより、アフォーダンスの現在の状態についてのフィードバックをユーザに提供し、かつユーザがアイコンをアクティブ化すると表現への調整を実行するための動作が行われることを示す、視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, according to the determination that the automatic media correction criteria are not met (3808), the electronic device displays a second correction affordance (eg, 1036b in FIG. 37U) (3818). In some embodiments, a second auto-adjustment affordance (eg, auto-adjustment is not applied to a previously captured media item) indicating that the auto-adjustment has not been applied to a previously captured media item. A second state (eg, an inactive state (eg, shown as unselected (eg, unpressed, not bold or bright,) displayed in a second color with a second letter or mark). Auto-adjusted affordances (eg, selectable user interface objects) displayed in)). In some embodiments, the second auto-adjustment affordance is visually different from the first auto-adjustment affordance. In some embodiments, according to the determination that the second content can be used to capture the media, the electronic device indicates that the auto-tuning has not been applied to the previously captured media item. A second auto-adjustment affordance (eg, auto-adjustment is applied to previously captured media items) that displays the auto-adjustment affordance of 3 and indicates that the auto-adjustment has not been applied to previously captured media items. A second state (eg, an inactive state (eg, shown as unselected (eg, unpressed, not bold or bright,) with a second letter or mark) indicating that it is not. Display the automatic adjustment affordance) displayed in))). In some embodiments, the electronic device is subject to a determination that the second auto-adjustment affordance is visually different from the first auto-adjustment affordance and that the second content is not used to correct the media. Stop displaying the first auto-adjustment affordance and the second auto-adjustment affordance. In some embodiments, the second content in the media is used to correct one or more visual aspects (eg, video stabilization, horizontal line correction, skew / distortion (eg horizontal, vertical) correction). Based on the analysis of, it is determined that the second content can be used to correct the media. In some embodiments, the analysis involves calculating a confidence confidence score and comparing the confidence confidence score with a threshold. In some embodiments, if the confidence confidence score exceeds (or is equal to) a threshold, it is determined that the content can be used to correct the media. By displaying an auto-adjustment affordance that indicates that the auto-adjustment is not applied, the action to provide feedback to the user about the current state of the affordance and to perform the adjustment to the representation when the user activates the icon. Provide users with visual feedback to indicate that it will be done. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

いくつかの実施形態では、第1の自動調整アフォーダンス(例えば、1036b)を表示し、かつ表示デバイスを介して、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現(例えば、3730d3)を表示している間に、電子デバイスは、第1の自動調整アフォーダンスの選択に対応する第1の入力(例えば、3750m)(例えば、タップ)を受信する。 In some embodiments, a previously captured media item that displays a first autofit affordance (eg, 1036b) and contains a first content and a combination of second content via a display device. While displaying the representation (eg, 3730d3), the electronic device receives a first input (eg, 3750m) (eg, tap) corresponding to the selection of the first auto-adjustment affordance.

いくつかの実施形態では、第1の自動調整アフォーダンスの選択に対応する第1の入力を受信したことに応答して、電子デバイスは、表示デバイスを介して、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現(例えば、3730c1)を表示する。いくつかの実施形態では、第1の自動調整アフォーダンスの選択に対応する第1の入力を受信したことに応答して、電子デバイスはまた、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現の表示を停止する。いくつかの実施形態では、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現を表示することを、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現の表示に置き換える。自動調整が適用されないことを示す自動調整アフォーダンスの表示を更新することにより、動作の現在の状態についてのフィードバックをユーザに提供し、かつアフォーダンスの以前のアクティブ化に応答して、表現への調整を実行するための動作が行われたことを示す、視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in response to receiving the first input corresponding to the selection of the first autofit affordance, the electronic device comprises the first content via the display device and the first. Display a representation (eg, 3730c1) of a previously captured media item that does not contain the content of 2. In some embodiments, in response to receiving a first input corresponding to the selection of the first autofit affordance, the electronic device also includes a first content and a combination of the second content previously. Stops displaying the representation of media items captured in. In some embodiments, displaying a representation of a previously captured media item that includes the first content and does not include the second content comprises a combination of the first content and the second content. Replace with a representation of the previously captured media item representation. Update the display of the auto-adjustment affordance to indicate that the auto-adjustment is not applied to provide the user with feedback on the current state of the behavior and to adjust the representation in response to the previous activation of the affordance. Provide users with visual feedback that an action has been taken to perform. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

いくつかの実施形態では、第2の自動調整アフォーダンス(例えば、1036b)を表示し、かつ表示デバイスを介して、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現(例えば、3730c1)を表示している間に、電子デバイスは、第2の自動調整アフォーダンスの選択に対応する第2の入力(例えば、3750b)(例えば、タップ)を受信する。いくつかの実施形態では、第2の自動調整アフォーダンスの選択に対応する第2の入力を受信したことに応答して、電子デバイスは、表示デバイスを介して、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現(例えば、3730c2)を表示する。いくつかの実施形態では、第1の自動調整アフォーダンスの選択に対応する第1の入力を受信したことに応答して、電子デバイスはまた、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現の表示を停止する。いくつかの実施形態では、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現を表示することを、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現の表示に置き換える。自動調整が適用されることを示す自動調整アフォーダンスの表示を更新することにより、動作の現在の状態についてのフィードバックをユーザに提供し、かつアフォーダンスの以前のアクティブ化に応答して、表現への調整を反転するための動作が行われたことを示す、視覚的フィードバックをユーザに、更なるコントロールをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, previously captured media displaying a second autofit affordance (eg, 1036b) and containing the first content and not including the second content via the display device. While displaying the representation of the item (eg, 3730c1), the electronic device receives a second input (eg, 3750b) (eg, tap) corresponding to the selection of the second auto-adjustment affordance. In some embodiments, the electronic device receives the first content and the second content via the display device in response to receiving a second input corresponding to the selection of the second autofit affordance. Displays a representation of a previously captured media item (eg, 3730c2) that contains a combination of. In some embodiments, the electronic device also includes a first content and a second content in response to receiving a first input corresponding to the selection of the first autofit affordance. Stop displaying representations of previously captured media items. In some embodiments, displaying a representation of a previously captured media item that includes a first content and a combination of the second content includes the first content and does not include the second content. Replace with a representation of the previously captured media item representation. Adjusting to the representation by updating the auto-tuning affordance display to indicate that auto-tuning is applied, providing feedback to the user about the current state of the behavior, and in response to previous activation of the affordance. It provides the user with visual feedback and further control to indicate that an action has been taken to invert. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.

いくつかの実施形態では、以前にキャプチャされたメディアアイテムは、画像(例えば、静止写真、アニメーション化された画像(例えば、複数の画像))である。いくつかの実施形態では、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現(例えば、3730d3)は、縁部部分(例えば、水平線(例えば、画像内の補正された(例えば、直線化された)水平線)(例えば、スカイライン))を含む。いくつかの実施形態では、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現(例えば、3730d1)は、縁部部分を更に含まない(例えば、図24A〜図24Hに関連して上述したように、及び図25A〜図25Bに関連して上述した方法2500で)。いくつかの実施形態では、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現は、実視水平線をまっすぐにするために第1のコンテンツの表現を回転すること、及び表現の回転から残された空の空間を満たすために第2のコンテンツの一部分の表現に導入することによって、視認可能な第1の水平線が作成されることを含む。いくつかの実施形態では、電子デバイスは、図24A〜図24Hに関連して上述したようなものと同様の技術及び図25A〜図25Bのフロー図のに関連して上述した方法2500を使用して、画像の垂直遠近歪及び/又は水平遠近歪を補正する。 In some embodiments, the previously captured media item is an image (eg, a still photo, an animated image (eg, a plurality of images)). In some embodiments, a previously captured representation of a previously captured media item (eg, 3730d3), including a first content and a combination of the second content, has an edge portion (eg, a horizon (eg, a correction in the image). Includes (eg, straightened) horizon) (eg, skyline). In some embodiments, the previously captured representation of the media item (eg, 3730d1), which includes the first content and does not contain the second content, further includes no edge portion (eg, FIG. (As described above in connection with FIGS. 24A-24H, and in method 2500 described above in connection with FIGS. 25A-25B). In some embodiments, the previously captured representation of the media item, including the first content and the combination of the second content, rotates the representation of the first content to straighten the visual horizon. , And by introducing into the representation of a portion of the second content to fill the empty space left from the rotation of the representation, including creating a visible first horizon. In some embodiments, the electronic device uses a technique similar to that described above in connection with FIGS. 24A-24H and method 2500 described above in connection with the flow diagram of FIGS. 25A-25B. The vertical perspective distortion and / or the horizontal perspective distortion of the image is corrected.

いくつかの実施形態では、以前にキャプチャされたメディアアイテムは、ビデオ(例えば、複数の画像)である。いくつかの実施形態では、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現(例えば、3730z1)は、第1の量の移動(例えば、ビデオの次にくるフレームの間の移動)(例えば、安定化されたビデオ)を含む。いくつかの実施形態では、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現が、第1の量の移動とは異なる第2の量の移動(例えば、ビデオの次にくるフレームの間の移動)(例えば、安定化されていないビデオ)を含む。いくつかの実施形態では、電子デバイスは、ビデオ内の移動量を低減するために、第2のコンテンツを使用する(例えば、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現内に示される)。いくつかの実施形態では、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現は、より安定なバージョンである(例えば、ビデオが第1のコンテンツよりもキャプチャされたメディアが再生され、第2の移動量を含む第2のコンテンツを含まないときのフレーム間の(例えば、滑らかな)動き(例えば、ぼかし、振動)を低減するために、(例えば、ビデオの視覚的に表示されるフレームの外側(例えば、第2のコンテンツ)にあるコンテンツ(例えば、第1のコンテンツに対応するコンテンツ)を使用して)修正された元のビデオ(例えば、より不安定であるビデオ)の1つ以上の修正されたフレームを含むバージョン。いくつかの実施形態では、動きを低減するために、電子デバイスは、複数のビデオフレームの第1のコンテンツをシフトし、かつ各ビデオフレームについて、第1のコンテンツのシフトから得られた1つ以上のギャップを埋める(例えば、それぞれのビデオフレームの表現を表示するために、第2のコンテンツのうちのいくつかを第1のコンテンツに追加する)ために第2のコンテンツを使用する。 In some embodiments, the previously captured media item is a video (eg, multiple images). In some embodiments, the previously captured representation of the media item (eg, 3730z1), including the first content and the combination of the second content, comes after the first amount of movement (eg, video). Includes movement between frames (eg, stabilized video). In some embodiments, the representation of a previously captured media item that contains the first content and does not contain the second content is a second amount of movement (eg, different from the first amount of movement). Includes moving between frames following the video (eg, unstabilized video). In some embodiments, the electronic device uses a second content to reduce the amount of movement in the video (eg, previously captured, including a combination of the first content and the second content). Shown in the representation of the media item). In some embodiments, the representation of the previously captured media item, including the first content and the combination of the second content, is a more stable version (eg, the video is captured more than the first content). To reduce inter-frame (eg, smooth) movement (eg, blurring, vibration) when the media is playing and does not contain the second content, including the second amount of movement (eg, of the video). The original video modified (eg, using content that corresponds to the first content) that is outside the visually displayed frame (eg, the second content) (eg, more unstable) A version of a video) that includes one or more modified frames. In some embodiments, in order to reduce motion, the electronic device shifts the first content of multiple video frames, and each video. For frames, fill one or more gaps from the shift of the first content (eg, some of the second content to the first content to display the representation of each video frame. Use the second content to add).

いくつかの実施形態では、以前にキャプチャされたメディアアイテムは、(例えば、第2のコンテンツは、含む)識別可能な(例えば、識別された、視覚的に観察可能な/観察された、検出可能な/検出された)オブジェクト(例えば、ボール、人の顔)を含む。いくつかの実施形態では、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現(例えば、3730c2)は、識別可能なオブジェクトの一部分(例えば、第1のコンテンツによって表される識別可能な/識別されたオブジェクトの一部分)を含む。いくつかの実施形態では、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現(例えば、3730c1)は、識別可能なオブジェクトの部分を含まない。いくつかの実施形態では、電子デバイスは、識別可能なオブジェクトが第2のコンテンツを含まない第1のコンテンツの表現内にカットオフされない(例えば、視覚オブジェクトの全部分が含まれる)ように、第2のコンテンツを使用して、第2のコンテンツを含まない第1のコンテンツの表現をリフレーム(例えば、オブジェクト(例えば、サブジェクト)をフレーム内に持ち込む))する。 In some embodiments, previously captured media items (eg, include a second content) are identifiable (eg, identified, visually observable / observed, detectable). Includes (eg, balls, human faces) objects (eg, balls, human faces). In some embodiments, a previously captured representation of a media item (eg, 3730c2) that includes a first content and a combination of second content is by a portion of an identifiable object (eg, by the first content). Includes the identifiable / identified part of the object represented). In some embodiments, the previously captured representation of a previously captured media item (eg, 3730c1) that includes the first content and does not include the second content does not include a portion of the identifiable object. In some embodiments, the electronic device is such that the identifiable object is not cut off within the representation of the first content that does not contain the second content (eg, includes the entire portion of the visual object). The content of 2 is used to reframe the representation of the first content that does not include the second content (eg, bring an object (eg, a subject) into the frame).

いくつかの実施形態では、自動メディア補正基準は、以前にキャプチャされたメディアアイテムが1つ以上のカメラの視野の第2の部分からの第2のコンテンツを使用して補正され得る1つ以上の視覚アスペクト(例えば、ビデオ安定化、水平線補正、スキュー/歪み補正)を含むと判定される(例えば、それぞれの信頼度確信閾値を上回る)と満たされる第2の基準を含む。いくつかの実施形態では、以前にキャプチャされたメディアアイテムのコンテンツを使用して判定される計算された信頼度確信値に基づいて、以前にキャプチャされたメディアアイテムが1つ以上の視覚特性を含むという判定を行う。いくつかの実施形態では、計算された信頼度確信値が閾値を上回る(又は等しい)場合、判定が満たされる。いくつかの実施形態では、計算された信頼度確信値が閾値を下回る(又は等しい)場合、判定が満たされない。 In some embodiments, the automatic media correction criterion is one or more previously captured media items that can be corrected using a second content from a second part of the field of view of one or more cameras. Includes a second criterion that is determined to include visual aspects (eg, video stabilization, horizon correction, skew / distortion correction) (eg, above their respective confidence confidence thresholds). In some embodiments, the previously captured media item contains one or more visual characteristics based on a calculated confidence confidence value determined using the content of the previously captured media item. Is judged. In some embodiments, the determination is satisfied if the calculated confidence confidence value exceeds (or is equal to) the threshold. In some embodiments, the determination is not satisfied if the calculated confidence confidence value is below (or equal to) the threshold.

いくつかの実施形態では、自動メディア補正基準は、以前にキャプチャされたメディアが表示された(例えば、閲覧された)前に(又は写真ロールユーザインタフェース又は写真ライブラリを閲覧する要求又は最近キャプチャされたメディアを閲覧する要求などの、表示する要求が電子デバイスによって受信された前に)第2の基準が満たされたと満たされる第3の基準を含む。 In some embodiments, the automatic media correction criterion is a request to view (or a photo roll user interface or photo library) before (eg, viewed) previously captured media, or was recently captured. Includes a third criterion that is met when the second criterion is met (before the request to display is received by the electronic device), such as a request to browse the media.

いくつかの実施形態では、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応答して、及び自動メディア補正基準が満たされているという判定に従って、電子デバイスは、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現と同時に、選択されると、電子デバイスに第1の動作を行わせる第3の補正アフォーダンス(例えば、1036b)を表示する。いくつかの実施形態では、第1の動作は、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現を、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現に置き換えることを含む。所定の条件が満たされているときに、自動調整が適用されることを示す自動調整アフォーダンスを表示することにより、アフォーダンスの現在の状態についてのフィードバックをユーザに提供し、かつユーザがアイコンをアクティブ化すると表現に適用された調整を反転するための動作が行われることを示す、視覚的フィードバックをユーザに提供する。所定の条件が満たされるときに、改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the electronic device is a first, in response to receiving a request to display a representation of a previously captured media item, and according to the determination that the automatic media correction criteria are met. At the same time as the representation of the previously captured media item, including the content and the combination of the second content, it displays a third corrected affordance (eg, 1036b) that causes the electronic device to perform the first action when selected. .. In some embodiments, the first action includes a representation of a previously captured media item that includes a first content and a combination of the second content, a first content, and a second content. Includes replacing with a previously captured representation of a previously captured media item. Provides feedback to the user about the current state of the affordance by displaying an auto-adjustment affordance that indicates that the auto-adjustment will be applied when certain conditions are met, and the user activates the icon. It then provides the user with visual feedback indicating that an action is taken to invert the adjustments applied to the representation. By providing the user with improved visual feedback when certain conditions are met, the usability of the device is enhanced and the user-device interface (eg, when manipulating / interacting with the device) Device power usage by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.

いくつかの実施形態では、自動メディア補正基準は、自動適用設定(例えば、3702a1)が有効化されると満たされ、かつ自動適用設定が無効化されると満たされない基準を含む。いくつかの実施形態では、自動適用設定(例えば、3702a1)は、ユーザ構成可能設定である(例えば、電子デバイスは、ユーザ入力(例えば、設定ユーザインタフェースを介して提供された入力)に応答して、自動適用設定の状態を修正する)。 In some embodiments, the automatic media correction criteria include criteria that are met when the auto-apply setting (eg, 3702a1) is enabled and are not met when the auto-apply setting is disabled. In some embodiments, the auto-apply setting (eg, 3702a1) is a user-configurable setting (eg, the electronic device responds to user input (eg, input provided via the configuration user interface). , Correct the state of automatic application settings).

いくつかの実施形態では、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応答して、及び自動メディア補正基準が満たされていないという判定に従って、及び第1の1組の基準(例えば、選択可能アフォーダンスが存在する必要があるかどうかを管理する1組の基準)が満たされているという判定に従って、電子デバイスは、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現と同時に、選択されると、電子デバイスに、第2の動作を行わせる、第4の補正アフォーダンス(例えば、1036b)を表示する(例えば、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現を、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現に置き換える)。いくつかの実施形態では、第2のコンテンツが自動補正動作で使用するのに好適ではない(例えば、第1のコンテンツとともに表現内に自動表示するのに好適ではないと電子デバイスが判定すると、第1の1組の基準は、満たされない。所定の条件が満たされているときに、自動調整が適用されないことを示す自動調整アフォーダンスを表示することにより、アフォーダンスの現在の状態についてのフィードバックをユーザに提供し、かつユーザがアイコンをアクティブ化すると表現に適用された調整を反転するための動作が行われることを示す、視覚的フィードバックをユーザに提供する。所定の条件が満たされるときに、改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, in response to receiving a request to display a representation of a previously captured media item, and according to the determination that the automatic media correction criteria are not met, and according to a first set of. According to the determination that the criteria (eg, a set of criteria governing whether the selectable affordance needs to exist) are met, the electronic device contains the first content and includes the second content. At the same time as the representation of previously captured media items, when selected, the electronic device displays a fourth corrected affordance (eg, 1036b) that causes the electronic device to perform a second action (eg, first content). Replace the previously captured representation of the previously captured media item with the first content and the second content combination with the representation of the previously captured media item containing the first content and the second content). In some embodiments, the electronic device determines that the second content is not suitable for use in the auto-correction operation (eg, is not suitable for auto-displaying in the representation with the first content). A set of criteria of 1 is not met. When certain conditions are met, the user is given feedback on the current state of the affordance by displaying an auto-adjustment affordance indicating that the auto-adjustment is not applied. Provides visual feedback to the user that provides and indicates that when the user activates the icon, an action is taken to reverse the adjustment applied to the representation. Improved when certain conditions are met. Providing visual feedback to the user enhances the usability of the device and assists the user in providing a user-device interface (eg, providing appropriate input when manipulating / interacting with the device). By making the device more efficient (by reducing user error) and, in addition, allowing the user to use the device faster and more efficiently, the power usage of the device is reduced and battery life is improved.

いくつかの実施形態では、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応答して、及び自動メディア補正基準が満たされていないという判定に従って、及び第1の1組の基準が満たされていないという判定に従って、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現と同時に、非選択可能インジケータ(例えば、3734)(例えば、選択されると、電子デバイスに、動作を行わせない(例えば、任意の動作を行わせない)インジケータ;非選択可能補正インジケータは、ユーザ入力に応答しないユーザインタフェースのグラフィカル要素である)を表示する。いくつかの実施形態では、第1の動作及び第2の動作は、同一の動作である。いくつかの実施形態では、第1の動作及び第2の動作は、異なる動作である。いくつかの実施形態では、第1の補正インジケータ及び第2の補正インジケータは、同一の視覚外観を有する。いくつかの実施形態では、第1の補正アフォーダンス及び第2の補正アフォーダンスは、異なる視覚外観を有する(例えば、第1の補正アフォーダンスは、太字外観を有し、かつ第2の補正アフォーダンスは、太字外観を有さない)。いくつかの実施形態では、非選択可能インジケータを表示することは、第2の補正アフォーダンスを表示するのをやめることを含む(例えば、第2の補正アフォーダンスの表示及び非選択可能インジケータの表示は、互いに排他的である)。いくつかの実施形態では、第2の補正アフォーダンスは、表示されると、第1の場所に表示され、かつ非選択可能インジケータは、表示されると、第1の場所に表示される。追加のコンテンツがキャプチャされたことを示す非選択可能インジケータを表示することにより、追加のコンテンツがキャプチャされたが、ユーザは、インジケータの場所に対応する入力に応答して、画像を自動的に調整するためにコンテンツを使用することができないという視覚的フィードバックをユーザに提供する。所定の条件が満たされるときに、改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, in response to receiving a request to display a representation of a previously captured media item, and according to the determination that the automatic media correction criteria are not met, and according to a first set of. A non-selectable indicator (eg, 3734) (eg, selection) at the same time as the representation of a previously captured media item that contains the first content and does not contain the second content, according to the determination that the criteria are not met. When done, the electronic device displays an indicator that does not perform any action (eg, does not perform any action); the non-selectable correction indicator is a graphical element of the user interface that does not respond to user input). In some embodiments, the first and second operations are the same operation. In some embodiments, the first and second actions are different actions. In some embodiments, the first correction indicator and the second correction indicator have the same visual appearance. In some embodiments, the first corrected affordance and the second corrected affordance have different visual appearances (eg, the first corrected affordance has a bold appearance and the second corrected affordance is bold). Has no appearance). In some embodiments, displaying the non-selectable indicator comprises stopping the display of the second complement affordance (eg, displaying the second complement affordance and displaying the non-selectable indicator). Exclusive to each other). In some embodiments, the second complement affordance is displayed in the first place when displayed, and the non-selectable indicator is displayed in the first place when displayed. Additional content was captured by displaying a non-selectable indicator indicating that additional content was captured, but the user automatically adjusts the image in response to the input corresponding to the location of the indicator. Provide users with visual feedback that the content cannot be used to do so. By providing the user with improved visual feedback when certain conditions are met, the usability of the device is enhanced and the user-device interface (eg, when manipulating / interacting with the device) Device power usage by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.

いくつかの実施形態では、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応答して(3804)、及びコンテンツ処理基準が満たされているという判定に従って(3808)、電子デバイスは、コンテンツ処理インジケータ(例えば、3732)(例えば、以前にキャプチャされたメディアアイテムが処理中であることを示すアニメーション化されたグラフィカルオブジェクト(例えば、回転アイコン又はアニメーション化されたプログレスバー))を表示する(3814)。いくつかの実施形態では、コンテンツ処理基準は、電子デバイスが以前にキャプチャされたメディアアイテム上での処理動作(例えば、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現を自動的に生成したか若しくはしなかったかどうかを判定する動作、又は第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャしたメディアアイテムの表現を生成するために、どのように第1のコンテンツと第2のコンテンツとを組み合わせるのかを判定する動作を完了していないと満たされる。いくつかの実施形態では、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応答して(3804)、及びコンテンツ処理基準が満たされていないという判定に従って(3808)、電子デバイスは、コンテンツ処理インジケータを表示するのをやめる(3820)。いくつかの実施形態では、コンテンツ処理インジケータは、表示されると、第1の場所に表示される(例えば、表示されると、第1の補正アフォーダンス、第2の補正アフォーダンス、及び非選択可能インジケータが表示される第1の場所。所定の条件が満たされているときにのみ、進度インジケータを表示することにより、ユーザは、現在表示されている表現に対応するメディアアイテムが依然として処理中である追加のコンテンツを有するかどうかを迅速に認識することができ、表示される現在の表現が変化することができるという通知をユーザに提供する。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in response to receiving a request to display a representation of a previously captured media item (3804), and according to the determination that the content processing criteria are met (3808), the electronic device. Displays a content processing indicator (eg, 3732) (eg, an animated graphical object (eg, a rotating icon or an animated progress bar) that indicates that a previously captured media item is being processed). (3814). In some embodiments, the content processing criteria are that the electronic device operates on previously captured media items (eg, previously captured media items that include a first content and a second content combination). How to generate a representation of a previously captured media item that contains a combination of the first content and the second content, or the action of determining whether or not the representation of It is satisfied that the operation of determining whether to combine the first content and the second content has not been completed. In some embodiments, a request to display a representation of a previously captured media item has been received. In response to (3804), and according to the determination that the content processing criteria are not met (3808), the electronic device ceases to display the content processing indicator (3820). In some embodiments, the content processing The indicator is displayed in the first place when displayed (eg, the first place where the first correction affordance, the second correction affordance, and the non-selectable indicator are displayed when displayed. By displaying the progress indicator only when certain conditions are met, the user can quickly determine if the media item corresponding to the currently displayed representation has additional content that is still being processed. Provides the user with a notification that the current representation that can be recognized and displayed can change. Optimized behavior when a set of states is satisfied without the need for further user input. By performing to improve the usability of the device (for example, by assisting the user in providing appropriate input when operating / interacting with the device and reducing user error). Reduce power usage and improve device battery life by making the user-device interface more efficient and, in addition, allowing users to use the device faster and more efficiently.

いくつかの実施形態では、コンテンツ処理インジケータを表示している間に、及びコンテンツ処理基準がもはや満たされていない(例えば、コンテンツ処理が完了したため)という判定に従って、電子デバイスは、コンテンツ処理インジケータ(例えば、3732)の表示を停止する。いくつかの実施形態では、コンテンツ処理インジケータは、第1の補正アフォーダンス(例えば、自動メディア補正基準が満たされている場合)、第2の補正アフォーダンス(例えば、自動補正基準が満たされておらず、かつ第1の1組の基準が満たされている場合)、又は非選択可能インジケータ(例えば、自動補正基準が満たされておらず、かつ第1の1組の基準が満たされていない場合)に置き換えられる。 In some embodiments, while displaying the content processing indicator, and according to the determination that the content processing criteria are no longer met (eg, because the content processing is complete), the electronic device is subjected to the content processing indicator (eg, because the content processing is complete). , 3732) is stopped. In some embodiments, the content processing indicator has a first correction affordance (eg, if the automatic media correction criteria are met), a second correction affordance (eg, if the automatic correction criteria are not met). And when the first set of criteria is met), or to a non-selectable indicator (eg, when the auto-correction criteria are not met and the first set of criteria is not met) Will be replaced.

いくつかの実施形態では、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現を表示している間に、及びコンテンツ処理インジケータを表示している間に、及びコンテンツ処理基準がもはや満たされていないという判定に従って、電子デバイスは、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現(例えば、3730c1)を、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現(例えば、3730c3)に置き換える。所定の条件が満たされているときにのみ、表示表現を更新することにより、ユーザは、追加のユーザ入力を要求することなく調整された表現を迅速に認識することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, while displaying a representation of a previously captured media item that contains the first content and does not contain the second content, and while displaying the content processing indicator. And, according to the determination that the content processing criteria are no longer met, the electronic device presents a representation of a previously captured media item (eg, 3730c1) that includes the first content and does not contain the second content. Replace with a previously captured representation of the media item (eg, 3730c3) containing the first content and the combination of the second content. By updating the display representation only when certain conditions are met, the user can quickly recognize the adjusted representation without requiring additional user input. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.

いくつかの実施形態では、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現を表示している間に、及びコンテンツ処理インジケータを表示している間に、電子デバイスは、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの第2の表現(例えば、図37Kの3724)(例えば、縮小されたサイズ表現;以前にキャプチャされたメディアアイテムを含む1組の以前にキャプチャされたメディアアイテムの1組の縮小されたサイズ表現内の縮小されたサイズ表現;メディアアイテムを表示するサムネイル)を表示する。いくつかの実施形態では、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムのその(the of)第2の描写を表示している間に、及びコンテンツ処理基準がもはや満たされていないという判定に従って、電子デバイスは、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの第2の表現を、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの第2の表現(例えば、図37Mの3724)(例えば、縮小されたサイズ表現;以前にキャプチャされたメディアアイテムを含む1組の以前にキャプチャされたメディアアイテムの1組の縮小されたサイズ表現内の縮小されたサイズ表現;メディアアイテムを表示するサムネイル)に置き換える。所定の条件が満たされているときにのみ、表示表現を更新することにより、ユーザは、追加のユーザ入力を要求することなく調整された表現を迅速に認識することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, while displaying a representation of a previously captured media item that contains the first content and does not contain the second content, and while displaying the content processing indicator. , The electronic device contains a second representation of previously captured media items that include the first content and no second content (eg, 3724 in FIG. 37K) (eg, reduced size representation; previously. Displays a reduced size representation within a reduced size representation of a set of previously captured media items that contains the captured media item; a thumbnail that displays the media item. In some embodiments, while displaying the second depiction of a previously captured media item that includes the first content and does not contain the second content, and content processing. According to the determination that the criteria are no longer met, the electronic device will display a second representation of the previously captured media item containing the first content and not the second content, the first content and the second. A second representation of a previously captured media item containing a combination of two contents (eg, 3724 in FIG. 37M) (eg, reduced size representation; a set of previously captured media items containing a previously captured media item). Replace with a reduced size representation within a set of reduced size representations of the captured media item; a thumbnail displaying the media item). By updating the display representation only when certain conditions are met, the user can quickly recognize the adjusted representation without requiring additional user input. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.

いくつかの実施形態では、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現を表示している間に、電子デバイスは、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現のアニメーション(例えば、図37K〜図37Mの3730d1〜3730d3の反転)を表示し、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現に遷移する(例えば、ズームイン若しくはアウト、平行移動、及び/又は第1のコンテンツと第2のコンテンツとを組み合わせた表現から第1のコンテンツの表現へと遷移するクロスフェードアニメーションを表示する)。いくつかの実施形態では、図37K〜図37Mにおけるアニメーションを反転させることができる。 In some embodiments, the electronic device displays the first content and the second content while displaying a representation of a previously captured media item that includes a first content and a combination of the second content. Displays an animation of the representation of a previously captured media item containing a combination of (eg, inversions of 3730d-1730d3 in FIGS. 37K-37M), including the first content and not including the second content. Transition to the representation of the media item captured in (eg, zoom in or out, parallel movement, and / or a cross transition from the representation of the combination of the first content and the second content to the representation of the first content. Show fade animation). In some embodiments, the animation in FIGS. 37K-37M can be inverted.

いくつかの実施形態では、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現を表示している間に、電子デバイスは、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現のアニメーション(例えば、図37K〜図37Mの3730d1〜3730d3)を表示し、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現に遷移する(例えば、ズームイン若しくはアウト、平行移動、及び/又は第1のコンテンツの表現から第1のコンテンツ及び第2のコンテンツの組み合わせの表現へと遷移するクロスフェードアニメーションを表示する)。 In some embodiments, the electronic device includes the first content while displaying a representation of a previously captured media item that includes the first content and does not contain the second content. And before displaying an animation of the representation of a previously captured media item that does not include the second content (eg, 3730d1-3730d3 of FIGS. 37K-37M) and includes a combination of the first content and the second content. Transition to the representation of the media item captured in (eg, zoom in or out, parallel movement, and / or crossfade transitioning from the representation of the first content to the representation of the combination of the first content and the second content. Show animation).

いくつかの実施形態では、電子デバイスは、1つ以上のカメラの視野の第1の部分(例えば、1つ以上のカメラの視野の主要又は中心部分であって、そのうちの大部分が、メディアアイテムを表示するときに1つ以上のカメラの視野の表現に含まれる)からの第3のコンテンツ(例えば、画像データ(例えば、コンピュータシステム上に記憶された画像データ))を含み、1つ以上のカメラの視野の第2の部分(例えば、1つ以上のカメラの視野の主要又は中心部分の外側であり、かつ任意選択的に、1つ以上のカメラの視野の主要又は中心部分である1つ以上のカメラの異なるカメラによってキャプチャされる、1つ以上のカメラの視野の一部分)からの第4のコンテンツ(例えば、画像データ(例えば、コンピュータシステム上に記憶された画像データ;第2の部分からの任意のコンテンツを含まない)は含まない、メディアアイテム(例えば、静止画像、ビデオ)の表現(例えば、3730a)を表示する要求(例えば、3750v)(例えば、サムネイル画像の選択、画像キャプチャアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、アクティブ化されると、第1の領域に表示されたコンテンツの画像をキャプチャするシャッターアフォーダンス)の選択)を受信する。いくつかの実施形態では、1つ以上のカメラの視野の第1の部分からの第3のコンテンツを含み、かつ1つ以上のカメラの視野の第2の部分からの第4のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現(例えば、3730a)を表示する要求を受信したことに応答して、電子デバイスは、1つ以上のカメラの視野の第1の部分の外側の追加のメディアコンテンツが利用可能であるというインジケーション(例えば、1036b及び/又は3724)を表示するのをやめる。いくつかの実施形態では、電子デバイスは、第1の自動調整アフォーダンス(例えば、1036b)を表示するのをやめる。追加のコンテンツがメディアの表現を調整するのに利用可能でないというインジケーションを表示するのをやめることにより、追加のコンテンツがキャプチャされなかったため、ユーザが追加のコンテンツでメディアの表現を調整することができないという視覚的フィードバックをユーザに提供する。所定の条件が満たされるときに、改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the electronic device is a first portion of the field of view of one or more cameras (eg, a major or central portion of the field of view of one or more cameras, most of which are media items. Includes a third content (eg, image data (eg, image data stored on a computer system)) from one or more cameras (included in the representation of the field of view of one or more cameras) when displaying one or more. A second portion of the camera's field of view (eg, one that is outside the major or central portion of the field of view of one or more cameras and optionally is the major or central portion of the field of view of one or more cameras. Fourth content (eg, image data (eg, image data stored on a computer system; from the second portion)) from one or more cameras captured by different cameras of the above cameras. Requests (eg, 3750v) to display representations (eg, 3730a) of media items (eg, still images, videos) that do not include any content of (eg, thumbnail image selection, image capture affordance (eg, image capture affordance) For example, a selectable user interface object) (eg, a selection of shutter accommodation that captures an image of the content displayed in the first area when activated) is received. In some embodiments, one. Representation of previously captured media items that include the third content from the first part of the camera's field of view and does not contain the fourth content from the second part of the camera's field of view. In response to receiving a request to display (eg, 3730a), the electronic device has an indication that additional media content outside the first portion of the field of view of one or more cameras is available (eg, 3730a). For example, stop displaying 1036b and / or 3724). In some embodiments, the electronic device stops displaying the first auto-adjustment affordance (eg, 1036b). Additional content is on the media. By stopping displaying the indication that it is not available to adjust the representation, we give visual feedback that the user cannot adjust the representation of the media with the additional content because the additional content was not captured. Provide users. Provide users with improved visual feedback when certain conditions are met. Improves the usability of the device and makes the user-device interface (eg, by assisting the user in providing appropriate input when operating / interacting with the device and reducing user error). By making the device more efficient and, in addition, allowing the user to use the device faster and more efficiently, the power usage of the device is reduced and battery life is improved.

方法3800に関して上述された処理(例えば、図38A〜図36C)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2500、2700、2800、3000、3200、3400、及び3600は、方法3800を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法3200、任意選択的に、方法3800に関連して上述したように、メディア補正技術を採用する。簡潔にするために、これらの詳細は、以下で繰り返さない。 It should be noted that the details of the processes described above for Method 3800 (eg, FIGS. 38A-36C) are also applicable to the methods described above in a similar manner. For example, methods 700, 900, 1100, 1300, 1500, 1700, 1900, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3400, and 3600 are of the various methods described above with reference to Method 3800. Includes one or more of the properties optionally. For example, method 3200, optionally, employs media correction techniques as described above in connection with method 3800. For the sake of brevity, these details will not be repeated below.

上記は、説明を目的として、特定の実施形態を参照して記述されている。しかしながら、上記の例示的な論考は、網羅的であること、又は開示される厳密な形態に本発明を限定することを意図するものではない。上記の教示を考慮して、多くの修正及び変形が可能である。これらの実施形態は、本技術の原理、及びその実際の適用を最もよく説明するために、選択及び記載されている。それにより、他の当業者は、意図された具体的な用途に適するような様々な修正を用いて、本技術及び様々な実施形態を最も良好に利用することが可能となる。 The above has been described with reference to specific embodiments for purposes of illustration. However, the above exemplary discussion is not intended to be exhaustive or to limit the invention to the exact forms disclosed. Many modifications and modifications are possible in light of the above teachings. These embodiments have been selected and described to best illustrate the principles of the art and its practical application. This will allow other skill in the art to make the best use of the present technology and various embodiments with various modifications suitable for the intended specific application.

添付図面を参照して、本開示及び例を十分に説明してきたが、様々な変更及び修正が、当業者には明らかとなるであろうことに留意されたい。そのような変更及び修正は、特許請求の範囲によって定義されるような、本開示及び例の範囲内に含まれるものとして理解されたい。 Although the present disclosure and examples have been fully described with reference to the accompanying drawings, it should be noted that various changes and amendments will be apparent to those skilled in the art. Such changes and amendments are to be understood as being within the scope of this disclosure and examples, as defined by the claims.

上述したように、本技術の一態様は、メディアを管理するための様々なソースから入手可能なデータを収集及び使用することである。本開示は、いくつかの例において、この収集されたデータは、特定の人を一意に特定する個人情報データ、又は特定の人に連絡する若しくはその所在を突き止めるために使用できる個人情報データを含み得ることを想到している。このようなパーソナル情報データとしては、場所ベースデータ、又は任意の他の識別情報若しくはパーソナル情報を挙げることができる。 As mentioned above, one aspect of the technology is the collection and use of data available from various sources for managing media. The disclosure, in some cases, includes personal information data that uniquely identifies a particular person, or personal information data that can be used to contact or locate a particular person. I'm thinking about getting it. Such personal information data may include location-based data, or any other identification or personal information.

本開示は、本技術におけるそのような個人情報データの使用がユーザの利益になる使用であり得る点を認識するものである。例えば、個人情報データは、より良くメディア管理できるようにするために使用することができる。したがって、そのような個人情報データの使用により、ユーザは、メディアにより容易にキャプチャ、編集、及びアクセスできる。更には、ユーザに利益をもたらす、個人情報データに関する他の使用もまた、本開示によって想到される。 The present disclosure recognizes that the use of such personal information data in the present technology may be in the interest of the user. For example, personal information data can be used to enable better media management. Therefore, the use of such personal information data allows users to easily capture, edit, and access media. Furthermore, other uses for personal information data that benefit the user are also conceived by this disclosure.

本開示は、そのような個人情報データの収集、分析、開示、伝送、記憶、又は他の使用に関与するエンティティが、確固たるプライバシーポリシー及び/又はプライバシー慣行を遵守するものとなることを想到する。具体的には、そのようなエンティティは、個人情報データを秘密として厳重に保守するための、業界又は政府の要件を満たしているか又は上回るものとして一般に認識されている、プライバシーのポリシー及び慣行を実施し、一貫して使用するべきである。そのようなポリシーは、ユーザによって容易にアクセス可能とするべきであり、データの収集及び/又は使用が変化するにつれて更新されるべきである。ユーザからの個人情報は、そのエンティティの合法的かつ正当な使用のために収集されるべきであり、それらの合法的使用を除いては、共有又は販売されるべきではない。更には、そのような収集/共有は、ユーザに告知して同意を得た後に実施されるべきである。更には、そのようなエンティティは、そのような個人情報データへのアクセスを保護して安全化し、その個人情報データへのアクセスを有する他者が、それらのプライバシーポリシー及び手順を遵守することを保証するための、あらゆる必要な措置を講じることを考慮するべきである。更には、そのようなエンティティは、広く受け入れられているプライバシーのポリシー及び慣行に対する自身の遵守を証明するために、第三者による評価を自らが受けることができる。更には、ポリシー及び慣行は、収集及び/又はアクセスされる具体的な個人情報データのタイプに適合されるべきであり、また、管轄権固有の考慮事項を含めた、適用可能な法令及び規格に適合されるべきである。例えば、アメリカ合衆国では、特定の健康データの収集又はアクセスは、医療保険の相互運用性と説明責任に関する法律(Health Insurance Portability and Accountability Act、HIPAA)などの、連邦法及び/又は州法によって管理することができ、その一方で、他国における健康データは、他の規制及びポリシーの対象となり得るものであり、それに従って対処されるべきである。それゆえ、各国の異なる個人データのタイプに関して、異なるプライバシー慣行が保たれるべきである。 The disclosure envisions that entities involved in the collection, analysis, disclosure, transmission, storage, or other use of such personal information data will comply with robust privacy policies and / or privacy practices. Specifically, such entities implement privacy policies and practices that are generally recognized as meeting or exceeding industry or government requirements for the confidential and rigorous maintenance of personal information data. And should be used consistently. Such policies should be readily accessible to users and should be updated as data collection and / or use changes. Personal information from users should be collected for the legitimate and legitimate use of that entity and should not be shared or sold except for their legitimate use. Furthermore, such collection / sharing should be carried out after notifying the user and obtaining their consent. Furthermore, such entities protect and secure access to such personal information data and ensure that others with access to that personal information data comply with their privacy policies and procedures. You should consider taking all necessary steps to do so. In addition, such entities may be evaluated by a third party to prove their compliance with widely accepted privacy policies and practices. In addition, policies and practices should be adapted to the specific type of personal information data collected and / or accessed, and to applicable legislation and standards, including jurisdiction-specific considerations. Should be adapted. For example, in the United States, the collection or access to certain health data may be governed by federal and / or state law, such as the Health Insurance Portability and Accountability Act (HIPAA). Yes, on the other hand, health data in other countries may be subject to other regulations and policies and should be addressed accordingly. Therefore, different privacy practices should be maintained for different types of personal data in each country.

前述のことがらにもかかわらず、本開示はまた、個人情報データの使用又は個人情報データへのアクセスを、ユーザが選択的に阻止する実施形態も想到する。すなわち、本開示は、そのような個人情報データへのアクセスを防止又は阻止するように、ハードウェア要素及び/又はソフトウェア要素を提供することができると想到する。例えば、ロケーションサービスの場合において、本技術は、ユーザが、サービスの登録中又はその後のいつでも、個人情報データの収集への参加の「オプトイン」又は「オプトアウト」を選択できるように構成され得る。「オプトイン」及び「オプトアウト」の選択肢を提供することに加えて、本開示は、個人情報のアクセス又は使用に関する通知を提供することを想到する。例えば、ユーザの個人情報データにアクセスすることとなるアプリのダウンロード時にユーザに通知され、その後、個人情報データがアプリによってアクセスされる直前に再びユーザに注意してもよい。 Despite the above, the disclosure also envisions embodiments that selectively prevent the user from using or accessing the personal information data. That is, it is conceivable that the present disclosure may provide hardware and / or software elements to prevent or prevent access to such personal information data. For example, in the case of location services, the technology may be configured to allow the user to choose "opt-in" or "opt-out" to participate in the collection of personal information data during or at any time during or after registration of the service. In addition to providing "opt-in" and "opt-out" options, the disclosure contemplates providing notices regarding access or use of personal information. For example, the user may be notified at the time of downloading the application that will access the user's personal information data, and then the user may be warned again just before the personal information data is accessed by the application.

更には、本開示の意図は、個人情報データを、非意図的若しくは非認可アクセス又は使用の危険性を最小限に抑える方法で、管理及び処理するべきであるという点である。データの収集を制限し、データがもはや必要とされなくなった時点で削除することによって、危険性を最小限に抑えることができる。更には、適用可能な場合、特定の健康関連アプリケーションにおいて、ユーザのプライバシーを保護するために、データの非特定化を使用することができる。非特定化は、適切な場合には、特定の識別子(例えば、生年月日など)を除去すること、記憶されたデータの量又は特異性を制御すること(例えば、位置データを住所レベルよりも都市レベルで収集すること)、データがどのように記憶されるかを制御すること(例えば、データをユーザ全体にわたって情報集約すること)及び/又は他の方法によって、容易にすることができる。 Furthermore, the intent of this disclosure is that personal information data should be managed and processed in a way that minimizes the risk of unintentional or unauthorized access or use. Risk can be minimized by limiting the collection of data and deleting it when it is no longer needed. Furthermore, where applicable, data de-identification can be used to protect user privacy in certain health-related applications. De-specification, where appropriate, removes certain identifiers (eg, date of birth), controls the amount or specificity of stored data (eg, location data rather than address level). It can be facilitated by collecting at the city level), controlling how the data is stored (eg, aggregating the data across users) and / or other methods.

それゆえ、本開示は、1つ以上の様々な開示された実施形態を実施するための、個人情報データの使用を広範に網羅するものではあるが、本開示はまた、そのような個人情報データにアクセスすることを必要とせずに、それらの様々な実施形態を実施することもまた可能であることを想到している。すなわち、本技術の様々な実施形態は、そのような個人情報データの全て又は一部分が欠如することにより、実施不可能となるものではない。例えば、メディアは、ユーザに関連付けられたデバイスによりリクエストされたコンテンツ、コンテンツ配信サービスで使用可能な他の非個人情報、若しくは公的に使用可能な情報などの、非個人情報データ又は個人情報の最小限の量のみに基づいて嗜好を推測することにより、キャプチャされ、アクセスされ、及び編集され得る。
[項目1]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスで、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
複数のコントロールアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することと、
第1の既定の条件及び第2の既定の条件が満たされない間に、前記第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ前記第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示することと、
前記第1のコントロールアフォーダンスを表示することなく、かつ前記第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示している間に、条件の変化を検出することと、
前記条件の変化を検出したことに応答して、
前記第1の既定の条件が満たされているという判定に従って、前記第1のコントロールアフォーダンスを表示することと、
前記第2の既定の条件が満たされているという判定に従って、前記第2のコントロールアフォーダンスを表示することと、
を含む、方法。
[項目2]
前記条件の変化を検出したことに応答して、
前記第1及び第2の既定の条件が満たされているという判定に従って、前記第1のコントロールアフォーダンス及び前記第2のコントロールアフォーダンスを同時に表示すること、
を更に含む、項目1に記載の方法。
[項目3]
前記条件の変化を検出したことに応答して、
前記第1の既定の条件が満たされており、かつ前記第2の既定の条件が満たされていないという判定に従って、前記第1のコントロールアフォーダンスを表示する一方で、前記第2のコントロールアフォーダンスを表示するのをやめることと、
前記第1の既定の条件が満たされておらず、かつ前記第2の既定の条件が満たされているという判定に従って、前記第2のコントロールアフォーダンスを表示する一方で、前記第1のコントロールアフォーダンスを表示するのをやめることと、
を更に含む、項目1又は2に記載の方法。
[項目4]
前記1つ以上のカメラの前記視野内の光量が、第1の所定の閾値を下回るときに、前記第1の既定の条件が満たされ、前記第1のコントロールアフォーダンスが、フラッシュ動作を制御するアフォーダンスである、項目1から3のいずれか一項に記載の方法。
[項目5]
前記電子デバイスが、第1のタイプのアクセサリに接続されているときに、前記第1の既定の条件が満たされ、前記第1のコントロールアフォーダンスが、タイマー動作を制御するアフォーダンスである、項目1から4のいずれか一項に記載の方法。
[項目6]
前記1つ以上のカメラの前記視野内の光量が、第2の所定の閾値を下回るときに、前記第1の既定の条件が満たされ、前記第1のコントロールアフォーダンスが、低光キャプチャモードを制御するアフォーダンスである、項目1から5のいずれか一項に記載の方法。
[項目7]
第1のキャプチャモードで画像をキャプチャするように前記電子デバイスが構成されるときに、前記第1の既定の条件が満たされ、前記第1のコントロールアフォーダンスが、照明効果動作を制御するアフォーダンスである、項目1から6のいずれか一項に記載の方法。
[項目8]
前記照明効果を制御する前記アフォーダンスを表示している間に、前記照明効果を制御する前記アフォーダンスの選択を受信することと、
前記照明効果を制御する前記アフォーダンスの前記選択を受信したことに応答して、調整すると、前記1つ以上のカメラの前記視野の前記表現に適用された照明効果を調整する、前記照明効果動作を調整するアフォーダンスを表示することと、
を更に含む、項目7に記載の方法。
[項目9]
前記第1のコントロールアフォーダンスを表示している間に、前記第1のコントロールアフォーダンスに関連付けられた前記電子デバイスの特性の現在の状態のインジケーションを同時に表示すること、
を更に含む、項目1から8のいずれか一項に記載の方法。
[項目10]
前記特性が、1つ以上のアクティブ状態及び1つ以上の非アクティブ状態を有し、前記インジケーションを表示することが、前記特性が前記1つ以上のアクティブ状態のうちの少なくとも1つにあるという判定に従う、項目9に記載の方法。
[項目11]
前記特性が、第1のフラッシュ動作設定であり、前記特性の前記現在の状態が、フラッシュ動作が有効化されていることである、項目9から10のいずれか一項に記載の方法。
[項目12]
前記特性が、第2のフラッシュ動作設定であり、前記特性の前記現在の状態が、フラッシュ動作が無効化されていることである、項目9に記載の方法。
[項目13]
前記特性が、画像キャプチャモード設定であり、前記特性の前記現在の状態が、前記画像キャプチャモードが有効化されていることであり、前記電子デバイスが、メディアをキャプチャする要求に対応する入力に応答して、静止画像及びビデオをキャプチャするように構成されている、項目9から12のいずれか一項に記載の方法。
[項目14]
前記特性が、第2の画像キャプチャモード設定であり、前記特性の前記現在の状態が、前記第2の画像キャプチャモードが有効化されていることであり、前記電子デバイスが、メディアをキャプチャする要求に対応する入力に応答して、高ダイナミックレンジイメージング効果を使用してメディアをキャプチャするように構成されている、項目9から13のいずれか一項に記載の方法。
[項目15]
前記カメラコントロール領域が、前記表示デバイスの第1の側に隣接して表示され、前記インジケーションが、前記第1の側とは反対側の前記表示デバイスの第2の側に隣接して表示される、項目9から14のいずれか一項に記載の方法。
[項目16]
前記1つ以上のカメラの前記視野の前記表現が、前記第1のアフォーダンス及び/又は前記第2のアフォーダンスを含む前記カメラユーザインタフェースの一部分に対して延在する、項目1から15のいずれか一項に記載の方法。
[項目17]
前記第1のコントロールアフォーダンスを表示したことに応答して、
前記第1のコントロールアフォーダンスが、第1のタイプのものであるという判定に従って、前記第1のコントロールに関連付けられた第2のインジケーションを表示することと、
前記第1のコントロールアフォーダンスが、第1のタイプとは異なる第2のタイプのものであるという判定、及び前記第1のコントロールに関連付けられた前記電子デバイスの第2の特性が、アクティブ状態にあるという判定に従って、前記第1のコントロールに関連付けられた前記第2のインジケーションを表示することと、
前記第1のコントロールアフォーダンスが、第1のタイプとは異なる第2のタイプのものであるという判定、及び前記第1のコントロールに関連付けられた前記電子デバイスの前記第2の特性が、非アクティブ状態にあるという判定に従って、前記第1のコントロールに関連付けられた前記第2のインジケーションを表示するのをやめることと、
を更に含む、項目1から16のいずれか一項に記載の方法。
[項目18]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって行われるように構成された、1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目1から17のいずれか一項に記載の方法を行う命令を含んでいる、非一時的コンピュータ可読記憶媒体。
[項目19]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムは、項目1から17のいずれか1項に記載の方法を行うための命令と、
を含む、電子デバイス。
[項目20]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
項目1から17のいずれか1項に記載の方法を行う手段と、
を備える、電子デバイス。
[項目21]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
複数のコントロールアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することと、
第1の既定の条件及び第2の既定の条件が満たされない間に、前記第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ前記第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示することと、
前記第1のコントロールアフォーダンスを表示することなく、かつ前記第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示している間に、条件の変化を検出することと、
前記条件の変化を検出したことに応答して、
前記第1の既定の条件が満たされているという判定に従って、前記第1のコントロールアフォーダンスを表示することと、
前記第2の既定の条件が満たされているという判定に従って、前記第2のコントロールアフォーダンスを表示することと、
の命令を含む、非一時的コンピュータ可読記憶媒体。
[項目22]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備える電子デバイスであって、前記1つ以上のプログラムが、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
複数のコントロールアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することと、
第1の既定の条件及び第2の既定の条件が満たされない間に、前記第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ前記第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示することと、
前記第1のコントロールアフォーダンスを表示することなく、かつ前記第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示している間に、条件の変化を検出することと、
前記条件の変化を検出したことに応答して、
前記第1の既定の条件が満たされているという判定に従って、前記第1のコントロールアフォーダンスを表示することと、
前記第2の既定の条件が満たされているという判定に従って、前記第2のコントロールアフォーダンスを表示することと、
の命令を含む、電子デバイス。
[項目23]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースが、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
複数のコントロールアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示する手段と、
第1の既定の条件及び第2の既定の条件が満たされない間に、前記第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ前記第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示する手段と、
前記第1のコントロールアフォーダンスを表示することなく、かつ前記第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示している間に、条件の変化を検出する手段と、
前記条件の変化を検出したことに応答して、
前記第1の既定の条件が満たされているという判定に従って、前記第1のコントロールアフォーダンスを表示する手段と、
前記第2の既定の条件が満たされているという判定に従って、前記第2のコントロールアフォーダンスを表示する手段と、
を備える、電子デバイス。
[項目24]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスで、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の場所で複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することと、
前記カメラユーザインタフェースを表示している間に、前記カメラユーザインタフェース上で第1のジェスチャを検出することと、
前記第1のジェスチャを検出したことに応答して、前記カメラコントロール領域の外観を修正することであって、
前記ジェスチャが第1のタイプのジェスチャであるという判定に従って、前記第1の場所で1つ以上の追加のカメラモードアフォーダンスを表示することと、
前記ジェスチャが前記第1のタイプとは異なる第2のタイプのジェスチャであるという判定に従って、前記複数のカメラモードアフォーダンスの表示を停止することと、前記第1の場所で複数のカメラ設定アフォーダンスを表示することと、を含み、前記カメラ設定アフォーダンスが、現在選択されているカメラモードの画像キャプチャを調整する設定である、前記カメラコントロール領域の外観を修正することと、
を含む、方法。
[項目25]
前記カメラコントロール領域が、複数のカメラ設定アフォーダンスを表示するアフォーダンスを含み、前記第2のタイプの前記ジェスチャが、1つ以上のカメラ設定を表示する前記アフォーダンスの選択である、項目24に記載の方法。
[項目26]
前記第2のタイプの前記ジェスチャが、前記カメラディスプレイ領域内の接触の移動である、項目24に記載の方法。
[項目27]
前記第1のタイプの前記ジェスチャが、前記複数のカメラモードアフォーダンスのうちの少なくとも1つの上の接触の移動である、項目24から26のいずれか一項に記載の方法。
[項目28]
以前にキャプチャされたメディアの第1の表現を表示する要求に対応する、前記カメラユーザインタフェース上での第2のジェスチャを検出することと、
前記第2のジェスチャを検出したことに応答して、以前にキャプチャされたメディアの第1の表現を表示することと、
を更に含む、項目24から27のいずれか一項に記載の方法。
[項目29]
以前にキャプチャされたメディアの表現を表示していない間に、前記1つ以上のカメラを使用して第1のメディアのキャプチャを検出することと、
前記第1のメディアの前記キャプチャを検出したことに応答して、
前記第1のメディアの表現を含む、キャプチャされたメディアの1つ以上の表現を表示することと、
を更に含む、項目24から28のいずれか一項に記載の方法。
[項目30]
前記複数のカメラ設定アフォーダンスが、表示されると、メディアをキャプチャする第1の要求に応答して、第1のアスペクト比で表示されるメディアをキャプチャするように前記電子デバイスを構成するアフォーダンスを含む、項目24から29のいずれか一項に記載の方法。
[項目31]
表示されると、前記第1のアスペクト比で表示されるメディアをキャプチャするように前記デバイスが構成されている間に、メディアをキャプチャする第3の要求を受信することと、
メディアをキャプチャする前記第3の要求を受信したことに応答して、前記第1のアスペクト比で前記キャプチャされたメディアの表現を表示することと、
前記第1のアスペクト比を有する前記キャプチャされたメディアの前記表現を、第2のアスペクト比を有する前記キャプチャされたメディアの表現に変更する要求を受信することと、
前記要求を受信したことに応答して、前記第2のアスペクト比で前記キャプチャされたメディアの前記表現を表示することと、
を更に含む、項目24から30のいずれか一項に記載の方法。
[項目32]
前記第2のアスペクト比を有する前記キャプチャされたメディアの前記表現が、前記第1のアスペクト比を有する前記キャプチャされたメディアの前記表現内に存在しない視覚コンテンツを含む、項目31に記載の方法。
[項目33]
前記1つ以上のカメラの前記視野の前記表現が、第1のズームレベルで表示され、前記方法が、更に、
前記1つ以上のカメラの前記視野の前記表現を表示することが、前記第1のズームレベルで表示される間に、前記表現の前記ズームレベルを変更する第1の要求を受信することと、
前記表現の前記ズームレベルを変更する前記第1の要求を受信したことに応答して、
前記表現の前記ズームレベルを変更する前記要求が、前記表現の前記ズームレベルを上げる要求に対応するという判定に従って、前記1つ以上のカメラの第2の表現視野を前記第1のズームレベルよりも大きい第2のズームレベルで表示することと、
前記表現の前記ズームレベルを変更する前記要求が、前記表現の前記ズームレベルを下げる要求に対応するという判定に従って、前記1つ以上のカメラの第3の表現視野を前記第1のズームレベルよりも小さい第3のズームレベルで表示することと、
を含む、項目24から32のいずれか一項に記載の方法。
[項目34]
第4のズームレベルで表示される前記1つ以上のカメラの前記視野の前記表現を表示している間に、前記表現の前記ズームレベルを変更する第2の要求を受信することと、
前記表現の前記ズームレベルを変更する前記第2の要求を受信したことに応答して、
前記第4のズームレベルが、前記第2のズームレベルであるという判定に従って、前記第3のズームレベルで前記1つ以上のカメラの前記視野の第4の表現を表示することと、
前記第4のズームレベルが、前記第3のズームレベルであるという判定に従って、前記第1のズームレベルで前記1つ以上のカメラの前記視野の第5の表現を表示することと、
前記第4のズームレベルが、前記第1のズームレベルであるという判定に従って、前記第2のズームレベルで前記1つ以上のカメラの前記視野の第6の表現を表示することと、
を更に含む、項目33に記載の方法。
[項目35]
前記カメラユーザインタフェースを表示することが、キャプチャ設定の状態のグラフィカルインジケーションを含むアフォーダンスを表示することを含み、
前記第2のタイプの前記ジェスチャが、前記インジケーションの選択に対応する、項目24から34のいずれか一項に記載の方法。
[項目36]
前記第1の場所で前記複数のカメラ設定アフォーダンスを表示することが、
前記第2のタイプの前記ジェスチャが検出された間に、メディアを第1のカメラモードでキャプチャするように前記電子デバイスが構成されているという判定に従って、前記第1の場所で第1の1組のカメラ設定アフォーダンスを表示することと、
前記第2のタイプの前記ジェスチャが検出された間に、メディアを第1のカメラモードとは異なる第2のカメラモードでキャプチャするように前記電子デバイスが構成されているという判定に従って、前記第1の場所で前記第1の複数のカメラ設定とは異なる第2の第1のカメラ設定アフォーダンスを表示することと、
を含む、項目24から35のいずれか一項に記載の方法。
[項目37]
前記第1の1組のカメラ設定アフォーダンスが第1のカメラ設定アフォーダンスを含み、前記第2の1組のカメラ設定アフォーダンスが前記第1のカメラ設定アフォーダンスを含む、項目36に記載の方法。
[項目38]
第1のカメラモードが静止写真キャプチャモードであり、前記第1の1組のカメラ設定アフォーダンスが、
フラッシュ設定に対応する視覚インジケーションを含むアフォーダンスと、
ライブ設定に対応する視覚インジケーションを含むアフォーダンスと、
アスペクト比設定に対応する視覚インジケーションを含むアフォーダンスと、
タイマー設定に対応する視覚インジケーションを含むアフォーダンスと、
フィルタ設定に対応する視覚インジケーションを含むアフォーダンスと、からなる群から選択される1つ以上のアフォーダンスを含む、
項目36又は37に記載の方法。
[項目39]
第1のカメラモードがポートレートモードであり、前記第1の1組のカメラ設定アフォーダンスが、
深度コントロール設定に対応する視覚インジケーションを含むアフォーダンスと、
フラッシュ設定に対応する視覚インジケーションを含むアフォーダンスと、
タイマー設定に対応する視覚インジケーションを含むアフォーダンスと、
フィルタ設定に対応する視覚インジケーションを含むアフォーダンスと、
照明設定に対応する視覚インジケーションを含むアフォーダンスと、からなる群から選択される1つ以上のアフォーダンスを含む、
項目36又は37に記載の方法。
[項目40]
前記ジェスチャが前記第1のタイプのものであり、前記第1のジェスチャを検出することが、前記第1のジェスチャの第1の部分及び前記第1のジェスチャの第2の部分を検出することを含み、前記方法が、更に、
前記第1のジェスチャの前記第1の部分を検出したことに応答して、前記表示デバイスを介して、前記1つ以上のカメラの前記視野の前記表現の少なくとも一部分を取り囲む1つ以上の別個の境界部要素を含む境界部を表示することと、
前記第1のジェスチャの前記第2の部分を検出したことに応答して、前記境界部の少なくとも一部分が前記ディスプレイから平行移動され、表示が停止されるまで、前記境界部を第1の方向に前記表示デバイスのディスプレイを横切って平行移動させることと、を含む、
項目24に記載の方法。
[項目41]
前記第1のジェスチャの前記第2の部分を検出することが、前記第1の方向に動く第2の接触を検出することを含む、項目40に記載の方法。
[項目42]
前記第2の接触が、前記1つ以上のカメラの前記視野の前記表現上で検出され、
前記境界部を平行移動させる速度が、前記第1の方向への第2の接触の移動速度に比例する、
項目41に記載の方法。
[項目43]
前記境界部を平行移動させることが、前記境界部によって囲まれた前記1つ以上のカメラの前記視野の前記表現の前記少なくとも一部分の視覚外観を変更することを含む、項目41に記載の方法。
[項目44]
第3のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されている間に、メディアをキャプチャする第2の要求を検出することと、
前記要求を受信したことに応答して、前記第3のカメラモードに対応する設定及び前記複数のカメラ設定アフォーダンスのアフォーダンスに対応する少なくとも1つの設定に基づいて、前記1つ以上のカメラを使用してメディアをキャプチャすることと、
を更に含む、項目24から43のいずれか一項に記載の方法。
[項目45]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目24から44のいずれか一項に記載の方法を行う命令を含んでいる、非一時的コンピュータ可読記憶媒体。
[項目46]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、項目24から44のいずれか一項に記載の方法を行う命令と、
を含む、電子デバイス。
[項目47]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
項目24から44のいずれか一項に記載の方法を行う手段と、
を備える、電子デバイス。
[項目48]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の場所で複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することと、
前記カメラユーザインタフェースを表示している間に、前記カメラユーザインタフェース上で第1のジェスチャを検出することと、
前記第1のジェスチャを検出したことに応答して、前記カメラコントロール領域の外観を修正することであって、
前記ジェスチャが、第1のタイプのジェスチャであるという判定に従って、前記第1の場所で1つ以上の追加のカメラモードアフォーダンスを表示することと、
前記ジェスチャが、前記第1のタイプとは異なる第2のタイプのジェスチャであるという判定に従って、前記複数のカメラモードアフォーダンスの表示を停止することと、前記第1の場所で複数のカメラ設定アフォーダンスを表示することと、を含み、前記カメラ設定アフォーダンスが、現在選択されているカメラモードの画像キャプチャを調整する設定である、前記カメラコントロール領域の外観を修正することと、の命令を含む、非一時的コンピュータ可読記憶媒体。
[項目49]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備える電子デバイスであって、前記1つ以上のプログラムが、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の場所で複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することと、
前記カメラユーザインタフェースを表示している間に、前記カメラユーザインタフェース上で第1のジェスチャを検出することと、
前記第1のジェスチャを検出したことに応答して、前記カメラコントロール領域の外観を修正することであって、
前記ジェスチャが、第1のタイプのジェスチャであるという判定に従って、前記第1の場所で1つ以上の追加のカメラモードアフォーダンスを表示することと、
前記ジェスチャが、前記第1のタイプとは異なる第2のタイプのジェスチャであるという判定に従って、前記複数のカメラモードアフォーダンスの表示を停止することと、前記第1の場所で複数のカメラ設定アフォーダンスを表示することと、を含み、前記カメラ設定アフォーダンスが、現在選択されているカメラモードの画像キャプチャを調整する設定である、前記カメラコントロール領域の外観を修正することと、
の命令を含む、電子デバイス。
[項目50]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースが、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の場所で複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示する手段と、
前記カメラユーザインタフェースを表示している間に、前記カメラユーザインタフェース上で第1のジェスチャを検出する手段と、
前記第1のジェスチャを検出したことに応答して、前記カメラコントロール領域の外観を修正する手段であって、
前記ジェスチャが、第1のタイプのジェスチャであるという判定に従って、前記第1の場所で1つ以上の追加のカメラモードアフォーダンスを表示する手段と、
前記ジェスチャが、前記第1のタイプとは異なる第2のタイプのジェスチャであるという判定に従って、前記複数のカメラモードアフォーダンスの表示を停止する手段と、前記第1の場所で複数のカメラ設定アフォーダンスを表示する手段と、を含み、前記カメラ設定アフォーダンスが、現在選択されているカメラモードの画像キャプチャを調整する設定である、前記カメラコントロール領域の外観を修正する手段と、
を備える、電子デバイス。
[項目51]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスで、
ユーザカメラユーザインタフェースを表示する要求を受信することと、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応答して、及びそれぞれの基準が満たされていないという判定に従って、
前記表示デバイスを介して、前記カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
前記1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、
前記1つ以上のカメラの前記視野の第2の部分の表現を含む第2の領域であって、前記1つ以上のカメラの前記視野の前記第2の部分が、前記第1の部分と視覚的に区別される、第2の領域と、を含む、カメラユーザインタフェースを表示することと、
前記カメラユーザインタフェースが表示されている間に、前記1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出することと、
前記1つ以上のカメラでメディアをキャプチャする要求に対応する前記入力を検出したことに応答して、前記1つ以上のカメラの前記視野の前記第1の部分に対応する視覚コンテンツと、前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、前記1つ以上のカメラでキャプチャすることと、
前記メディアアイテムをキャプチャした後に、前記メディアアイテムを表示する要求を受信することと、
前記メディアアイテムを表示する前記要求を受信したことに応答して、前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも一部分の表現を表示することなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの第1の表現を表示することと、
を含む、方法。
[項目52]
前記視覚コンテンツの前記第1の表現を表示している間に、前記視覚コンテンツの前記表現を修正する要求に対応する1組の1つ以上の入力を検出することと、
前記1組の1つ以上の入力を検出したことに応答して、前記視覚コンテンツの第2の表現を表示することと、を含み、前記視覚コンテンツの前記第2の表現が、前記1つ以上のカメラの前記視野の前記第1の部分の少なくとも一部分からの視覚コンテンツと、前記視覚コンテンツの前記第1の表現に含まれなかった前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの少なくとも一部分に基づく視覚コンテンツと、
を更に含む、項目51に記載の方法。
[項目53]
前記視覚コンテンツの前記第1の表現が、第1の視覚的視点からの表現であり、
前記視覚コンテンツの前記第2の表現が、前記視覚コンテンツの前記第1の表現に含まれなかった、前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの前記少なくとも一部分に基づいて生成された、前記第1の視覚的視点とは異なる第2の視覚的視点からの表現である、
項目52に記載の方法。
[項目54]
前記視覚コンテンツの前記第1の表現が、第1の向きでの表現であり、
前記視覚コンテンツの前記第2の表現が、前記視覚コンテンツの前記第1の表現に含まれなかった、前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの前記少なくとも一部分に基づいて生成された、前記第1の向きとは異なる第2の向きでの表現である、
項目52に記載の方法。
[項目55]
前記第1の表現が第1のズームレベルで表示され、前記方法が、更に、
前記視覚コンテンツの前記第1の表現が、第1のズームレベルでの表現であり、
前記視覚コンテンツの前記第2の表現が、前記視覚コンテンツの前記第1の表現に含まれなかった、前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの前記少なくとも一部分に基づいて生成された、前記第1のズームレベルとは異なる第2のズームレベルの表現である、項目52に記載の方法。
[項目56]
前記視覚コンテンツの前記第1の表現が、前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの少なくとも第2の部分を使用して、デジタル画像安定化動作に少なくとも部分的に基づいて生成される、項目51から55のいずれか一項に記載の方法。
[項目57]
前記メディアアイテムをキャプチャした後に、前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの少なくとも第3の部分を使用して、オブジェクト追跡動作を行うこと、
を更に含む、項目51から56のいずれか一項に記載の方法。
[項目58]
前記メディアアイテムを表示する前記要求が、前記メディアアイテムを表示する第1の要求であり、前記方法が、更に、
前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも一部分の前記表現を表示することなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの第1の表現を表示した後に、前記メディアアイテムを表示する第2の要求を受信することと、
前記メディアアイテムを表示する前記第2の要求を受信したことに応答して、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの前記第1の表現及び前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの前記表現を表示することと、を含む、項目51から57のいずれか一項に記載の方法。
[項目59]
前記カメラユーザインタフェースを表示する前記要求を受信したことに応答して、及びそれぞれの基準が満たされているという判定に従って、前記表示デバイスを介して、第2のカメラユーザインタフェースを表示することであって、前記第2のカメラユーザインタフェースが、前記1つ以上のカメラの前記視野の前記第2の部分の前記表現を含むことなく、前記1つ以上のカメラの前記視野の前記第1の部分の前記表現を含む、第2のカメラユーザインタフェースを表示すること、
を更に含む、項目51から58のいずれか一項に記載の方法。
[項目60]
前記方法が、
以前にキャプチャされたメディアアイテムを表示する要求を受信することと、
前記以前にキャプチャされたメディアアイテムを表示する前記要求を受信したことに応答して、
前記それぞれの基準が満たされなかったときに前記以前にキャプチャされたメディアアイテムがキャプチャされたという判定に従って、追加のコンテンツのインジケーションを表示することと、
前記それぞれの基準が満たされたときに前記以前にキャプチャされたメディアアイテムがキャプチャされたという判定に従って、追加のコンテンツのインジケーションを表示するのをやめることと、
を更に含む、項目59に記載の方法。
[項目61]
前記それぞれの基準が、4000水平ピクセル以上の解像度でメディアアイテムをキャプチャするように前記電子デバイスが構成されていると満たされる基準を含む、項目59又は60に記載の方法。
[項目62]
前記それぞれの基準が、所定のズームレベルにてポートレートモードで動作するように前記電子デバイスが構成されていると満たされる基準を含む、項目59から61のいずれか一項に記載の方法。
[項目63]
前記それぞれの基準が、前記1つ以上のカメラのうちの少なくとも1つのカメラが所定の期間にわたって焦点を維持できないと満たされる基準を含む、項目59から62のいずれか一項に記載の方法。
[項目64]
前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する前記入力が、前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する第1の入力であり、
前記方法が、更に、
前記カメラユーザインタフェースが表示されている間に、前記1つ以上のカメラでメディアをキャプチャする要求に対応する第2の入力を検出することと、
前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する前記第2の入力を検出したことに応答して、
追加のコンテンツ設定に基づいて、前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツをキャプチャするように前記電子デバイスが構成されているという判定に従って、
前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの前記第1の表現をキャプチャすることと、前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも前記一部分の前記表現をキャプチャすることと、
前記追加のコンテンツ設定に基づいて、前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツをキャプチャするように前記電子デバイスが構成されていないという判定に従って、
前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも前記一部分の前記表現をキャプチャすることなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの第1の表現をキャプチャすることと、
を含む、項目51から63のいずれか一項に記載の方法。
[項目65]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目51から64のいずれか一項に記載の方法を行う命令を含んでいる、非一時的コンピュータ可読記憶媒体。
[項目66]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、項目51から64のいずれか一項に記載の方法を行う命令と、
を含む、電子デバイス。
[項目67]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
項目51から64のいずれか一項に記載の方法を行う手段と、
を備える、電子デバイス。
[項目68]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
ユーザカメラユーザインタフェースを表示する要求を受信することと、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応答して、及びそれぞれの基準が満たされないという判定に従って、
前記表示デバイスを介して、前記カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
前記1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、
前記1つ以上のカメラの前記視野の第2の部分の表現を含む第2の領域であって、前記1つ以上のカメラの前記視野の前記第2の部分が、前記第1の部分と視覚的に区別される、第2の領域と、を含む、カメラユーザインタフェースを表示することと、
前記カメラユーザインタフェースが表示されている間に、前記1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出することと、
前記1つ以上のカメラでメディアをキャプチャする要求に対応する前記入力を検出したことに応答して、前記1つ以上のカメラの前記視野の前記第1の部分に対応する視覚コンテンツと、前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、前記1つ以上のカメラでキャプチャすることと、
前記メディアアイテムをキャプチャした後に、前記メディアアイテムを表示する要求を受信することと、
前記メディアアイテムを表示する前記要求を受信したことに応答して、前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも一部分の表現を表示することなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの第1の表現を表示することと、の命令を含む、非一時的コンピュータ可読記憶媒体。
[項目69]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備える電子デバイスであって、前記1つ以上のプログラムが、
ユーザカメラユーザインタフェースを表示する要求を受信することと、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応答して、及びそれぞれの基準が満たされないという判定に従って、
前記表示デバイスを介して、前記カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
前記1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、
前記1つ以上のカメラの前記視野の第2の部分の表現を含む第2の領域であって、前記1つ以上のカメラの前記視野の前記第2の部分が、前記第1の部分と視覚的に区別される、第2の領域と、を含む、カメラユーザインタフェースを表示することと、
前記カメラユーザインタフェースが表示されている間に、前記1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出することと、
前記1つ以上のカメラでメディアをキャプチャする要求に対応する前記入力を検出したことに応答して、前記1つ以上のカメラの前記視野の前記第1の部分に対応する視覚コンテンツと、前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、前記1つ以上のカメラでキャプチャすることと、
前記メディアアイテムをキャプチャした後に、前記メディアアイテムを表示する要求を受信することと、
前記メディアアイテムを表示する前記要求を受信したことに応答して、前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも一部分の表現を表示することなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの第1の表現を表示することと、
の命令を含む、電子デバイス。
[項目70]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
ユーザカメラユーザインタフェースを表示する要求を受信する手段と、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応答して、及びそれぞれの基準が満たされていないという判定に従って、
前記表示デバイスを介して、前記カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
前記1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、
前記1つ以上のカメラの前記視野の第2の部分の表現を含む第2の領域であって、前記1つ以上のカメラの前記視野の前記第2の部分が、前記第1の部分と視覚的に区別される、第2の領域と、を含む、カメラユーザインタフェースを表示する手段と、
前記カメラユーザインタフェースが表示されている間に、前記1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出する手段と、
前記1つ以上のカメラでメディアをキャプチャする要求に対応する前記入力を検出したことに応答して、前記1つ以上のカメラの前記視野の前記第1の部分に対応する視覚コンテンツと、前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、前記1つ以上のカメラでキャプチャする手段と、
前記メディアアイテムをキャプチャした後に、前記メディアアイテムを表示する要求を受信する手段と、
前記メディアアイテムを表示する前記要求を受信したことに応答して、前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも一部分の表現を表示することなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの第1の表現を表示する手段と、
を備える、電子デバイス。
[項目71]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスで、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示することと、
前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする要求を検出することと、
前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする前記要求を検出したことに応答して、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャすることと、前記キャプチャされたメディアの表現を表示することと、
前記キャプチャされたメディアの前記表現を表示している間に、前記キャプチャされたメディアの前記表現が所定の期間にわたって表示されたことを検出することと、
前記キャプチャされたメディアの前記表現が前記所定の期間にわたって表示されたことを検出したことに応答して、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも第1の部分の表示を停止することと、
を含む、方法。
[項目72]
前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも前記第1の部分の表示を停止することが、
前記キャプチャされたメディアの前記表現の少なくとも第2の部分の表示を維持することを含む、項目71に記載の方法。
[項目73]
前記表現の前記第1の部分の表示を停止する前に、前記キャプチャされたメディアの前記表現が、前記表示デバイス上の第1の場所に表示され、
前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも前記第1の部分の表示を停止することが、
前記表示デバイス上の前記第1の場所から前記表示デバイスの縁部に対応する前記表示デバイス上の第2の場所に向かって、前記キャプチャされたメディアの前記表現を動かすアニメーションを表示することを含む、項目71又は72に記載の方法。
[項目74]
前記キャプチャされたメディアの前記表現が、前記表示デバイス上の第3の場所に表示され、前記方法が、
前記キャプチャされたメディアの第2の表現が表示されている間に、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記第2の表現の少なくとも一部分の表示を停止する要求に対応するユーザ入力を検出することと、
前記第2の表現の少なくとも一部分の表示を停止する前記要求を検出したことに応答して、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記第2の表現の少なくとも一部分の表示を停止することと、を含む、項目71から73のいずれか一項に記載の方法。
[項目75]
前記表現の前記第1の部分の表示を停止した後に、前記表示デバイスの縁部に対応する前記表示デバイス上の第4の場所から、前記表示デバイス上の前記第4の場所とは異なる第5の場所への第2の接触の移動に対応するユーザ入力を受信することと、
前記表示デバイスの前記縁部に対応する前記表示デバイス上の前記第4の場所から、前記表示デバイス上の前記第5の場所への前記接触の移動に対応するユーザ入力を受信したことに応答して、前記表現の前記第1の部分を再表示することと、
を更に含む、項目71から74のいずれか一項に記載の方法。
[項目76]
前記キャプチャされたメディアの前記表現が表示されている間に、前記キャプチャされたメディアの拡大表現を表示する要求に対応するユーザ入力を検出することと、
前記キャプチャされたメディアの前記表現の前記選択に対応するユーザ入力を検出したことに応答して、前記表示デバイスを介して、前記キャプチャされたメディアの拡大表現を表示することと、
を更に含む、項目71から75のいずれか一項に記載の方法。
[項目77]
前記カメラユーザインタフェースが表示されていない間に、前記カメラユーザインタフェースを再表示する要求を受信することと、
前記カメラユーザインタフェースを再表示する前記要求を受信したことに応答して、キャプチャされたメディアの第2の表現を含む、前記カメラユーザインタフェースの第2のインスタンスを表示することと、
を更に含む、項目71から76のいずれか一項に記載の方法。
[項目78]
前記キャプチャされたメディアの前記表現が、前記表示デバイス上の第5の場所に表示され、前記方法が、更に、
前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも前記第1の部分の表示を停止した後に、前記第5の場所にて複数のカメラ設定を制御するアフォーダンスを表示することと、を含む、項目71から77のいずれか一項に記載の方法。
[項目79]
前記1つ以上のカメラの前記視野に対応するメディアをキャプチャすることが、画像のシーケンスをキャプチャすることを含み、
前記キャプチャされたメディアの前記表現を表示することが、少なくとも2つの画像を含む画像の前記キャプチャされたシーケンスの少なくとも一部分を再生することを含む、
項目71から78のいずれか一項に記載の方法。
[項目80]
前記所定の時間が、前記キャプチャされたビデオシーケンスの前記持続時間に基づく、項目79に記載の方法。
[項目81]
前記キャプチャされたメディアの前記表現を表示している間に、前記キャプチャされたメディアを共有するオプションを表示する要求に対応するユーザ入力を受信することと、
前記キャプチャメディアを共有するオプションを表示する前記要求に対応する前記ユーザ入力を受信したことに応答して、前記キャプチャされたメディアを共有するユーザインタフェースを表示することと、
を更に含む、項目71から80のいずれか一項に記載の方法。
[項目82]
前記要求されたメディアを共有する前記ユーザインタフェースが、前記キャプチャされたメディアを共有する複数のオプションを含む、項目71から81いずれか一項に記載の方法。
[項目83]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目71から82のいずれか一項に記載の方法を行う命令を含んでいる、非一時的コンピュータ可読記憶媒体。
[項目84]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、項目71から82のいずれか一項に記載の方法を行う命令と、
を含む、電子デバイス。
[項目85]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
項目71から82のいずれか一項に記載の方法を行う手段と、
を備える、電子デバイス。
[項目86]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示することと、
前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする要求を検出することと、
前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする前記要求を検出したことに応答して、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャすることと、前記キャプチャされたメディアの表現を表示することと、
前記キャプチャされたメディアの前記表現を表示している間に、前記キャプチャされたメディアの前記表現が所定の期間にわたって表示されたことを検出することと、
前記キャプチャされたメディアの前記表現が前記所定の期間にわたって表示されたことを検出したことに応答して、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも第1の部分の表示を停止することと、の命令を含む、非一時的コンピュータ可読記憶媒体。
[項目87]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備える電子デバイスであって、前記1つ以上のプログラムが、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示することと、
前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする要求を検出することと、
前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする前記要求を検出したことに応答して、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャすることと、前記キャプチャされたメディアの表現を表示することと、
前記キャプチャされたメディアの前記表現を表示している間に、前記キャプチャされたメディアの前記表現が所定の期間にわたって表示されたことを検出することと、
前記キャプチャされたメディアの前記表現が前記所定の期間にわたって表示されたことを検出したことに応答して、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも第1の部分の表示を停止することと、
の命令を含む、電子デバイス。
[項目88]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースが、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示する手段と、
前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする要求を検出する手段と、
前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする前記要求を検出したことに応答して、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする手段と、前記キャプチャされたメディアの表現を表示する手段と、
前記キャプチャされたメディアの前記表現を表示している間に、前記キャプチャされたメディアの前記表現が所定の期間にわたって表示されたことを検出する手段と、
前記キャプチャされたメディアの前記表現が前記所定の期間にわたって表示されたことを検出したことに応答して、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも第1の部分の表示を停止する手段と、
を備える、電子デバイス。
[項目89]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスで、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示することと、
メディアをキャプチャする要求を受信したことに応答して、第1のアスペクト比でメディアをキャプチャするように前記電子デバイスが構成されている間に、前記1つ以上のカメラの前記視野の前記表現上のそれぞれの場所に第1の接触を含む第1の入力を検出することと、
前記第1の入力を検出したことに応答して、
1組のアスペクト比変化基準が満たされているという判定に従って、メディアをキャプチャする要求に応答して、前記第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することであって、
前記1組のアスペクト比変化基準が、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応答してキャプチャされる、前記メディアの境界部の少なくとも一部分を示す前記カメラディスプレイ領域の既定の部分に対応する第1の場所で前記第1の接触を維持することを前記第1の入力が含むと満たされる基準を含む、構成することと、続いて、前記第1の場所とは異なる第2の場所への前記第1の接触の移動を検出することと、
を含む、方法。
[項目90]
前記第1の入力の少なくとも第1の部分を検出したことに応答して、
前記第1の入力の前記第1の部分が、少なくとも前記閾値時間量にわたって前記第1の場所で前記第1の接触を維持することを含むという判定に従って、第1の触知出力を提供すること、
を更に含む、項目89に記載の方法。
[項目91]
前記第1の入力の少なくとも第2の部分を検出したことに応答して、
前記第1の入力の第2の部分が、少なくとも前記閾値時間量にわたって前記第1の場所で前記第1の接触を維持することを含むという判定に従って、メディアをキャプチャする要求に応答してキャプチャされる、前記メディアの前記境界部の視覚インジケーションを表示すること、
を更に含む、項目89又は90に記載の方法。
[項目92]
前記視覚インジケーションが表示されている間に、及び前記第1の入力の少なくとも第3の部分を検出したことに応答して、
前記第1の入力の前記第3の部分が前記第1の接触の移動を含むという判定に従って、
前記第1の接触が前記閾値時間量にわたって前記第1の場所で維持された後に、前記第1の接触の前記移動は第1の大きさ及び第1の方向を有し、前記第1の大きさ及び前記第1の方向に基づいて前記視覚インジケーションの前記外観を修正すること、
を更に含む、項目91に記載の方法。
[項目93]
前記第1の入力の少なくとも第1の部分を検出したことに応答して、
前記第1の入力の前記第1の部分が、少なくとも前記閾値時間量にわたって前記第1の場所で前記第1の接触を維持することを含むという判定に従って、前記視覚インジケーションによって示される前記1つ以上のカメラの前記視野の前記表現の一部分のサイズを縮小することを含むアニメーションを表示すること、
を更に含む、項目91又は92に記載の方法。
[項目94]
前記視覚インジケーションが表示されている間に、及び前記第1の入力の少なくとも第4の部分を検出したことに応答して、
前記第1の入力の前記第4の部分が、前記第1の接触のリフトオフを含むという判定に従って、前記視覚インジケーションによって示される前記1つ以上のカメラの前記視野の前記表現の一部分のサイズを増大することを含むアニメーションを表示すること、
を更に含む、項目91から93のいずれか一項に記載の方法。
[項目95]
前記1つ以上のカメラの前記視野の前記表現の第1の部分が、前記メディアの前記境界部の前記視覚インジケーションによって選択されたものとして示され、前記1つ以上のカメラの前記視野の前記表現の第2の部分が、前記メディアの前記境界部の前記視覚インジケーションによって選択されたものとして示されておらず、
前記第2の部分が、前記第1の部分と視覚的に区別される、
項目91から94のいずれか一項に記載の方法。
[項目96]
第2のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することが、
第1の移動範囲内にある移動の第1の大きさ及び/又は方向を有する前記第2の場所への前記第1の接触の前記移動に従って、所定のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することと、
前記第1の移動範囲にない移動の第2の大きさ及び/又は方向を有する前記第2の場所への前記第1の接触の前記移動に従って、所定でなく、かつ移動の前記大きさ及び/又は方向に基づくアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することと、
を含む、項目90から95のいずれか一項に記載の方法。
[項目97]
前記所定のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することが、1つ以上の触知出力デバイスを介して、第2の触知出力を生成することを含む、項目96に記載の方法。
[項目98]
前記第1の入力を検出する前に、第1のカメラモードを使用してメディアをキャプチャするように前記電子デバイスが構成され、前記方法が、更に、
前記第1の入力を検出したことに応答して、
前記第1の入力が前記閾値時間量にわたって前記第1の場所で前記第1の接触を維持することを含まないという判定、及び前記第1の入力が第1の移動閾値を超える前記第1の接触の移動を含むという判定に従って、前記第1のカメラモードとは異なる第2のカメラモードを使用してメディアをキャプチャするように前記電子デバイスを構成することを含む、
項目89から97のいずれか一項に記載の方法。
[項目99]
前記カメラユーザインタフェースが、第1のメディアキャプチャモードで動作するように前記電子デバイスが構成されているというインジケーションを更に含み、前記方法が、更に、
前記カメラディスプレイ領域上の第2の方向への第4の接触の連続的な移動を検出することを含む、第4の入力の検出に従い、
メディアキャプチャ動作に関連付けられた特性を調整するコントロールを表示することを含む、
項目89から98のいずれか一項に記載の方法。
[項目100]
前記第1の入力を検出したことに応答して、
前記第1の入力が前記閾値時間量未満にわたって前記第1の場所で前記第1の接触を検出することを含むという判定に従って、前記第1の場所に対応する前記カメラの前記視野内の前記場所でのコンテンツに基づく焦点設定でメディアをキャプチャするように前記電子デバイスを構成することを含む、焦点設定を調整すること、
を更に含む、項目89から99のいずれか一項に記載の方法。
[項目101]
前記第1の入力を検出したことに応答して、
前記第1の入力が、メディアをキャプチャする前記要求に応答してキャプチャされる、前記メディアの前記境界部の少なくとも前記一部分を示す、前記カメラディスプレイ領域の既定の部分に対応しない第3の場所で第2の閾値時間量にわたって前記第1の接触を維持することを含むという判定に従って、前記第3の場所に対応する前記カメラの前記視野内の前記場所でのコンテンツに基づく第1の露出設定でメディアをキャプチャするように前記電子デバイスを構成すること、
を更に含む、項目89から100のいずれか一項に記載の方法。
[項目102]
前記第3の場所に対応する前記カメラの前記視野内の前記場所でのコンテンツに基づく前記第1の露出設定でメディアをキャプチャするように前記電子デバイスを前記構成することを構成した後に、前記第3の場所に対応する前記カメラの視野内の前記場所での前記コンテンツを、前記1つ以上のカメラの前記視野内にもはや存在させないという、前記1つ以上のカメラの前記視野の前記表現の変化を検出することと、
前記変化を検出したことに応答して、前記第1の露出設定でメディアをキャプチャするように前記電子デバイスを構成し続けることと、
を更に含む、項目101に記載の方法。
[項目103]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目89から102のいずれか一項に記載の方法を行う命令を含んでいる、非一時的コンピュータ可読記憶媒体。
[項目104]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、項目89から102のいずれか一項に記載の方法を行う命令と、
を含む、電子デバイス。
[項目105]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
項目89から102のいずれか一項に記載の方法を行う手段と、
を備える、電子デバイス。
[項目106]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示することと、
メディアをキャプチャする要求を受信したことに応答して、第1のアスペクト比でメディアをキャプチャするように前記電子デバイスが構成されている間に、前記1つ以上のカメラの前記視野の前記表現上のそれぞれの場所に第1の接触を含む第1の入力を検出することと、
前記第1の入力を検出したことに応答して、
1組のアスペクト比変化基準が満たされているという判定に従って、メディアをキャプチャする要求に応答して、前記第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することであって、
前記1組のアスペクト比変化基準が、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応答してキャプチャされる、前記メディアの境界部の少なくとも一部分を示す前記カメラディスプレイ領域の既定の部分に対応する第1の場所で前記第1の接触を維持することを前記第1の入力が含むと満たされる基準を含む、構成することと、続いて、前記第1の場所とは異なる第2の場所への前記第1の接触の移動を検出することと、の命令を含む、
非一時的コンピュータ可読記憶媒体。
[項目107]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備える電子デバイスであって、前記1つ以上のプログラムが、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示することと、
メディアをキャプチャする要求を受信したことに応答して、第1のアスペクト比でメディアをキャプチャするように前記電子デバイスが構成されている間に、前記1つ以上のカメラの前記視野の前記表現上のそれぞれの場所に第1の接触を含む第1の入力を検出することと、
前記第1の入力を検出したことに応答して、
1組のアスペクト比変化基準が満たされているという判定に従って、メディアをキャプチャする要求に応答して、前記第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することであって、
前記1組のアスペクト比変化基準が、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応答してキャプチャされる、前記メディアの境界部の少なくとも一部分を示す前記カメラディスプレイ領域の既定の部分に対応する第1の場所で前記第1の接触を維持することを前記第1の入力が含むと満たされる基準を含む、構成することと、続いて、前記第1の場所とは異なる第2の場所への前記第1の接触の移動を検出することと、の命令と、
を含む、電子デバイス。
[項目108]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示する手段と、
メディアをキャプチャする要求を受信したことに応答して、第1のアスペクト比でメディアをキャプチャするように前記電子デバイスが構成されている間に、前記1つ以上のカメラの前記視野の前記表現上のそれぞれの場所に第1の接触を含む第1の入力を検出する手段と、
前記第1の入力を検出したことに応答して、
1組のアスペクト比変化基準が満たされているという判定に従って、メディアをキャプチャする要求に応答して、前記第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成する手段であって、
前記1組のアスペクト比変化基準が、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応答してキャプチャされる、前記メディアの境界部の少なくとも一部分を示す前記カメラディスプレイ領域の既定の部分に対応する第1の場所で前記第1の接触を維持することを前記第1の入力が含むと満たされる基準を含む、構成する手段と、続いて、前記第1の場所とは異なる第2の場所への前記第1の接触の移動を検出する手段と、
を備える、電子デバイス。
[項目109]
方法であって、
表示デバイス及びカメラを有する電子デバイスで、
前記電子デバイスが第1の向きにある間に、前記表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示することと、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの変化を検出することと、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの前記変化を検出したことに応答して、
ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているという判定に従って、前記第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示することと、
を含む、方法。
[項目110]
メディアキャプチャアフォーダンスを表示することと、
前記メディアキャプチャアフォーダンスに対応する第1の入力を検出することと、
前記第1の入力を検出したことに応答して、
前記第1のカメラユーザインタフェースが表示されている間に前記第1の入力が検出されたという判定に従って、前記第1のズームレベルでメディアをキャプチャすることと、
前記第2のカメラユーザインタフェースが表示されている間に前記第1の入力が検出されたという判定に従って、前記第2のズームレベルでメディアをキャプチャすることと、
を更に含む、項目109に記載の方法。
[項目111]
前記第1のカメラユーザインタフェースを表示することが、前記カメラの視野の第1の表現を表示することを含み、
前記第1の表現が前記第1のズームレベルで前記第1のカメラの向きで表示され、
前記第2のカメラユーザインタフェースを表示することが、前記カメラの前記視野の第2の表現を表示することを含み、
前記第2の表現が前記第2のズームレベルで前記第2のカメラの向きで表示されている、項目109又は110に記載の方法。
[項目112]
前記第1の向きが縦向きであり、前記第1の表現が前記カメラの前記視野の一部分であり、前記第2の向きが横向きであり、前記第2の表現が前記カメラの視野全体である、項目111に記載の方法。
[項目113]
前記カメラの前記視野の前記第1の表現を表示している間に、前記第1のズームレベルを第3のズームレベルに変更する要求を受信することと、
前記第1のズームレベルを前記第3のズームレベルに変更する前記要求を受信したことに応答して、前記第1の表現の表示を前記カメラの前記視野の第3の表現に置き換えることであって、前記第3の表現が前記第1のカメラの向きで、かつ前記第3のズームレベルである、置き換えることと、
を更に含む、項目111又は112に記載の方法。
[項目114]
前記カメラの前記視野の前記第1の表現を表示している間に、ズームトグルアフォーダンスを表示することと、
前記ズームトグルアフォーダンスの選択に対応する第2の入力を検出することであって、前記ズームトグルアフォーダンスの選択が、前記第1のズームレベルを第4のズームレベルに変更する要求に対応する、検出することと、
前記第2の入力を検出したことに応答して、前記第1の表現の表示を前記カメラの前記視野の第4の表現に置き換えることであって、前記第4の表現が前記第1のカメラの向きで、かつ前記第4のズームレベルである、置き換えることと、
を更に含む、項目111から113のいずれか一項に記載の方法。
[項目115]
前記ズームトグルアフォーダンスが、前記第1のカメラユーザインタフェース及び前記第2のカメラインタフェース内に表示される、項目114に記載の方法。
[項目116]
前記カメラの前記視野の前記第1の表現を表示している間に、前記第1のズームレベルを第3のズームレベルに変更する要求を受信することと、
前記第1のズームレベルを前記第3のズームレベルに変更する前記要求を受信したことに応答して、
前記第1の表現の表示を前記カメラの前記視野の第5の表現に置き換えることであって、前記第5の表現が前記第1のカメラの向きで、かつ前記第5のズームレベルである、置き換えることと、
を更に含む、項目111から115のいずれか一項に記載の方法。
[項目117]
前記カメラが、第1のカメラと、前記第1のカメラとは異なる第2のカメラと、を含み、
前記自動ズーム基準が、前記電子デバイスが前記第1のカメラユーザインタフェース内に、前記第1のカメラの前記視野の表現を表示しており、かつ前記第2のカメラの前記視野の表現を表示していないと満たされる基準を含む、項目109から116のいずれか一項に記載の方法。
[項目118]
前記自動ズーム基準が、前記電子デバイスがビデオキャプチャ動作モードになっていないと満たされる基準を含む、項目109から117のいずれか一項に記載の方法。
[項目119]
前記自動ズーム基準が、ライブ通信セッションのビデオをキャプチャするように前記電子デバイスが構成されていると満たされる基準を含む、項目109から118のいずれか一項に記載の方法。
[項目120]
前記第1のズームレベルが前記第2のズームレベルより大きく、前記方法が、更に、
前記第2のカメラユーザインタフェースを表示している間に、前記第2の向きから前記第1の向きへの前記電子デバイスの向きの変化を検出することと、
前記第2の向きから前記第1の向きへの前記電子デバイスの向きの前記変化を検出したことに応答して、前記表示デバイス上に、前記第1のカメラユーザインタフェースを表示することと、を含む、項目109から119のいずれか一項に記載の方法。
[項目121]
表示デバイス及びカメラを備える電子デバイスの1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目109から120のいずれか一項に記載の方法を行う命令を含んでいる、非一時的コンピュータ可読記憶媒体。
[項目122]
電子デバイスであって、
表示デバイスと、
カメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、項目109から120のいずれか一項に記載の方法を行う命令と、
を含む、電子デバイス。
[項目123]
電子デバイスであって、
表示デバイスと、
カメラと、
項目109から120のいずれか一項に記載の方法を行う手段と、
を備える、電子デバイス。
[項目124]
表示デバイス及びカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記電子デバイスが第1の向きにある間に、前記表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示することと、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの変化を検出することと、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの前記変化を検出したことに応答して、
ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているという判定に従って、前記第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示することと、の命令を含む、
非一時的コンピュータ可読記憶媒体。
[項目125]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備える電子デバイスであって、前記1つ以上のプログラムが、
前記電子デバイスが第1の向きにある間に、前記表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示することと、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの変化を検出することと、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの前記変化を検出したことに応答して、
ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているという判定に従って、前記第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示することと、
の命令を含む、電子デバイス。
[項目126]
電子デバイスであって、
表示デバイスと、
カメラと、
前記電子デバイスが第1の向きにある間に、前記表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示する手段と、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの変化を検出する手段と、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの前記変化を検出したことに応答して、
ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているという判定に従って、前記第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示する手段と、
を含む、電子デバイス。
[項目127]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスで、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、
前記メディアキャプチャユーザインタフェースを表示している間に、前記カメラを介して、前記1つ以上のカメラの前記視野内の変化を検出することと、
前記1つ以上のカメラの前記視野内の前記変化を検出したことに応答して、及び可変フレームレート基準が満たされているという判定に従って、
前記1つ以上のカメラの前記視野内の前記検出された変化が移動基準を満たすという判定に従って、第1のフレームレートで前記1つ以上のカメラの前記視野内で前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新することと、
前記1つ以上のカメラの前記視野内の前記検出された変化が前記移動基準を満たさないという判定に従って、前記第1のフレームレートより低い第2のフレームレートで前記1つ以上のカメラの前記視野内で前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新することと、
を含む、方法。
[項目128]
前記可変フレームレート基準が、前記1つ以上のカメラの前記視野内の周辺光が閾値を下回ると満たされる基準を含み、前記1つ以上のカメラの前記視野内の前記変化を検出する前に、前記1つ以上のカメラの前記視野の前記表現が、第3のフレームレートで更新され、前記方法が、更に、
前記1つ以上のカメラの前記視野内の前記変化を検出したことに応答して、及び前記可変フレームレート基準が満たされていないという判定に従って、前記第3のフレームレートで前記1つ以上のカメラの前記視野の前記表現の前記更新を維持することを含む、項目127に記載の方法。
[項目129]
前記低光可変フレームレート基準が、フラッシュモードが非アクティブであることを満たす基準を含む、項目128に記載の方法。
[項目130]
前記メディアキャプチャユーザインタフェースを表示することが、
前記可変フレームレート基準が満たされているという判定に従って、可変フレームレートモードがアクティブであるというインジケーションを表示することと、
前記可変フレームレート基準が満たされていないという判定に従って、前記可変フレームレートモードがアクティブであるという前記インジケーションなしで、前記メディアキャプチャユーザインタフェースを表示することと、
を含む、項目127から129のいずれか一項に記載の方法。
[項目131]
前記第1のフレームレートで前記1つ以上のカメラの前記視野内で前記検出された変化に基づいて更新された前記1つ以上のカメラの前記視野の前記表現が、第1の輝度で前記表示デバイス上に表示され、
前記第1のフレームレートより低い前記第2のフレームレートで前記1つ以上のカメラの前記視野内で前記検出された変化に基づいて更新された前記1つ以上のカメラの前記視野の前記表現が、前記第1の輝度よりも視覚的に明るい第2の輝度で前記表示デバイス上に表示される、項目127から130のいずれか一項に記載の方法。
[項目132]
前記第2のフレームレートが、前記1つ以上のカメラの前記視野内の周辺光の量がそれぞれの閾値を下回ることに基づく、項目127から131のいずれか一項に記載の方法。
[項目133]
前記検出された変化が検出された移動を含み、前記第2のフレームレートが前記検出された移動の量に基づく、項目127から132のいずれか一項に記載の方法。
[項目134]
前記移動基準が、前記1つ以上のカメラの前記フィールドオブフィールド(field-of-field)内の前記検出された変化が、移動閾値よりも大きい前記電子デバイスの移動に対応すると満たされる基準を含む、項目127から133のいずれか一項に記載の方法。
[項目135]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目127から134のいずれか一項に記載の方法を行う命令を含んでいる、非一時的コンピュータ可読記憶媒体。
[項目136]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、項目127から134のいずれか一項に記載の方法を行う命令と、
を含む、電子デバイス。
[項目137]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
項目127から134のいずれか一項に記載の方法を行う手段と、
を備える、電子デバイス。
[項目138]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、
前記メディアキャプチャユーザインタフェースを表示している間に、前記カメラを介して、前記1つ以上のカメラの前記視野内の変化を検出することと、
前記1つ以上のカメラの前記視野内の前記変化を検出したことに応答して、及び可変フレームレート基準が満たされているという判定に従って、
前記1つ以上のカメラの前記視野内の前記検出された変化が移動基準を満たすという判定に従って、第1のフレームレートで前記1つ以上のカメラの前記視野内で前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新することと、
前記1つ以上のカメラの前記視野内の前記検出された変化が前記移動基準を満たさないという判定に従って、前記第1のフレームレートより低い第2のフレームレートで前記1つ以上のカメラの前記視野内で前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新することと、の命令を含む、非一時的コンピュータ可読記憶媒体。
[項目139]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備える電子デバイスであって、前記1つ以上のプログラムが、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、
前記メディアキャプチャユーザインタフェースを表示している間に、前記カメラを介して、前記1つ以上のカメラの前記視野内の変化を検出することと、
前記1つ以上のカメラの前記視野内の前記変化を検出したことに応答して、及び可変フレームレート基準が満たされているという判定に従って、
前記1つ以上のカメラの前記視野内の前記検出された変化が移動基準を満たすという判定に従って、第1のフレームレートで前記1つ以上のカメラの前記視野内で前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新することと、
前記1つ以上のカメラの前記視野内の前記検出された変化が前記移動基準を満たさないという判定に従って、前記第1のフレームレートより低い第2のフレームレートで前記1つ以上のカメラの前記視野内で前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新することと、
の命令を含む、電子デバイス。
[項目140]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示する手段と、
前記メディアキャプチャユーザインタフェースを表示している間に、前記カメラを介して、前記1つ以上のカメラの前記視野内の変化を検出する手段と、
前記1つ以上のカメラの前記視野内の前記変化を検出したことに応答して、及び可変フレームレート基準が満たされているという判定に従って、
前記1つ以上のカメラの前記視野内の前記検出された変化が移動基準を満たすという判定に従って、第1のフレームレートで前記1つ以上のカメラの前記視野内で前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新する手段と、
前記1つ以上のカメラの前記視野内の前記検出された変化が前記移動基準を満たさないという判定に従って、前記第1のフレームレートより低い第2のフレームレートで前記1つ以上のカメラの前記視野内で前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新する手段と、
を含む、電子デバイス。
[項目141]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスで、
カメラユーザインタフェースを表示する要求を受信することと、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応答して、前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することと、
前記1つ以上のカメラの前記視野内の周辺光がそれぞれの閾値を下回ると満たされる条件を含む低光条件が満たされたという判定に従って、前記1つ以上のカメラの前記視野の前記表現と同時に、メディアをキャプチャする要求に応答してメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、
前記低光条件が満たされていないという判定に従って、前記キャプチャ持続時間を調整する前記コントロールを表示するのをやめることと、を含む、カメラユーザインタフェースを表示することと、
を含む、方法。
[項目142]
前記キャプチャ持続時間を調整する前記コントロールを表示している間に、低光条件がもはや満たされていないというインジケーションを取得することと、
前記インジケーションを取得したことに応答して、前記表示デバイスを介して、前記キャプチャ持続時間を調整する前記コントロールの表示を停止することと、
を更に含む、項目141に記載の方法。
[項目143]
前記キャプチャ持続時間を調整する前記コントロールを同時に表示することなく、前記1つ以上のカメラの前記視野の前記表現を表示している間に、低光条件が満たされたというインジケーションを取得することと、
前記インジケーションを取得したことに応答して、前記1つ以上のカメラの前記視野の前記表現と同時に、前記キャプチャ持続時間を調整する前記コントロールを表示することと、
を更に含む、項目141又は142に記載の方法。
[項目144]
前記低光条件が、フラッシュモードが非アクティブであると満たされる条件を含む、項目141から143のいずれか一項に記載の方法。
[項目145]
前記キャプチャ持続時間を調整する前記コントロールがスライダである、項目141から144のいずれか一項に記載の方法。
[項目146]
前記カメラユーザインタフェースを表示することが、
前記1つ以上のカメラの前記視野の前記表現と同時に、選択されると、前記1つ以上のカメラを使用して前記メディアのキャプチャを開始するメディアキャプチャアフォーダンスを表示することを含む、項目141から145のいずれか一項に記載の方法。
[項目147]
前記キャプチャ持続時間を調整する前記コントロールを表示している間に、第1のキャプチャ持続時間の第1のインジケーションを表示することと、
前記第1のキャプチャ持続時間から第2のキャプチャ持続時間に前記キャプチャ持続時間を調整する前記コントロールを調整する要求を受信したことに応答して、前記第1のキャプチャ持続時間の前記第1のインジケーションの表示を、前記第2のキャプチャ持続時間の第2のインジケーションの表示に置き換えることと、
を更に含む、項目146に記載の方法。
[項目148]
前記1つ以上のカメラの前記視野の前記表現が、第1の表現であり、前記方法が、更に、
前記第1のキャプチャ持続時間から前記キャプチャ持続時間を調整する前記コントロールを調整する前記要求を受信したことに応答して、
前記第1の表現の表示を前記1つ以上のカメラの前記視野の前記の(the of)第2の表現に置き換えることであって、前記第2の表現が、前記第2の持続時間に基づき、前記第1の表現と視覚的に区別される、置き換えることと、を含む、項目147に記載の方法。
[項目149]
前記第2のキャプチャ持続時間の前記第2のインジケーションを表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応答して、及び前記第2のキャプチャ持続時間が低光キャプチャモードを非アクティブ化する所定のものに対応するという判定に従って、前記第2のキャプチャ持続時間とは異なる持続時間に基づいて、前記1つ以上のカメラを介して、メディアのキャプチャを開始することと、
を更に含む、項目147又は148に記載の方法。
[項目150]
前記第2のキャプチャ持続時間の前記第2のインジケーションを表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応答して、前記第2のキャプチャ持続時間に基づいて、前記1つ以上のカメラを介して、メディアのキャプチャを開始することと、
を更に含む、項目147又は148に記載の方法。
[項目151]
メディアをキャプチャする前記要求を受信したことに応答して、前記1つ以上のカメラの前記視野の前記表現の表示を停止すること
を更に含む、項目150に記載の方法。
[項目152]
前記キャプチャ持続時間を調整する前記コントロールが、第1の色で表示され、前記方法が、更に、
メディアをキャプチャする前記要求を受信したことに応答して、前記第1の色とは異なる第2の色で前記キャプチャ持続時間を調整する前記コントロールを表示することを含む、項目150又は151に記載の方法。
[項目153]
メディアをキャプチャする前記要求を受信したことに応答して、第3のキャプチャ値の第3のインジケーションを前記第2のキャプチャ持続時間の前記第2のインジケーションに動かす第1のアニメーションを表示することと、
前記第1のアニメーションを表示した後に、前記第2のキャプチャ持続時間の前記第2のインジケーションを、前記第3のキャプチャ値の前記第3のインジケーションまで動かす、第2のアニメーションを表示することであって、前記第2のアニメーションの持続時間が、前記第2のキャプチャ持続時間の持続時間に対応し、前記第1のアニメーションの持続時間とは異なる、表示することと、
を更に含む、項目150から152のいずれか一項に記載の方法。
[項目154]
前記第1のアニメーションを表示している間に、第1の触知出力を提供することと、
前記第2のアニメーションを表示している間に、第2の触知出力を提供することと、
を更に含む、項目153に記載の方法。
[項目155]
前記メディアのキャプチャを開始した後に、前記第2のキャプチャ持続時間に基づいて前記メディアをキャプチャすること、
を更に含む、項目150から154のいずれか一項に記載の方法。
[項目156]
前記メディアが、前記第2のキャプチャ持続時間に基づいてキャプチャされた第1のメディアであり、前記方法が、更に、
前記第1のメディアをキャプチャした後に、前記第2のキャプチャ持続時間に基づいて第2のメディアをキャプチャする要求を受信することと、
前記第2のキャプチャ持続時間に基づいて第2のメディアをキャプチャする前記要求を受信したことに応答して、前記第2のキャプチャ持続時間に基づいて前記第2のメディアのキャプチャを開始することと、
前記第2のキャプチャ持続時間に基づいて前記第2のメディアのキャプチャを開始した後に、前記第2のキャプチャ持続時間が経過する前に、前記第2のメディアのキャプチャを終了する要求を受信することと、
前記第2のメディアのキャプチャを終了する前記要求を受信したことに応答して、
前記第2のキャプチャ持続時間に基づいて前記第2のメディアの前記キャプチャを終了することと、
終了前にキャプチャされた前記第2のメディアの表現を表示することが、前記第2のメディアのキャプチャを終了する前記要求を受信する前に、前記1つ以上のカメラによってキャプチャされた視覚情報に基づくことと、
を含む、項目155に記載の方法。
[項目157]
前記メディアが、前記第2のキャプチャ持続時間に基づいてキャプチャされた第1のメディアであり、前記方法が、更に、
前記第1のメディアをキャプチャした後に、前記第2のキャプチャ持続時間に基づいて第3のメディアをキャプチャする要求を受信することと、
前記第2のキャプチャ持続時間に基づいて第3のメディアをキャプチャする前記要求を受信したことに応答して、前記第2のキャプチャ持続時間に基づいて前記第3のメディアのキャプチャを開始することと、
前記第2のキャプチャ持続時間に基づいて前記第3のメディアのキャプチャを開始した後に、
前記1つ以上のカメラの前記視野内の検出された変化が移動基準を超えるという判定に従って、
前記第3のメディアの前記キャプチャを終了することと、
終了前にキャプチャされた前記第3のメディアの表現を表示することが、前記第2のメディアのキャプチャを終了する前記要求を受信する前に、前記1つ以上のカメラによってキャプチャされた視覚情報に基づくことと、
を含む、項目155又は156に記載の方法。
[項目158]
メディアをキャプチャする前記要求を受信したことに応答して、メディアをキャプチャするように要求する前記アフォーダンスの表示を、メディアのキャプチャを終了するアフォーダンスの表示に置き換えること、
を更に含む、項目155から167のいずれか一項に記載の方法。
[項目159]
前記メディアのキャプチャを開始した後に、第1のキャプチャ時間でキャプチャされた前記第1のメディアの第1の表現を表示することと、
前記第1のメディアの前記第1の表現を表示した後に、前記第1のメディアの前記第1の表現の表示を、前記第1のキャプチャ時間の後の第2のキャプチャ時間でキャプチャされた前記第1のメディアの第2の表現の表示に置き換えることであって、前記第2の表現が、前記第1の表現と視覚的に区別される、置き換えることと、
を更に含む、項目155から158のいずれか一項に記載の方法。
[項目160]
前記第1の表現の表示を前記第2の表現の表示に前記置き換えることが、所定の期間後に行われる、項目159に記載の方法。
[項目161]
前記カメラユーザインタフェースを表示することが、低光条件が満たされたという判定に従って、キャプチャ持続時間を調整する前記コントロールと同時に、低光キャプチャモードの状態がアクティブであることを示す低光キャプチャ状態インジケータを表示することを含み、
前記方法が、
前記低光キャプチャ状態インジケータを表示している間に、前記低光状態インジケータの第1の選択を受信することと、
前記低光状態インジケータの第1の選択を受信したことに応答して、
前記低光キャプチャ状態インジケータの表示を維持している間に、前記キャプチャ持続時間を調整する前記コントロールの表示を停止することと、
前記低光キャプチャモードの前記状態が非アクティブであることを示すように、前記低光キャプチャ状態インジケータの外観を更新することと、を含む、
項目141から160のいずれか一項に記載の方法。
[項目162]
前記カメラユーザインタフェースを表示することが、低光条件が満たされたという判定に従って、前記低光キャプチャモードが非アクティブであることを示す前記低光キャプチャ状態を表示している間に、前記低光状態インジケータの第2の選択を受信することを含み、
前記方法が、
前記低光状態インジケータの前記第2の選択を受信したことに応答して、前記キャプチャ持続時間を調整する前記コントロールを再表示すること、を含む、
項目161に記載の方法。
[項目163]
前記低光キャプチャ状態インジケータの前記第1の選択を受信したことに応答して、フラッシュ動作を行わないように前記電子デバイスを構成することを含む、項目161に記載の方法。
[項目164]
前記低光条件が、前記低光状態インジケータが選択されたと満たされる条件を含む、項目161から163のいずれか一項に記載の方法。
[項目165]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目141から164のいずれか一項に記載の方法を行う命令を含んでいる、非一時的コンピュータ可読記憶媒体。
[項目166]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、項目141から164のいずれか一項に記載の方法を行う命令と、
を含む、電子デバイス。
[項目167]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
項目141から164のいずれか一項に記載の方法を行う手段と、
を備える、電子デバイス。
[項目168]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
カメラユーザインタフェースを表示する要求を受信することと、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応答して、前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することと、
前記1つ以上のカメラの前記視野内の周辺光がそれぞれの閾値を下回ると満たされる条件を含む低光条件が満たされたという判定に従って、前記1つ以上のカメラの前記視野の前記表現と同時に、メディアをキャプチャする要求に応答してメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、
前記低光条件が満たされていないという判定に従って、前記キャプチャ持続時間を調整する前記コントロールを表示するのをやめることと、を含む、カメラユーザインタフェースを表示することと、の命令を含む、非一時的コンピュータ可読記憶媒体。
[項目169]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備える電子デバイスであって、前記1つ以上のプログラムが、
カメラユーザインタフェースを表示する要求を受信することと、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応答して、前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することと、
前記1つ以上のカメラの前記視野内の周辺光がそれぞれの閾値を下回ると満たされる条件を含む低光条件が満たされたという判定に従って、前記1つ以上のカメラの前記視野の前記表現と同時に、メディアをキャプチャする要求に応答してメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、
前記低光条件が満たされていないという判定に従って、前記キャプチャ持続時間を調整する前記コントロールを表示するのをやめることと、を含む、カメラユーザインタフェースを表示することと、
の命令を含む、電子デバイス。
[項目170]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
カメラユーザインタフェースを表示する要求を受信する手段と、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応答して、前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示する手段と、
前記1つ以上のカメラの前記視野内の周辺光がそれぞれの閾値を下回ると満たされる条件を含む低光条件が満たされたという判定に従って、前記1つ以上のカメラの前記視野の前記表現と同時に、メディアをキャプチャする要求に応答してメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示する手段と、
前記低光条件が満たされていないという判定に従って、前記キャプチャ持続時間を調整する前記コントロールを表示するのをやめる手段と、を含む、カメラユーザインタフェースを表示する手段と、
を備える、電子デバイス。
[項目171]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスで、
前記表示デバイスを介して、カメラユーザインタフェースを表示することと、
前記カメラユーザインタフェースを表示している間に、前記電子デバイスの1つ以上のセンサを介して、前記1つ以上のカメラの視野内の光量を検出することと、
前記1つ以上のカメラの前記視野内の前記光量を検出したことに応答して、
前記1つ以上のカメラの前記視野内の前記光量が低光環境基準を満たすという判定に従って、前記低光環境基準が、前記1つ以上のカメラの前記視野内の前記光量が所定の閾値を下回ると満たされる基準を含み、前記カメラユーザインタフェース内に、
フラッシュ動作の状態を示すフラッシュ状態インジケータと、
低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、を同時に表示することと、
前記1つ以上のカメラの前記視野内の前記光量が前記低光環境基準を満たしていないという判定に従って、前記カメラユーザインタフェース内の前記低光キャプチャ状態インジケータを表示するのをやめることと、
を含む、方法。
[項目172]
前記1つ以上のカメラの前記視野内の前記光量が低光環境基準を満たし、かつ前記フラッシュ動作がアクティブ又は非アクティブに設定されているかどうかを自動的に判定するようにフラッシュ設定が設定されていると満たされる基準を含む、フラッシュ動作基準が満たされているという判定に従って、
前記フラッシュ状態インジケータが、前記フラッシュ動作の前記状態がアクティブであることを示し、
前記低光キャプチャインジケータが、前記低光キャプチャモードの前記状態が非アクティブであることを示す、
項目171に記載の方法。
[項目173]
前記1つ以上のカメラの前記視野内の前記光量が低光環境基準を満たす間に、
前記1つ以上のカメラの前記視野内の前記光量が第1の所定の範囲内にあり、フラッシュ設定がアクティブに設定されているという判定に従って、
前記フラッシュ状態インジケータが、前記フラッシュ動作の前記状態がアクティブであることを示し、
前記低光キャプチャインジケータが、前記低光キャプチャモードの前記状態が非アクティブであることを示し、
前記1つ以上のカメラの前記視野内の前記光量が前記第1の所定の範囲内にあり、フラッシュ設定がアクティブに設定されていないという判定に従って、
前記フラッシュ状態インジケータが、前記フラッシュ動作の前記状態が非アクティブであることを示し、
前記低光キャプチャインジケータが、前記低光キャプチャモードの前記状態がアクティブであることを示す、
項目171又は172に記載の方法。
[項目174]
前記1つ以上のカメラの前記視野内の前記光量が低光環境基準を満たす間に、
前記1つ以上のカメラの前記視野内の前記光量が前記第1の所定の範囲とは異なる第2の所定の範囲内にあり、フラッシュ設定が非アクティブに設定されているという判定に従って、
前記フラッシュ状態インジケータが、前記フラッシュ動作の前記状態が非アクティブであることを示し、
前記低光キャプチャインジケータが、前記低光キャプチャモードの前記状態がアクティブであることを示し、
前記1つ以上のカメラの前記視野内の前記光量が前記第1の所定の範囲とは異なる前記第2の所定の範囲内にあり、フラッシュ設定が非アクティブに設定されていないという判定に従って、
前記フラッシュ状態インジケータが、前記フラッシュ動作の前記状態がアクティブであることを示し、
前記低光キャプチャインジケータが、前記低光キャプチャモードの前記状態が非アクティブであることを示す、
項目173に記載の方法。
[項目175]
前記フラッシュインジケータが表示されており、かつ前記フラッシュ動作の前記状態がアクティブであることを示し、前記低光キャプチャインジケータが表示されており、かつ前記低光キャプチャモードの前記状態が非アクティブであることを示す間に、前記フラッシュ状態インジケータの選択を受信することと、
前記フラッシュ状態インジケータの前記選択を受信したことに応答して、
前記フラッシュ動作の前記状態が非アクティブであることを示すように、前記フラッシュ状態インジケータを更新することと、
前記低光キャプチャモードの前記状態がアクティブであることを示すように、前記低光キャプチャインジケータを更新することと、
を更に含む、項目171から174のいずれか一項に記載の方法。
[項目176]
前記フラッシュインジケータが表示されており、かつ前記フラッシュ動作の前記状態がアクティブであることを示し、前記低光キャプチャインジケータが表示されており、かつ前記低光キャプチャモードの前記状態が非アクティブであることを示す間に、前記低光キャプチャ状態インジケータの選択を受信することと、
前記低光キャプチャ状態インジケータの前記選択を受信したことに応答して、
前記フラッシュ動作の前記状態が非アクティブであることを示すように、前記フラッシュ状態インジケータを更新することと、
前記低光キャプチャモードの前記状態がアクティブであることを示すように、前記低光キャプチャ状態インジケータを更新することと、
を更に含む、項目171から175のいずれか一項に記載の方法。
[項目177]
低光キャプチャモードの前記状態がアクティブであるという判定に従って、キャプチャ持続時間を調整するコントロールを表示すること、
を更に含む、項目171から176のいずれか一項に記載の方法。
[項目178]
前記キャプチャ持続時間を調整する前記コントロールを表示している間に、第1のキャプチャ持続時間から第2のキャプチャ持続時間に前記コントロールを変更する要求を受信することと、
前記第1のキャプチャ持続時間から前記第2のキャプチャ持続時間に前記コントロールを変更する要求を受信したことに応答して、
前記第2のキャプチャ持続時間が低光キャプチャモードを非アクティブ化する所定のキャプチャ持続時間であるという判定に従って、前記低光キャプチャモードの前記状態が非アクティブであることを示すように、前記低光キャプチャ状態インジケータを更新することと、
を更に含む、項目177に記載の方法。
[項目179]
キャプチャ持続時間を調整する前記コントロールを表示している間に、低光キャプチャモードの状態の変化を検出することと、
前記低光キャプチャモードの状態の前記変化を検出したことに応答して、
低光キャプチャモードの前記状態が非アクティブであるという判定に従って、キャプチャ持続時間を調整する前記コントロールの表示を停止すること、
を更に含む、項目177に記載の方法。
[項目180]
前記カメラユーザインタフェース内に、前記1つ以上のカメラの前記視野の第1の表現を表示することと、
低光キャプチャモードの前記状態がアクティブである間に、前記1つ以上のカメラの前記視野の第1のメディアをキャプチャする要求を受信することと、
低光キャプチャモードの前記状態がアクティブである間に、第1のメディアをキャプチャする前記要求を受信したことに応答して、
前記第1のメディアのキャプチャを開始することと、
前記第1のメディアの前記キャプチャの前記持続時間にわたって、前記1つ以上のカメラの前記視野の前記第1の表現の前記表示を維持することと、
を更に含む、項目171から179のいずれか一項に記載の方法。
[項目181]
低光キャプチャモードの前記状態がアクティブである間に、前記1つ以上のカメラの前記視野の第2のメディアをキャプチャする要求を受信することと、
低光キャプチャモードの前記状態がアクティブである間に、第2のメディアをキャプチャする前記要求を受信したことに応答して、前記第2のメディアのキャプチャを開始することと、
前記第2のメディアをキャプチャしている間に、前記カメラユーザインタフェース内に、前記第2のメディアの表現を同時に表示することと、
を更に含む、項目171から180のいずれか一項に記載の方法。
[項目182]
前記カメラユーザインタフェース内に、前記1つ以上のカメラの前記視野の第2の表現を表示することと、
低光キャプチャモードの前記状態がアクティブである間に、前記1つ以上のカメラの前記視野の第3のメディアをキャプチャする要求を受信することと、
前記低光キャプチャモードの前記状態がアクティブである間に、第3のメディアをキャプチャする要求を受信したことに応答して、前記第3のメディアのキャプチャを開始することと、
前記第3のメディアをキャプチャしている間に、前記カメラユーザインタフェース内の前記1つ以上のカメラの前記視野から導出された表現の表示を停止することと、
を更に含む、項目171から181のいずれか一項に記載の方法。
[項目183]
前記1つ以上のカメラの前記視野内の前記光量が前記低光環境基準を満たしていないという判定に従って、前記カメラユーザインタフェース内に、前記フラッシュ動作の前記状態を示す前記フラッシュ状態インジケータを表示すること、
を更に含む、項目171から182のいずれか一項に記載の方法。
[項目184]
前記フラッシュ動作の前記状態及び前記低光キャプチャモードの前記状態が、互いに排他的である、項目171から183のいずれか一項に記載の方法。
[項目185]
前記低光キャプチャモードの前記状態が、アクティブ状態、利用可能状態、及び非アクティブ状態からなる群から選択される、項目171から184のいずれか一項に記載の方法。
[項目186]
前記1つ以上のカメラの前記視野内の前記光量が低光環境基準を満たす間に、
前記1つ以上のカメラの前記視野内の前記光量が第3の所定の範囲にあるという判定に従って、前記フラッシュ状態インジケータが、前記フラッシュ動作の前記状態が利用可能であることを示す、
項目171又は172、及び174から185のいずれか一項に記載の方法。
[項目187]
キャプチャ持続時間を調整する前記コントロールが第1のコントロールであり、前記方法が、更に、
前記フラッシュ状態インジケータが、前記フラッシュ動作の前記状態が利用可能であることを示す間に、前記低光キャプチャ状態インジケータの選択を受信することと、
前記キャプチャ低光キャプチャ状態インジケータの選択を受信したことに応答して、
前記低光キャプチャモードの前記状態がアクティブであることを示すように、前記低光キャプチャ状態インジケータを更新することと、
キャプチャ持続時間を調整する第2のコントロールを表示することと、を含む、項目186に記載の方法。
[項目188]
前記1つ以上のカメラの前記視野内の周辺光が第4の所定の範囲内にあるという判定に従って、前記第1の低光キャプチャ状態インジケータが前記第1のキャプチャ持続時間の第1の視覚表現を含み、
前記1つ以上のカメラの前記視野内の周辺光が前記第4の所定の範囲内にないという判定に従って、前記第1の低光キャプチャ状態インジケータが前記第1のキャプチャ持続時間の前記第1の視覚表現を含まない、
項目171から187のいずれか一項に記載の方法。
[項目189]
前記1つ以上のカメラの前記視野内の前記光量を検出したことに応答して、前記1つ以上のカメラの前記視野内の前記光量が低光環境基準を満たすという前記判定に従って、
前記1つ以上のカメラの前記視野内の周辺光が第3の所定の範囲内にあるという判定に従って、前記低光キャプチャ状態インジケータが、前記低光キャプチャモードの状態がアクティブであることを示し、前記第1のキャプチャ持続時間の第2の視覚表現を含み、
前記1つ以上のカメラの前記視野内の周辺光が第4の所定の範囲内にあるという判定に従って、前記低光キャプチャ状態インジケータが、前記低光キャプチャモードの前記状態がアクティブであることを示し、前記第1のキャプチャ持続時間の前記第2の視覚表現を含まず、
前記1つ以上のカメラの前記視野内の周辺光が第5の所定の範囲内にあるという判定に従って、前記低光キャプチャ状態インジケータが、前記低光キャプチャモードの状態が利用可能であることを示し、前記低光キャプチャモードの前記状態がアクティブであることを示し、前記第1のキャプチャ持続時間の前記第2の視覚表現を含む前記低光キャプチャ状態インジケータと、前記低光キャプチャモードの前記状態がアクティブであることを示し、前記第1のキャプチャ持続時間の前記第2の視覚表現を含まない前記低光キャプチャ状態インジケータと、前記低光キャプチャモードの状態が利用可能である前記低光キャプチャ状態インジケータとが、互いに視覚的に異なる、ことと、
を更に含む、項目171から188のいずれか一項に記載の方法。
[項目190]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目171から189のいずれか一項に記載の方法を行う命令を含んでいる、非一時的コンピュータ可読記憶媒体。
[項目191]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、項目171から189のいずれか一項に記載の方法を行う命令と、
を含む、電子デバイス。
[項目192]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
項目171から189のいずれか一項に記載の方法を行う手段と、
を備える、電子デバイス。
[項目193]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記表示デバイスを介して、カメラユーザインタフェースを表示することと、
前記カメラユーザインタフェースを表示している間に、前記電子デバイスの1つ以上のセンサを介して、前記1つ以上のカメラの視野内の光量を検出することと、
前記1つ以上のカメラの前記視野内の前記光量を検出したことに応答して、
前記1つ以上のカメラの前記視野内の前記光量が、前記1つ以上のカメラの前記視野内の前記光量が所定の閾値を下回ると満たされる基準を含む、低光環境基準を満たすという判定に従って、前記カメラユーザインタフェース内に、
フラッシュ動作の状態を示すフラッシュ状態インジケータと、
低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、を同時に表示することと、
前記1つ以上のカメラの前記視野内の前記光量が前記低光環境基準を満たしていないという判定に従って、前記カメラユーザインタフェース内の前記低光キャプチャ状態インジケータを表示するのをやめることと、の命令を含む、非一時的コンピュータ可読記憶媒体。
[項目194]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備える電子デバイスであって、前記1つ以上のプログラムが、
前記表示デバイスを介して、カメラユーザインタフェースを表示することと、
前記カメラユーザインタフェースを表示している間に、前記電子デバイスの1つ以上のセンサを介して、前記1つ以上のカメラの視野内の光量を検出することと、
前記1つ以上のカメラの前記視野内の前記光量を検出したことに応答して、
前記1つ以上のカメラの前記視野内の前記光量が、前記1つ以上のカメラの前記視野内の前記光量が所定の閾値を下回ると満たされる基準を含む、低光環境基準を満たすという判定に従って、前記カメラユーザインタフェース内に、
フラッシュ動作の状態を示すフラッシュ状態インジケータと、
低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、を同時に表示することと、
前記1つ以上のカメラの前記視野内の前記光量が前記低光環境基準を満たしていないという判定に従って、前記カメラユーザインタフェース内の前記低光キャプチャ状態インジケータを表示するのをやめることと、の命令と、
を含む、電子デバイス。
[項目195]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段と、
前記カメラユーザインタフェースを表示している間に、前記電子デバイスの1つ以上のセンサを介して、前記1つ以上のカメラの視野内の光量を検出する手段と、
前記1つ以上のカメラの前記視野内の前記光量を検出したことに応答して、
前記1つ以上のカメラの前記視野内の前記光量が、前記1つ以上のカメラの前記視野内の前記光量が所定の閾値を下回ると満たされる基準を含む、低光環境基準を満たすという判定に従って、前記カメラユーザインタフェース内に、
フラッシュ動作の状態を示すフラッシュ状態インジケータと、
低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、を同時に表示する手段と、
前記1つ以上のカメラの前記視野内の前記光量が前記低光環境基準を満たしていないという判定に従って、前記カメラユーザインタフェース内の前記低光キャプチャ状態インジケータを表示するのをやめる手段と、
を含む、電子デバイス。
[項目196]
方法であって、
表示デバイスを有する電子デバイスで、
前記表示デバイス上に、
視覚メディアの表現と、
前記視覚メディアの前記表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、
前記視覚メディアの前記表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、を含む、メディア編集ユーザインタフェースを表示することと、
前記メディア編集ユーザインタフェースを表示している間に、前記第1のアフォーダンスの選択に対応する第1のユーザ入力を検出することと、
前記第1のアフォーダンスの選択に対応する前記第1のユーザ入力を検出したことに応答して、前記表示デバイス上に、前記メディア編集ユーザインタフェース内のそれぞれの場所に、前記第1の編集可能パラメータを調整する調整可能なコントロールを表示することと、
前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、及び前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第1のジェスチャを検出することと、
前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出したことに応答して、前記第1のジェスチャに従って前記第1の編集可能パラメータの現在値を調整することと、
前記表示デバイス上に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、前記第2のアフォーダンスの選択に対応する第2のユーザ入力を検出することと、
前記第2のアフォーダンスの選択に対応する前記第2のユーザ入力を検出したことに応答して、前記メディア編集ユーザインタフェース内の前記それぞれの場所に、前記第2の編集可能パラメータを調整する調整可能なコントロールを表示することと、
前記第2の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、及び前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第2のジェスチャを検出することと、
前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第2のジェスチャを検出したことに応答して、前記第2のジェスチャに従って前記第2の編集可能パラメータの現在値を調整することと、
を含む、方法。
[項目197]
前記第1の編集可能パラメータを調整する前記調整可能なコントロールが、第1の静的部分及び第1の可変部分を含み、
前記第2の編集可能パラメータを調整する前記調整可能なコントロールが、前記第1の静的部分及び第2の可変部分を含み、
前記メディア編集ユーザインタフェース内の前記それぞれの場所に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールを表示することが、
前記表示デバイス上に、前記メディア編集ユーザインタフェース内の前記それぞれの場所に、前記第1の静的部分の表示を維持すること、
を含む、項目196に記載の方法。
[項目198]
前記第1の編集可能パラメータを調整する前記調整可能なコントロール及び前記第2の編集可能パラメータを調整する前記調整可能なコントロールが、同じ相対位置に調整されたときに1つ以上の視覚的特徴を共有する、項目196又は197に記載の方法。
[項目199]
前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出したことに応答して、前記視覚メディアの前記表現の表示を、前記第1の編集可能パラメータの前記調整された現在値に基づいて調整される前記視覚メディアの調整された表現に置き換えることと、
前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第2のジェスチャを検出したことに応答して、前記視覚メディアの前記表現の表示を、前記第2の編集可能パラメータの前記調整された現在値に基づいて調整される前記視覚メディアの調整された表現に置き換えることと、
を更に含む、項目196から198のいずれか一項に記載の方法。
[項目200]
前記第1の編集可能パラメータが自動調整編集可能パラメータであり、
前記第1のジェスチャに従って前記第1の編集可能パラメータの前記現在値を調整することが、前記第2の編集可能パラメータを含む複数の編集可能パラメータの現在値を調整することを含む、項目196から199のいずれか一項に記載の方法。
[項目201]
前記メディア編集ユーザインタフェースが複数の編集可能パラメータ現在値インジケータを含み、前記複数の編集可能パラメータ現在値インジケータが、
前記視覚メディアの前記表現の前記第2の編集可能パラメータに対応する値インジケータと、
前記視覚メディアの前記表現の第3の編集可能パラメータに対応する値インジケータと、を含み、
前記複数の編集可能パラメータの現在値を調整することが、
第3の編集可能パラメータの現在値を調整することと、
前記第2の編集可能パラメータの前記調整された現在値に基づいて、前記第2の編集可能パラメータに対応する前記値インジケータを更新することと、
前記第3の編集可能パラメータの前記調整された現在値に基づいて、前記第3の編集可能パラメータに対応する前記値インジケータを更新することと、
を含む、項目200に記載の方法。
[項目202]
前記メディア編集ユーザインタフェースが前記視覚メディアの前記表現を編集する第4の編集可能パラメータに対応する第3のアフォーダンスを含まない間に、第3のユーザ入力を検出することと、
前記第3のユーザ入力を検出したことに応答して、前記第3のアフォーダンスを表示することと、
を更に含む、項目196から201のいずれか一項に記載の方法。
[項目203]
前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示しており、かつ前記第3の入力を検出している間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを視覚的に強調しないこと、
を更に含む、項目202に記載の方法。
[項目204]
前記第1の編集可能パラメータを調整する前記調整可能なコントロールが表示されている間に、前記第3の入力が受信され、
前記第3のアフォーダンスを表示することが、
前記第4の編集可能パラメータが第1のタイプのパラメータであると満たされる基準を含む第1の1組の基準が満たされているという判定に従って、前記メディア編集ユーザインタフェース内の前記それぞれの場所に、前記第4の編集可能パラメータを調整する調整可能なコントロールを表示することと、
前記第1の1組の基準が満たされていないという判定に従って、前記メディア編集ユーザインタフェース内の前記それぞれの場所に、前記第4の編集可能パラメータを調整する前記調整可能なコントロールを表示するのをやめることと、
を含む、項目203に記載の方法。
[項目205]
前記第1のユーザ入力が前記第1のアフォーダンス上のタップ入力であり、前記第2のユーザ入力が前記第2のアフォーダンス上のタップ入力である、項目196から204のいずれか一項に記載の方法。
[項目206]
前記視覚メディア及び前記第1のアフォーダンスの前記表現を表示している間に、前記視覚メディアの前記表現が前記第1の編集可能パラメータに基づいて現在調整されているかどうかの状態を示す第1の編集可能パラメータ状態インジケータを表示することと、
前記第1のアフォーダンスの選択に対応する第4のユーザ入力を検出することと、
前記第4のユーザ入力を検出したことに応じて、
前記視覚メディアの前記表現が前記第1の編集可能パラメータに基づいて現在調整されているという判定に従って、
前記視覚メディアの前記表現が前記第1の編集可能パラメータ表示に基づいて現在調整されていないことを示すように、前記第1の編集可能パラメータ状態インジケータを更新することと、
前記視覚メディアの前記表現の表示を、前記第1の編集可能パラメータに基づいて調整されなかった前記視覚メディアの表現に置き換えることと、
前記視覚メディアの前記表現が前記第1の編集可能パラメータに基づいて現在調整されていないという判定に従って、
前記視覚メディアの前記表現が前記第1の編集可能パラメータの前記現在値に基づいて現在調整されていることを示すように、前記状態インジケータを更新することと、
視覚メディアの前記表現の表示を、前記第1の編集可能パラメータに基づいて調整された前記視覚メディアの表現に置き換えることと、
を更に含む、項目196から205のいずれか一項に記載の方法。
[項目207]
前記第1のジェスチャに従って前記第1の編集可能パラメータの前記現在値を調整することが、
前記第1の編集可能パラメータの前記現在値が前記第1の編集可能パラメータに対する所定のリセット値に対応するという判定に従って、触知出力を生成することと、
前記第1の編集可能パラメータの前記現在値が前記第1の編集可能パラメータに対する前記所定のリセット値に対応しないという判定に従って、触知出力を生成するのをやめることと、
を含む、項目196から206のいずれか一項に記載の方法。
[項目208]
前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出している間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを視覚的に強調すること、
を更に含む、項目196から207のいずれか一項に記載の方法。
[項目209]
第3の編集可能パラメータ現在値インジケータが前記第1のアフォーダンスの少なくとも一部分を視覚的に包囲し、第4の編集可能パラメータ現在値インジケータが前記第2のアフォーダンスを視覚的に包囲する、項目196から208のいずれか一項に記載の方法。
[項目210]
前記電子デバイスが1つ以上のカメラを含み、
前記視覚メディアの前記表現が前記1つ又はカメラの視野の表現であり、
照明効果及び深度効果の適用を可能にする第1のキャプチャモードで視覚メディアをキャプチャするように前記電子デバイスが構成されている間に、前記メディア編集ユーザインタフェースが表示され、
前記第1の編集可能パラメータが照明効果強度であり、
前記第2の編集可能パラメータが深度効果強度である、
項目196から199及び202から209のいずれか一項に記載の方法。
[項目211]
前記第1の編集可能パラメータが照明効果パラメータに対応し、
前記メディア編集ユーザインタフェースが前記照明効果パラメータに対応する値インジケータを含み、
前記第1のジェスチャに従って前記第1の編集可能パラメータの前記現在値を調整することが、前記第1の編集可能パラメータの前記調整された現在値に基づいて、光有効状態インジケータを調整することを含む、
項目196から199及び202から209のいずれか一項に記載の方法。
[項目212]
前記第1の編集可能パラメータが視覚フィルタ効果強度であり、
前記第1のジェスチャに従って前記第1の編集可能パラメータの前記現在値を調整することが、
視覚メディアの前記表現の表示を、前記フィルタ効果強度の前記現在値に基づいて調整された前記視覚メディアの表現に置き換えることを含む、
項目196から199及び202から209のいずれか一項に記載の方法。
[項目213]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目196から212のいずれか一項に記載の方法を行う命令を含んでいる、非一時的コンピュータ可読記憶媒体。
[項目214]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、項目196から212のいずれか一項に記載の方法を行う命令と、
を含む、電子デバイス。
[項目215]
電子デバイスであって、
表示デバイスと、
項目196から212のいずれか一項に記載の方法を行う手段と、
を備える、電子デバイス。
[項目216]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記表示デバイス上に、
視覚メディアの表現と、
前記視覚メディアの前記表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、
前記視覚メディアの前記表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、を含む、メディア編集ユーザインタフェースを表示することと、
前記メディア編集ユーザインタフェースを表示している間に、前記第1のアフォーダンスの選択に対応する第1のユーザ入力を検出することと、
前記第1のアフォーダンスの選択に対応する前記第1のユーザ入力を検出したことに応答して、前記表示デバイス上に、前記メディア編集ユーザインタフェース内のそれぞれの場所に、前記第1の編集可能パラメータを調整する調整可能なコントロールを表示することと、
前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、及び前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第1のジェスチャを検出することと、
前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出したことに応答して、前記第1のジェスチャに従って前記第1の編集可能パラメータの現在値を調整することと、
前記表示デバイス上に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、前記第2のアフォーダンスの選択に対応する第2のユーザ入力を検出することと、
前記第2のアフォーダンスの選択に対応する前記第2のユーザ入力を検出したことに応答して、前記メディア編集ユーザインタフェース内の前記それぞれの場所に、前記第2の編集可能パラメータを調整する調整可能なコントロールを表示することと、
前記第2の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、及び前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第2のジェスチャを検出することと、
前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第2のジェスチャを検出したことに応答して、前記第2のジェスチャに従って前記第2の編集可能パラメータの現在値を調整することと、の命令を含む、非一時的コンピュータ可読記憶媒体。
[項目217]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備える電子デバイスであって、前記1つ以上のプログラムが、
前記表示デバイス上に、
視覚メディアの表現と、
前記視覚メディアの前記表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、
前記視覚メディアの前記表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、を含む、メディア編集ユーザインタフェースを表示することと、
前記メディア編集ユーザインタフェースを表示している間に、前記第1のアフォーダンスの選択に対応する第1のユーザ入力を検出することと、
前記第1のアフォーダンスの選択に対応する前記第1のユーザ入力を検出したことに応答して、前記表示デバイス上に、前記メディア編集ユーザインタフェース内のそれぞれの場所に、前記第1の編集可能パラメータを調整する調整可能なコントロールを表示することと、
前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、及び前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第1のジェスチャを検出することと、
前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出したことに応答して、前記第1のジェスチャに従って前記第1の編集可能パラメータの現在値を調整することと、
前記表示デバイス上に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、前記第2のアフォーダンスの選択に対応する第2のユーザ入力を検出することと、
前記第2のアフォーダンスの選択に対応する前記第2のユーザ入力を検出したことに応答して、前記メディア編集ユーザインタフェース内の前記それぞれの場所に、前記第2の編集可能パラメータを調整する調整可能なコントロールを表示することと、
前記第2の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、及び前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第2のジェスチャを検出することと、
前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第2のジェスチャを検出したことに応答して、前記第2のジェスチャに従って前記第2の編集可能パラメータの現在値を調整することと、の命令と、
を含む、電子デバイス。
[項目218]
電子デバイスであって、
表示デバイスと、
前記表示デバイス上に、
視覚メディアの表現と、
前記視覚メディアの前記表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、
前記視覚メディアの前記表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、を含む、メディア編集ユーザインタフェースを表示する手段と、
前記メディア編集ユーザインタフェースを表示している間に、前記第1のアフォーダンスの選択に対応する第1のユーザ入力を検出する手段と、
前記第1のアフォーダンスの選択に対応する前記第1のユーザ入力を検出したことに応答して、前記表示デバイス上に、前記メディア編集ユーザインタフェース内のそれぞれの場所に、前記第1の編集可能パラメータを調整する調整可能なコントロールを表示する手段と、
前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、及び前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第1のジェスチャを検出する手段と、
前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出したことに応答して、前記第1のジェスチャに従って前記第1の編集可能パラメータの現在値を調整する手段と、
前記表示デバイス上に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、前記第2のアフォーダンスの選択に対応する第2のユーザ入力を検出する手段と、
前記第2のアフォーダンスの選択に対応する前記第2のユーザ入力を検出したことに応答して、前記メディア編集ユーザインタフェース内の前記それぞれの場所に、前記第2の編集可能パラメータを調整する調整可能なコントロールを表示する手段と、
前記第2の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、及び前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第2のジェスチャを検出する手段と、
前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第2のジェスチャを検出したことに応答して、前記第2のジェスチャに従って前記第2の編集可能パラメータの現在値を調整する手段と、
を備える、電子デバイス。
[項目219]
方法であって、
表示デバイスを有する電子デバイスで、
前記表示デバイス上に、
第1の視覚メディアの第1の表現と、
前記第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、を同時に表示することを含む第1のユーザインタフェースを表示することと、
前記表示デバイス上に、前記第1のユーザインタフェースを表示している間に、前記調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出することと、
前記調整可能なコントロールに向けられた前記ジェスチャを含む前記ユーザ入力を検出したことに応答して、
前記表示デバイス上に、前記ジェスチャの大きさに基づいて選択された前記遠近歪に対するそれぞれの調整量で前記第1の視覚メディアの第2の表現を表示することと、
を含む、方法。
[項目220]
前記第1のユーザインタフェースが、
選択されると、前記第1の視覚メディアの水平遠近歪に対する現在の調整量を示すように、前記調整可能なコントロールの前記インジケーションを更新し、かつユーザ入力に基づいて前記第1の視覚メディアの前記水平遠近歪に対する前記現在の調整量の調整を可能にするように前記調整可能なコントロールを構成する、第1のアフォーダンスと、
選択されると、前記第1の視覚メディアの垂直遠近歪に対する現在の調整量を示すように、前記調整可能なコントロールの前記インジケーションを更新し、かつユーザ入力に基づいて前記第1の視覚メディアの前記垂直遠近歪に対する前記現在の調整量の調整を可能にするように前記調整可能なコントロールを構成する、第2のアフォーダンスと、
を含む、項目219に記載の方法。
[項目221]
前記第1のアフォーダンス及び前記第2のアフォーダンスを表示している間に、選択されると、前記第1の視覚メディアの前記第1の表現内の視覚コンテンツを回転させる現在の調整量を示すように、前記調整可能なコントロールの前記インジケーションを更新する、第3のアフォーダンスを同時に表示すること、
を更に含む、項目220に記載の方法。
[項目222]
前記遠近歪が水平遠近歪に対応し、
前記第1の視覚メディアの前記第1の表現の水平遠近歪の量が、前記第1の視覚メディアの前記第2の表現の水平遠近歪の量とは異なる、
項目219から221のいずれか一項に記載の方法。
[項目223]
前記遠近歪が垂直遠近歪に対応し、
前記第1の視覚メディアの前記第1の表現の垂直遠近歪の量が、前記第1の視覚メディアの前記第2の表現の垂直遠近歪の量とは異なる、
項目219から222のいずれか一項に記載の方法。
[項目224]
前記第1の表現が、第1の実視水平線を含み、前記方法が、更に、
前記第1の視覚メディアの前記第1の表現が、前記第1の視覚メディアの前記表現内の視覚境界部に対する回転度を含む間に、前記第1の視覚メディアの前記表現の前記回転度を変化させる入力を検出することと、
前記第1の視覚メディアの前記表現の前記回転度を変化させる入力を検出したことに応答して、前記入力に基づいて判定された量だけ前記第1の視覚メディアの前記表現を回転させることと、
を含む、項目219から223のいずれか一項に記載の方法。
[項目225]
前記第1の表現が前記第1の視覚メディアの第1の視覚コンテンツを含み、前記方法が、
前記第1の視覚メディアの前記第1の表現が前記第1の視覚コンテンツを含む間に、前記第1の表現の前記コンテンツを変化させる1組の1つ以上の入力を検出することと、
前記第1の視覚メディアの前記第1の表現の前記コンテンツを変化させる前記1組の1つ以上の入力を検出したことに応答して、前記第1の視覚メディアの前記第1の視覚コンテンツとは異なる前記第1の視覚メディアの第2の視覚コンテンツを含む前記第1の視覚メディアの第4の表現を表示することと、
を含む、項目219から224のいずれか一項に記載の方法。
[項目226]
前記第1のユーザインタフェースが、自動調整アフォーダンスを含み、前記方法が、更に、
前記自動調整アフォーダンスに対応する入力を検出することと、
前記自動調整アフォーダンスに対応する前記入力を検出したことに応答して、
水平遠近歪パラメータ、垂直遠近歪パラメータ、回転パラメータからなる群より選択される、前記第1の視覚メディアの2つ以上のパラメータの現在値を自動的に調整することと、
前記2つ以上の調整されたパラメータの前記調整された現在値に基づいて、前記第1の視覚メディアの第5の表現を表示することと、
を含む、項目219から225のいずれか一項に記載の方法。
[項目227]
前記自動調整アフォーダンスを含む前記第1のユーザインタフェースを表示している間に、前記第1のユーザインタフェースとは異なる第3のユーザインタフェースを表示する要求に対応する第2の1組の1つ以上の入力を検出することと、
前記第2の1組の1つ以上の入力を検出したことに応答して、前記表示デバイス上に、第3のユーザインタフェースを表示すること、を含み、前記第3のユーザインタフェースを表示することが、
第2の視覚メディアの前記視覚コンテンツの少なくとも一部分の表現を表示することと、
前記第2の視覚メディアが前記視覚コンテンツの所定の空間的境界の外側にある追加の視覚コンテンツを含むという判定に従って、前記自動調整インタフェースを表示することと、
前記第2の視覚メディアが前記視覚コンテンツの所定の空間的境界の外側にある追加の視覚コンテンツを含まないという判定に従って、前記自動調整インタフェースを表示するのをやめることと、
を更に含む、項目226に記載の方法。
[項目228]
前記第1の視覚メディアの前記第1の表現が、前記第1の視覚メディアがキャプチャされたときにもまたキャプチャされた前記視覚コンテンツの所定の空間的境界の外側にある追加の視覚コンテンツを含まない前記第1の視覚メディアの視覚コンテンツの第1の部分の表現であり、
前記第1の視覚メディアの前記第2の表現が、前記第1の視覚メディアがキャプチャされたときにもまたキャプチャされた前記視覚コンテンツの所定の空間的境界の外側にある前記追加の視覚コンテンツの少なくとも一部分を含む、
項目219から227のいずれか一項に記載の方法。
[項目229]
前記第1の視覚メディアの前記第1の表現が、第1のアスペクト比で表示され、
前記第1のユーザインタフェースが、アスペクト比アフォーダンスを含み、
前記方法が、更に、
前記第1の視覚メディアの前記第1の表現を表示している間に、前記アスペクト比アフォーダンスに対応するユーザ入力を検出することと、
前記アスペクト比アフォーダンスに対応する前記ユーザ入力を検出したことに応答して、前記第1のアスペクト比とは異なる第2のアスペクト比で前記第1の視覚メディアの第6の表現を表示することと、
を含む、項目219から228のいずれか一項に記載の方法。
[項目230]
前記第1の視覚メディアの前記第1の表現が、第1の向きで表示され、
前記第1のアスペクト比が、第1の水平アスペクト値及び第1の垂直アスペクト値を有し、
前記第1のユーザインタフェースが、アスペクト比アフォーダンスを含み、
前記方法が、更に、
前記第1の視覚メディアの前記第1の表現を表示している間に、前記アスペクト比アフォーダンスに対応するユーザ入力を検出することと、
前記アスペクト比アフォーダンスに対応する前記ユーザ入力を検出したことに応答して、前記第1の視覚メディアの前記第1の表現を回転させることなく、前記第1のアスペクト比とは異なる第3のアスペクト比に対応する前記第1の視覚メディアの一部分を示す視覚的フィードバックを表示することと、を含み、前記第3のアスペクト比が、
前記第1の垂直アスペクト比値と等しい第2の水平アスペクト比値と、
前記第1の水平アスペクト比値と等しい第2の垂直アスペクト比値と、を有する、
項目229に記載の方法。
[項目231]
前記第1のユーザインタフェースを表示することが、
前記第1の視覚メディアが異なる時間に対応する複数のコンテンツのフレームを含むという判定に従って、前記画像の遠近歪、クロッピング、及び/又は回転を調整する1つ以上のコントロールとともに、前記第1の視覚メディアに対応するコンテンツのどのフレームが表示されるかを調整する調整可能なコントロールを表示することを含む、
項目219から230のいずれか一項に記載の方法。
[項目232]
前記第1の視覚メディアの第7の表現であって、前記第7の表現が、前記第1の視覚メディア内の第1の時間に対応する、第7の表現の第1の部分の周囲に視覚境界部が表示され、
前記方法が、更に、
前記第1の視覚メディアに対応するコンテンツのどのフレームが表示されるかを調整する前記調整可能なコントロールを表示している間に、それぞれの時間に対応する前記第1の視覚メディアの時間ベースの表現を選択する要求を検出することと、
それぞれの時間に対応する前記第1の視覚メディアの前記時間ベースの表現を選択する前記要求を検出したことに応答して、
前記第1の視覚メディア内の第2の時間に対応する前記第1の視覚メディアの第8の表現を表示することと、
前記第1の視覚メディアの前記第8の表現の第1の部分の周囲に表示される視覚境界部の表示を維持することと、を含む、項目231に記載の方法。
それぞれの時間に対応する前記第1の視覚メディアの時間ベースの表現を選択する前記調整可能なコントロールが、前記表示デバイス上のそれぞれの場所に表示される、項目15に記載の方法。
[項目233]
前記第1の視覚メディアの前記第1の表現が、第1のズームレベルで表示され、前記方法が、更に、
前記第1の視覚メディアの前記第1の表現を表示している間に、前記第1の視覚メディアの表現のズームレベルを変更する要求を検出することと、
前記第1の視覚メディアの前記表現の前記ズームレベルを変更する前記要求を検出したことに応答して、前記第1のズームレベルとは異なる第2のズームレベルで前記第1の視覚メディアの第9の表現を表示することと、を含む、
項目219から232のいずれか一項に記載の方法。
[項目234]
前記第1の視覚メディアの前記第1の表現が、カメラレンズの形状及び/又は前記カメラの位置に基づく遠近歪を含み、
前記第1の視覚メディアの前記第2の表現が、カメラレンズの形状及び/又は前記カメラの位置に基づく前記遠近歪を低減するように調整される、
項目219から233のいずれか一項に記載の方法。
[項目235]
前記調整可能なコントロールが、遠近歪を補正するコントロールに対応し、
前記方法が、更に、
前記調整可能なコントロールに向けられた前記ジェスチャを含む前記ユーザ入力を検出したことに応答して、前記調整可能なコントロールに向けられた前記ジェスチャの方向及び/又は大きさに従って、遠近歪に対する補正量を更新することを含む、
項目219から234のいずれか一項に記載の方法。
[項目236]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目219から235のいずれか一項に記載の方法を行う命令を含んでいる、非一時的コンピュータ可読記憶媒体。
[項目237]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、項目219から235のいずれか一項に記載の方法を行う命令を含む、電子デバイス。
[項目238]
電子デバイスであって、
表示デバイスと、
項目219から235のいずれか一項に記載の方法を行う手段と、
を備える、電子デバイス。
[項目239]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記表示デバイス上に、
第1の視覚メディアの第1の表現と、
前記第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、を同時に表示することを含む第1のユーザインタフェースを表示することと、
前記表示デバイス上に、前記第1のユーザインタフェースを表示している間に、前記調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出することと、
前記調整可能なコントロールに向けられた前記ジェスチャを含む前記ユーザ入力を検出したことに応答して、
前記表示デバイス上に、前記ジェスチャの大きさに基づいて選択された前記遠近歪に対するそれぞれの調整量で前記第1の視覚メディアの第2の表現を表示することと、
の命令を含む、非一時的コンピュータ可読記憶媒体。
[項目240]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備える電子デバイスであって、前記1つ以上のプログラムが、
前記表示デバイス上に、
第1の視覚メディアの第1の表現と、
前記第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、を同時に表示することを含む第1のユーザインタフェースを表示することと、
前記表示デバイス上に、前記第1のユーザインタフェースを表示している間に、前記調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出することと、
前記調整可能なコントロールに向けられた前記ジェスチャを含む前記ユーザ入力を検出したことに応答して、
前記表示デバイス上に、前記ジェスチャの大きさに基づいて選択された前記遠近歪に対するそれぞれの調整量で前記第1の視覚メディアの第2の表現を表示することと、
の命令を含む、電子デバイス。
[項目241]
電子デバイスであって、
表示デバイスと、
前記表示デバイス上に、
第1の視覚メディアの第1の表現と、
前記第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、を同時に表示することを含む第1のユーザインタフェースを表示する手段と、
前記表示デバイス上に、前記第1のユーザインタフェースを表示している間に、前記調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出する手段と、
前記調整可能なコントロールに向けられた前記ジェスチャを含む前記ユーザ入力を検出したことに応答して、
前記表示デバイス上に、前記ジェスチャの大きさに基づいて選択された前記遠近歪に対するそれぞれの調整量で前記第1の視覚メディアの第2の表現を表示する手段と、
を備える、電子デバイス。
[項目242]
方法であって、
表示デバイスを有する電子デバイスで、
前記表示デバイスを介して、
前記1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、
低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、を含み、前記コントロールを表示することが、
1組の第1のキャプチャ持続時間基準が満たされているという判定に従って、
前記コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、前記第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように前記電子デバイスを構成することと、
前記1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているという判定に従って、
前記コントロールが前記第1のキャプチャ持続時間より長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応答して、前記第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を含む、方法。
[項目243]
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求を受信することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求を受信したことに応答して、
前記第1のキャプチャ持続時間にわたって前記第1の複数の画像をキャプチャするように前記電子デバイスが構成されているという判定に従って、前記第1のキャプチャ持続時間にわたって前記第1の複数の画像をキャプチャすることと、
前記第2のキャプチャ持続時間にわたって前記第2の複数の画像をキャプチャするように前記電子デバイスが構成されているという判定に従って、前記第2のキャプチャ持続時間にわたって前記第2の複数の画像をキャプチャすることと、
を更に含む、項目242に記載の方法。
[項目244]
前記第1の複数の画像内の画像の量が、前記第2の複数の画像内の画像の前記量とは異なる、項目243に記載の方法。
[項目245]
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求を受信したことに応答して、及び前記第1のキャプチャ持続時間にわたって前記第1の複数の画像をキャプチャするように前記電子デバイスが構成されているという前記判定に従って、前記第1の複数の画像のうちの少なくともいくらかのコンテンツを含む第1の合成画像を生成することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求を受信したことに応答して、及び前記第2のキャプチャ持続時間にわたって前記第2の複数の画像をキャプチャするように前記電子デバイスが構成されているという前記判定に従って、前記第2の複数の画像のうちの少なくともいくらかのコンテンツを含む第2の合成画像を生成することと、
を更に含む、項目243又は244に記載の方法。
[項目246]
前記コントロールが、前記第1のキャプチャ持続時間に設定されているという前記インジケーションを表示している間に、前記電子デバイスの第1の安定度を検出することと、
前記電子デバイスの前記第1の安定度を検出したことに応答して、
前記電子デバイスの前記第1の安定度が、第1の安定性閾値を上回るという判定に従って、
前記コントロールが、前記第1のキャプチャ持続時間より長い第3のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応答して、前記第3のキャプチャ持続時間にわたって第3の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を更に含む、項目242から245のいずれか一項に記載の方法。
[項目247]
前記低光カメラモードがアクティブである間に、前記低光キャプチャモードの状態を示し、かつ
キャプチャ持続時間表示基準が満たされているという判定に従って、前記第1のキャプチャ持続時間の視覚表現を含み、
持続時間表示基準が満たされていないという判定に従って、前記第1のキャプチャ持続時間の前記視覚表現を含まない、第1の低光キャプチャ状態インジケータを表示すること、
を更に含む、項目242から246のいずれか一項に記載の方法。
[項目248]
前記キャプチャ持続時間表示基準が、前記1つ以上のカメラの前記視野内の周辺光が第1の所定の範囲内にあると満たされる基準を含む、項目247に記載の方法。
[項目249]
前記低光カメラモードがアクティブである前に、
前記1つ以上のカメラの前記視野内の周辺光が第2の所定の範囲内にあるという判定に従って、前記低光キャプチャモードの状態がアクティブであることを示し、第3のキャプチャ持続時間の視覚表現を含む第2の低光キャプチャ状態インジケータを表示することと、
前記1つ以上のカメラの前記視野内の周辺光が第4の所定の範囲内にあるという判定に従って、前記低光キャプチャモードの状態がアクティブであることを示し、前記第3のキャプチャ持続時間の前記視覚表現を含まない第3の低光キャプチャ状態インジケータを表示することと、
前記1つ以上のカメラの前記視野内の周辺光が第5の所定の範囲内にあるという判定に従って、前記低光キャプチャモードの状態が利用可能であることを示す第4の低光キャプチャ状態インジケータを表示することであって、前記第2の低光キャプチャ状態インジケータと、前記第3の低光キャプチャ状態インジケータと、前記第4の低光キャプチャ状態インジケータとが、互いに視覚的に異なる、表示することと、
前記1つ以上のカメラの前記視野内の周辺光が第6の所定の範囲内にあるという判定に従って、前記第2の低光キャプチャ状態インジケータと、前記第3の低光キャプチャ状態インジケータと、前記第4の低光キャプチャ状態インジケータと、を表示するのをやめることと、
を更に含む、項目242から248のいずれか一項に記載の方法。
[項目250]
メディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールが、
第1の推奨されるキャプチャ持続時間値に対応する第1の状態と、
第2の推奨されるキャプチャ持続時間値に対応する第2の状態と、
第3の推奨されるキャプチャ持続時間値に対応する第3の状態と、を調整可能なように構成されている、
項目242から249のいずれか一項に記載の方法。
[項目251]
メディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールを表示することが、
1組の第1のキャプチャ持続時間基準の判定に従って、前記第2の状態に調整されたメディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールを表示することであって、前記第1のキャプチャ持続時間が前記第2の推奨されるキャプチャ持続時間値である、表示することと、
1組の第2のキャプチャ持続時間基準の判定に従って、前記第2の状態に調整されたメディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールを表示することであって、前記第2のキャプチャ持続時間が、前記第2の推奨されるキャプチャ持続時間値である、表示することと、
を含む、項目250に記載の方法。
[項目252]
メディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールを表示することが、
メディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールが前記第3の状態にあるとの前記判定、及び前記1組の第1のキャプチャ持続時間基準が満たされているという判定に従って、前記第3の推奨されるキャプチャ持続時間値が、第3のキャプチャ持続時間値であり、
メディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールが前記第3の状態にあるとの前記判定、及び前記1組の第2のキャプチャ持続時間基準が満たされているという判定に従って、前記第3の推奨されるキャプチャ持続時間値が、前記第3のキャプチャ持続時間値とは異なる第4のキャプチャ持続時間値であることを含む、
項目250又は251に記載の方法。
[項目253]
前記第2のキャプチャ持続時間値が第5のキャプチャ持続時間値であり、前記第3の推奨されるキャプチャ持続時間値が第6のキャプチャ値であり、前記方法が、更に、
メディアをキャプチャするキャプチャ持続時間を調整する前記コントロールを表示している間に、前記電子デバイスの現在の条件の第1の変化を検出することと、
前記電子デバイスの現在の条件の前記第1の変化を検出したことに応答して、
第1の現在の条件が第3のキャプチャ持続時間基準を満たすという判定に従って、
前記第5のキャプチャ持続時間が第7のキャプチャ持続時間とは異なる、前記第2の推奨されるキャプチャ持続時間値から第7のキャプチャ持続時間と、
第8のキャプチャ持続時間が前記第6のキャプチャ持続時間とは異なる、前記第3の推奨されるキャプチャ持続時間値から第8のキャプチャ持続時間と、のうちの少なくとも1つを変更することと、
を含む、項目250から252のいずれか一項に記載の方法。
[項目254]
前記1組の第1のキャプチャ持続時間基準が、
前記1つ以上のカメラの前記視野内で検出された周辺光と、
前記1つ以上のカメラの前記視野内で検出された移動と、
前記電子デバイスの第2の安定度と、からなる群から選択される1つ以上のパラメータに基づく基準と、
を含む、項目250から253のいずれか一項に記載の方法。
[項目255]
前記メディアキャプチャユーザインタフェースを表示することが、前記1つ以上のカメラの前記視野の前記表現と同時に、メディアをキャプチャするアフォーダンスを表示することを含み、前記方法が、更に、
メディアをキャプチャする前記アフォーダンスを表示し、かつ前記コントロールが第3のキャプチャ持続時間に設定されているという前記インジケーションを表示している間に、メディアをキャプチャする前記アフォーダンスの選択を含む第1の入力を検出することであって、メディアをキャプチャする前記アフォーダンスの選択が、前記1つ以上のカメラの前記視野に対応する画像をキャプチャする前記単一の要求に対応する、検出することと、
メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応答して、前記第1のキャプチャ持続時間にわたって第4の複数の画像のキャプチャを開始することと、
を含む、項目250から254のいずれか一項に記載の方法。
[項目256]
前記コントロールが前記第3のキャプチャ持続時間に設定されているという前記インジケーションが、第1のインジケーションであり、
前記第1のインジケーションが、前記第3のキャプチャ持続時間に対応する前記コントロール上の第1の位置に表示され、
前記方法が、更に、
メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応答して、前記コントロール上の前記第1の位置から前記コントロール上の第2の位置へと前記第1のインジケーションを動かすアニメーションを表示することと、
前記第2の位置に前記第1のインジケーションを表示したことに応答して、前記コントロール上の前記第1の位置に前記第1のインジケーションを再表示することと、
を含む、項目255に記載の方法。
[項目257]
前記コントロールが前記第3のキャプチャ持続時間に設定されているという前記インジケーションが、第2のインジケーションであり、
前記第2のインジケーションが、前記第3のキャプチャ持続時間に対応する前記コントロール上の第3の位置に表示され、
前記方法が、更に、
メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応答して、
前記コントロール上の前記第3の位置から前記コントロール上の第4の位置へと前記第2のインジケーションを動かすアニメーションを表示することと、
前記アニメーションを表示している間に、前記電子デバイスの現在の条件の第2の変化を検出することと、
前記条件の第2の変化を検出したことに応答して、
第2の現在の条件が第4のキャプチャ持続時間基準を満たすという判定に従って、及び前記第4の位置に前記第1のインジケーションを表示したことに応答して、前記第3のキャプチャ持続時間とは異なる第4のキャプチャ持続時間に対応する前記コントロール上の第5の位置に前記第2のインジケーションを表示することと、
を含む、項目256に記載の方法。
[項目258]
前記メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応答して、メディアをキャプチャする前記アフォーダンスの視覚外観を変更すること、
を更に含む、項目255から257のいずれか一項に記載の方法。
[項目259]
前記メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応答して、前記メディアをキャプチャする前記アフォーダンスの表示を、前記メディアをキャプチャする前記アフォーダンスと視覚的に異なる、メディアのキャプチャを終了するアフォーダンスの表示に置き換えること、
を更に含む、項目255から258のいずれか一項に記載の方法。
[項目260]
前記メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応答して、前記表示デバイスを介して、前記メディアのキャプチャが開始されたときの前記電子デバイスのポーズと、メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスのポーズとの間の差の視覚インジケーションを表示すること、
を更に含む、項目255から259のいずれか一項に記載の方法。
[項目261]
前記第1のキャプチャ持続時間にわたる前記第1の複数の画像のキャプチャを開始した後に、及び前記第1のキャプチャ持続時間にわたる前記第1の複数の画像のキャプチャの終了を検出する前に、
前記第1のキャプチャ持続時間が閾値を上回るという判定に従って、1つ以上の低光モードアニメーションを表示することと、
前記第1のキャプチャ持続時間が閾値を上回らないという判定に従って、前記1つ以上の低光モードアニメーションを表示するのをやめることと、
を更に含む、項目255に記載の方法。
[項目262]
前記メディアをキャプチャしている間に、
前記第1のキャプチャ持続時間にわたる前記第1の複数の画像のキャプチャを開始した後の第1の時間において、前記第1の時間の前に前記1つ以上のカメラによってキャプチャされた複数の画像からの少なくともいくつかのコンテンツに基づく第3の合成画像の表現を表示することと、
前記第1のキャプチャ持続時間にわたる前記第1の複数の画像のキャプチャを開始した後の第2の時間において、前記第2の時間の前に前記1つ以上のカメラによってキャプチャされた複数の画像からの少なくともいくつかのコンテンツに基づく第4の合成画像の表現を表示することと、を含み、
前記第1の時間が前記第2の時間とは異なり、
前記第3の合成画像の前記表現が、前記第4の合成画像の前記表現と視覚的に区別されること、
を更に含む、項目242から261のいずれか一項に記載の方法。
[項目263]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目242から262のいずれか一項に記載の方法を行う命令を含んでいる、非一時的コンピュータ可読記憶媒体。
[項目264]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、項目242から262のいずれか一項に記載の方法を行う命令を含む、電子デバイス。
[項目265]
電子デバイスであって、
表示デバイスと、
項目242から262のいずれか一項に記載の方法を行う手段と、
を備える、電子デバイス。
[項目266]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記表示デバイスを介して、
前記1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、
低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、の命令を含み、前記コントロールを表示することが、
1組の第1のキャプチャ持続時間基準が満たされているという判定に従って、
前記コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、前記第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように前記電子デバイスを構成することと、
前記1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているという判定に従って、
前記コントロールが前記第1のキャプチャ持続時間より長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応答して、前記第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように前記電子デバイスを構成することと、を含む、非一時的コンピュータ可読記憶媒体。
[項目267]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備える電子デバイスであって、前記1つ以上のプログラムが、
前記表示デバイスを介して、
前記1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、
低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、の命令を含み、前記コントロールを表示することが、
1組の第1のキャプチャ持続時間基準が満たされているという判定に従って、
前記コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、前記第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように前記電子デバイスを構成することと、
前記1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているという判定に従って、
前記コントロールが前記第1のキャプチャ持続時間より長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応答して、前記第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を含む、電子デバイス。
[項目268]
電子デバイスであって、
表示デバイスと、
前記表示デバイスを介して、
前記1つ以上のカメラの視野の表現を表示する手段を含むメディアキャプチャユーザインタフェースを表示する手段と、
低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示する手段と、を備え、前記コントロールを表示することが、
1組の第1のキャプチャ持続時間基準が満たされているという判定に従って、
前記コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、前記第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように前記電子デバイスを構成することと、
前記1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているという判定に従って、
前記コントロールが前記第1のキャプチャ持続時間より長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応答して、前記第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を含む、電子デバイス。
[項目269]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスで、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示することと、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応答して、前記1つ以上のカメラを介して、メディアのキャプチャを開始することと、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、
低光モードがアクティブであると満たされる基準を含む、1組のガイダンス基準が満たされているという判定に従って、前記表示デバイスを介して、前記メディアのキャプチャが開始されたときの前記電子デバイスのポーズと、メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスのポーズとの差の視覚インジケーションを表示することと、
を含む、方法。
[項目270]
前記1組のガイダンス基準が、閾値持続時間を上回る第1のキャプチャ持続時間にわたって複数の画像をキャプチャするように前記電子デバイスが構成されていると満たされる基準を含む、項目269に記載の方法。
[項目271]
前記視覚インジケーションが、
前記メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズを表す第1の1組の1つ以上の形状であって、前記第1の1組の1つ以上の形状が、前記メディアキャプチャユーザインタフェース上の第1の位置に表示される、第1の1組の1つ以上の形状と、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの前記ポーズを表す第2の1組の1つ以上の形状であって、前記第2の1組の1つ以上の形状が、第2の位置に表示される、第2の1組の1つ以上の形状と、を含む形状の組を含む、
項目269から270のいずれか一項に記載の方法。
[項目272]
前記第1の1組の1つ以上の形状が、第1の色を含み、
前記第2の1組の1つ以上の形状が、前記第1の色とは異なる第2の色を含む、
項目271に記載の方法。
[項目273]
キャプチャを開始した後の第2の時間において、前記電子デバイスのポーズの変化を検出することと、
前記電子デバイスの前記ポーズの前記変化を検出したことに応答して、前記メディアカメラユーザインタフェース上の前記第2の位置とは異なる前記メディアカメラユーザインタフェース上の第3の位置に前記第2の1組の1つ以上の形状を表示することと、
を更に含む、項目271又は272に記載の方法。
[項目274]
前記電子デバイスの前記ポーズの前記変化を検出したことに応答して、
前記第1の1組の1つ以上の形状の前記第1の位置と、前記第2の1組の1つ以上の形状の第3の位置との間の差が、第1の閾値差内にあるという判定に従って、前記第1の1組の1つ以上の形状又は前記第2の1組の1つ以上の形状のうちの少なくとも1つをやめることと、
前記第1の1組の1つ以上の形状の前記第1の位置と、前記第2の1組の1つ以上の形状の第3の位置との間の差が、第1の閾値差内にないという判定に従って、前記第1の1組の1つ以上の形状又は前記第2の1組の1つ以上の形状の表示を維持することと、
を更に含む、項目271から273のいずれか一項に記載の方法。
[項目275]
キャプチャを開始した後の第2の時間において、前記電子デバイスのポーズの変化を検出することと、
前記電子デバイスの前記ポーズの前記変化を検出したことに応答して、
前記メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと、前記メディアのキャプチャを開始した後の前記第2の時間における前記電子デバイスのポーズとの間の差が、第2の閾値差内にあるという判定に従って、触知出力を生成することと、
前記メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと、メディアのキャプチャを開始した後の前記第2の時間における前記電子デバイスのポーズとの間の差が、第2の閾値差内にないという判定に従って、前記触知出力を生成するのをやめることと、
を更に含む、項目269から274のいずれか一項に記載の方法。
[項目276]
1組のガイダンス基準が満たされているという判定に従って、
メディアをキャプチャしている間に、前記電子デバイスを安定化させる要求に対応する表現を表示すること、
を更に含む、項目269から275のいずれか一項に記載の方法。
[項目277]
前記1組のガイダンス基準が満たされていないという判定に従って、前記表示デバイスを介して、前記差の前記視覚インジケーションを表示するのをやめること、
を更に含む、項目269から276のいずれか一項に記載の方法。
[項目278]
前記視覚インジケーションが前記第1の時間に表示され、前記方法が、更に、
前記第1の時間とは異なる第3の時間において、前記メディアの前記キャプチャの終了を検出することと、
前記メディアの前記キャプチャの前記終了を検出したことに応答して、前記表示デバイスを介して、前記視覚インジケーションを表示するのをやめることと、
を含む、項目269から277のいずれか一項に記載の方法。
[項目279]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目269から278のいずれか一項に記載の方法を行う命令を含んでいる、非一時的コンピュータ可読記憶媒体。
[項目280]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、項目269から278のいずれか一項に記載の方法を行う命令を含む、電子デバイス。
[項目281]
電子デバイスであって、
表示デバイスと、
項目269から278のいずれか一項に記載の方法を行う手段と、
を備える、電子デバイス。
[項目282]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記表示デバイスを介して、
前記1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、
低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、の命令を含み、前記コントロールを表示することが、
1組の第1のキャプチャ持続時間基準が満たされているという判定に従って、
前記コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、前記第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように前記電子デバイスを構成することと、
前記1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているという判定に従って、
前記コントロールが前記第1のキャプチャ持続時間より長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応答して、前記第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を含む、非一時的コンピュータ可読記憶媒体。
[項目283]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備える電子デバイスであって、前記1つ以上のプログラムが、
前記表示デバイスを介して、
前記1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、
低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、の命令を含み、前記コントロールを表示することが、
1組の第1のキャプチャ持続時間基準が満たされているという判定に従って、
前記コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、前記第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように前記電子デバイスを構成することと、
前記1組の第1のキャプチャ持続時間基準とは異なる前記1組の第2のキャプチャ持続時間基準が満たされているという判定に従って、
前記コントロールが前記第1のキャプチャ持続時間より長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応答して、前記第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を含む、電子デバイス。
[項目284]
電子デバイスであって、
表示デバイスと、
前記表示デバイスを介して、
前記1つ以上のカメラの視野の表現を表示する手段を含むメディアキャプチャユーザインタフェースを表示する手段と、
低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示する手段と、を備え、前記コントロールを表示することが、
1組の第1のキャプチャ持続時間基準が満たされているという判定に従って、
前記コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、前記第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように前記電子デバイスを構成することと、
前記1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているという判定に従って、
前記コントロールが前記第1のキャプチャ持続時間より長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応答して、前記第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を含む、電子デバイス。
[項目285]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスで、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
前記1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、
前記第1の領域の外側にあり、前記第1の領域と視覚的に区別される第2の領域であって、
前記1つ以上のカメラの前記視野内の第1のそれぞれのオブジェクトが前記1つ以上のカメラから第1の距離であると満たされる基準を含む、1組の第1のそれぞれの基準が満たされているという判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の第2の部分を第1の視覚外観で表示することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第2の距離であると満たされる基準を含む、1組の第2のそれぞれの基準が満たされているという判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示するのをやめることと、を含む、第2の領域と、を含む、カメラユーザインタフェースを表示すること、
を含む、方法。
[項目286]
前記第2の領域が、複数のカメラ設定を制御する複数のコントロールアフォーダンスを含む、項目285に記載の方法。
[項目287]
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトに焦点を合わせるように前記電子デバイスが構成され、前記方法が、更に、
前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示している間に、前記電子デバイスの焦点設定を調整する第1の要求を受信することと、
前記電子デバイスの前記焦点設定を調整する前記第1の要求を受信したことに応答して、前記1つ以上のカメラの前記視野内の第2のそれぞれのオブジェクトに焦点を合わせるように前記電子デバイスを構成することと、
前記1つ以上のカメラの前記視野内の前記第2のそれぞれのオブジェクトに焦点を合わせるように前記電子デバイスが構成されている間に、
前記1つ以上のカメラの前記視野内の前記第2のそれぞれのオブジェクトが前記1つ以上のカメラからの第3の距離であると満たされる基準を含む、1組の第3のそれぞれの基準が満たされているという判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示するのをやめることと、
を含む、項目285又は286に記載の方法。
[項目288]
前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示している間に、前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトと前記1つ以上のカメラとの間の距離の第1の変化を検出することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトと前記1つ以上のカメラとの間の距離の前記第1の変化を検出したことに応答して、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第4の距離であると満たされる基準を含む、1組の第4のそれぞれの基準が満たされているという判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示するのをやめることと、
を更に含む、項目285から287のいずれか一項に記載の方法。
[項目289]
前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示するのをやめることが、
前記第2の領域内に、前記第2の領域内に以前に表示された前記1つ以上のカメラの前記視野の第3の部分のうちの少なくともいくらかの表示を停止すること、
を含む、項目285から288のいずれか一項に記載の方法。
[項目290]
前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示するのをやめることが、前記第2の領域に重ねられた第1の黒化層の不透明度を増大させることを含む、項目285から289のいずれか一項に記載の方法。
[項目291]
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトに焦点を合わせるように前記電子デバイスが構成され、前記方法が、更に、
前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示していない間に、前記電子デバイスの焦点設定を調整する第2の要求を受信することと、
前記電子デバイスの前記焦点設定を調整する前記第2の要求を受信したことに応答して、前記1つ以上のカメラの前記視野内の第3のそれぞれのオブジェクトに焦点を合わせるように前記電子デバイスを構成することと、
前記1つ以上のカメラの前記視野内の前記第3のそれぞれのオブジェクトに焦点を合わせるように前記電子デバイスが構成されている間に、
前記1つ以上のカメラの前記視野内の前記第3のそれぞれのオブジェクトが前記1つ以上のカメラから第5の距離であると満たされる基準を含む、1組の第5のそれぞれの基準が満たされているという判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することと、
を含む、項目285から290のいずれか一項に記載の方法。
[項目292]
前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示していない間に、前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトと前記1つ以上のカメラとの間の距離の第2の変化を検出することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトと前記1つ以上のカメラとの間の前記距離の前記第2の変化を検出したことに応答して、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第6の距離であると満たされる基準を含む、前記1組の第6のそれぞれの基準が満たされているという判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することと、
を更に含む、項目285から291のいずれか一項に記載の方法。
[項目293]
前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することが、前記第2の領域内に、前記第2の領域内に以前に表示されなかった前記1つ以上のカメラの前記視野の第4の部分を表示することを含む、項目285から292のいずれか一項に記載の方法。
[項目294]
前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することが、前記第2の領域に重ねられた第2の黒化層の前記不透明度を減少させることを含む、項目285から293のいずれか一項に記載の方法。
[項目295]
前記第1の視覚外観が、第1の視覚プロミネンスを含み、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することが、
前記1つ以上のカメラの前記視野の前記第2の部分を第2の視覚外観から前記第1の視覚外観に徐々に遷移させるアニメーションを表示することを含み、前記第2の視覚外観が、前記第1の視覚プロミネンスとは異なる第2の視覚プロミネンスを有する、
項目285から294のいずれか一項に記載の方法。
[項目296]
前記第1の部分が、前記第1の視覚外観とは異なる第3の視覚外観で表示され、
前記方法が、更に、
前記第1の部分が、前記第3の視覚外観で表示され、かつ前記1つ以上のカメラの前記視野の前記第2の部分が、前記第1の視覚外観で表示されることを表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応答して、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャすることであって、前記メディアが、前記1つ以上のカメラの前記視野の前記第1の部分からのコンテンツ及び前記1つ以上のカメラの前記視野の前記第2の部分からのコンテンツを含む、メディアをキャプチャすることと、
前記1つ以上のカメラの前記視野に対応する前記メディアをキャプチャした後に、前記1つ以上のカメラの前記視野の前記第1の部分からのコンテンツ及び前記1つ以上のカメラの前記視野の前記第2の部分からのコンテンツを含む、前記メディアの表現を表示することと、
を含む、項目285に記載の方法。
[項目297]
前記第2の領域の少なくとも第1の部分が、前記第1の領域の上方にある、項目285から296のいずれか一項に記載の方法。
[項目298]
前記第2の領域の少なくとも第2の部分が、前記第2の領域の下方にある、項目285から297のいずれか一項に記載の方法。
[項目299]
前記カメラユーザインタフェース上の場所で入力を受信することと、
前記カメラユーザインタフェース上の前記場所で前記入力を受信したことに応答して、
前記入力の前記場所が前記第1の領域内にあるという判定に従って、前記入力の前記場所に焦点を合わせるように前記電子デバイスを構成することと、
前記入力の前記場所が前記第2の領域内にあるという判定に従って、前記入力の前記場所に焦点を合わせるように前記電子デバイスを構成するのをやめることと、
を更に含む、項目285から298のいずれか一項に記載の方法。
[項目300]
前記第1の外観で表示されると、前記第2の領域が前記第1の領域と視覚的に区別される、項目285から299のいずれか一項に記載の方法。
[項目301]
前記1組の第1のそれぞれの基準が、前記第1のそれぞれのオブジェクトが前記1つ以上のカメラの前記視野内で識別された最も近いオブジェクトであると満たされる基準を含む、項目285から300のいずれか一項に記載の方法。
[項目302]
前記1組の第1のそれぞれの基準が、前記第1のそれぞれのオブジェクトが前記1つ以上のカメラの前記視野内の焦点の場所にあると満たされる基準を含む、項目285から301のいずれか一項に記載の方法。
[項目303]
前記第1の領域が、境界部によって前記第2の領域から分離され、
前記1組の第1のそれぞれの基準が、前記境界部に隣接する検出された視覚的引裂きが視覚的引裂きの閾値レベルを上回ると満たされる基準を含む、項目285から302のいずれか一項に記載の方法。
[項目304]
前記1組の第1のそれぞれの基準が、前記1つ以上のカメラの前記視野の前記第1の部分が第1のカメラの視野の一部分であると満たされる基準を含み、
前記1組の第2のそれぞれの基準が、前記1つ以上のカメラの前記視野の前記第2の部分が第2のカメラの視野の一部分であると満たされる基準を含む、項目285から303のいずれか一項に記載の方法。
[項目305]
前記1つ以上のカメラの前記視野の前記第2の部分を第1の視覚外観で表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応答して、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャすることであって、前記メディアが、前記1つ以上のカメラの前記視野の前記第1の部分からのコンテンツ及び前記1つ以上のカメラの前記視野の前記第2の部分からのコンテンツを含む、メディアをキャプチャすることと、
前記メディアをキャプチャした後に、前記キャプチャされたメディアを編集する要求を受信することと、
前記キャプチャされたメディアを編集する前記要求を受信したことに応答して、前記1つ以上のカメラの前記視野の前記第1の部分からの前記コンテンツのうちの少なくともいくらか及び前記1つ以上のカメラの前記視野の前記第2の部分からの前記コンテンツのうちの少なくともいくらかを含む、前記キャプチャされたメディアの表現を表示することと、
を更に含む、項目285から304のいずれか一項に記載の方法。
[項目306]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目285から305のいずれか一項に記載の方法を行う命令を含んでいる、非一時的コンピュータ可読記憶媒体。
[項目307]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、項目285から305のいずれか一項に記載の方法を行う命令と、
を含む、電子デバイス。
[項目308]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
項目285から305のいずれか一項に記載の方法を行う手段と、
を備える、電子デバイス。
[項目309]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
前記1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、
前記第1の領域の外側にあり、前記第1の領域と視覚的に区別される第2の領域であって、
前記1つ以上のカメラの前記視野内の第1のそれぞれのオブジェクトが前記1つ以上のカメラから第1の距離であると満たされる基準を含む、1組の第1のそれぞれの基準が満たされているという判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の第2の部分を第1の視覚外観で表示することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第2の距離であると満たされる基準を含む、1組の第2のそれぞれの基準が満たされているという判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示するのをやめることと、を含む、第2の領域と、を含む、カメラユーザインタフェースを表示することの命令を含む、
非一時的コンピュータ可読記憶媒体。
[項目310]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備える電子デバイスであって、前記1つ以上のプログラムが、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
前記1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、
前記第1の領域の外側にあり、前記第1の領域と視覚的に区別される第2の領域であって、
前記1つ以上のカメラの前記視野内の第1のそれぞれのオブジェクトが前記1つ以上のカメラから第1の距離であると満たされる基準を含む、1組の第1のそれぞれの基準が満たされているという判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の第2の部分を第1の視覚外観で表示することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第2の距離であると満たされる基準を含む、1組の第2のそれぞれの基準が満たされているという判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示するのをやめることと、を含む、第2の領域と、を含む、カメラユーザインタフェースを表示することの命令と、
を含む、電子デバイス。
[項目311]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースが、
前記1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、
前記第1の領域の外側にあり、前記第1の領域と視覚的に区別される第2の領域であって、
前記1つ以上のカメラの前記視野内の第1のそれぞれのオブジェクトが前記1つ以上のカメラから第1の距離であると満たされる基準を含む、1組の第1のそれぞれの基準が満たされているという判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の第2の部分を第1の視覚外観で表示することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第2の距離であると満たされる基準を含む、1組の第2のそれぞれの基準が満たされているという判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示するのをやめることと、を含む、第2の領域と、を含む、カメラユーザインタフェースを表示する手段と、
を備える、電子デバイス。
[項目312]
方法であって、
表示デバイスと、視野を有する第1のカメラと、前記第1のカメラの前記視野よりも広い視野を有する第2のカメラとを有する電子デバイスで、
前記表示デバイスを介して、第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
前記第1のズームレベルで前記第1のカメラの前記視野の第1の部分の表現を含む第1の領域と、
前記第1のズームレベルで前記第2のカメラの前記視野の第1の部分の表現を含む第2の領域と、を含む、カメラユーザインタフェースを表示することと、
前記表示デバイスを介して、前記第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の前記表現を含む前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野の前記部分の前記表現の前記ズームレベルを第2のズームレベルまで上げる第1の要求を受信することと、
前記1つ以上のカメラの前記視野の前記部分の前記表現の前記ズームレベルを第2のズームレベルまで上げる前記第1の要求を受信したことに応答して、
前記第1の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第1の部分の少なくとも1つのサブセット除外する前記第1のカメラの前記視野の第2の部分の表現を表示することと、
前記第2の領域において、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットと重なる前記第2のカメラの前記視野の第2の部分の表現を表示することと、
を含む、方法。
[項目313]
前記第2のカメラの前記視野の前記第1の部分が、前記第2のカメラの前記視野の前記第2の部分とは異なる、項目312に記載の方法。
[項目314]
前記第1の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第2の部分の前記表現を表示し、かつ前記第2の領域において、前記第2のズームレベルで、前記第2のカメラの前記視野の前記第2の部分の前記表現を表示している間に、前記1つ以上のカメラの前記視野の前記部分の前記表現の前記ズームレベルを第3のズームレベルまで上げる第2の要求を受信することと、
前記1つ以上のカメラの前記視野の前記部分の前記表現の前記ズームレベルを前記第3のズームレベルまで上げる前記第2の要求を受信したことに応答して、
前記第3のズームレベルが第1のズーム値範囲内にあるという判定に従って、
前記第1の領域において、前記第3のズームレベルで、前記第1のカメラの前記視野の第3の部分の表現を表示することと、
前記第2の領域において、前記第3のズームレベルで、前記第1のカメラの前記視野の第4の部分の表現を表示することと、
を更に含む、項目312又は313に記載の方法。
[項目315]
前記第1の領域において、前記第3のズームレベルで、前記第1のカメラの前記視野の前記第3の部分の前記表現を表示し、かつ前記第2の領域において、前記第3のズームレベルで、前記第1のカメラの前記視野の前記第4の部分の前記表現を表示している間に、前記1つ以上のカメラの前記視野の前記部分の前記表現の前記ズームレベルを第4のズームレベルまで上げる第3の要求を受信することと、
前記1つ以上のカメラの前記視野の前記部分の前記表現の前記ズームレベルを前記第4のズームレベルまで上げる前記第3の要求を受信したことに応答して、
前記第4のズームレベルが第2のズーム値範囲内にあるという判定に従って、
前記第1の領域において、前記第4のズームレベルで、第3のカメラの前記視野の第3の部分の少なくとも1つのサブセット除外する前記第3のカメラの前記視野の第5の部分の表現を表示することと、
前記第2の領域において、前記第3のカメラの前記視野の前記第5の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第4のズームレベルで、前記第3のカメラの前記視野の前記第5の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットと重なる前記第1のカメラの前記視野の第5の部分の表現を表示することと、
を更に含む、項目314に記載の方法。
[項目316]
前記第1の領域において、前記第4のズームレベルで、前記第3のカメラの前記視野の前記第3の部分の少なくとも1つのサブセット除外する第3のカメラの前記視野の第4の第5の部分の表現を表示し、かつ前記第2の領域において、前記第3のカメラの前記視野の前記第5の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第4のズームレベルで、前記第3のカメラの前記視野の前記第5の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットと重なる前記第1のカメラの前記視野の第5の第4の部分の表現を表示している間に、前記1つ以上のカメラの前記視野の前記部分の前記表現の前記ズームレベルを第5のズームレベルまで上げる第4の要求を受信することと、
前記1つ以上のカメラの前記視野の前記部分の前記表現の前記ズームレベルを前記第5のズームレベルまで上げる前記第4の要求を受信したことに応答して、
前記第5のズームレベルが第3のズーム値範囲内にあるという判定に従って、
前記第1の領域において、前記第5のズームレベルで、前記第3のカメラの前記視野の第6の部分の表現を表示することと、
前記第2の領域において、前記第5のズームレベルで、前記第3のカメラの前記視野の第7の部分の表現を表示することと、
を更に含む、項目315に記載の方法。
[項目317]
前記第1の領域において、前記第5のズームレベルで、前記第3のカメラの前記視野の第6の部分の表現を表示し、かつ前記第2の領域において、前記第5のズームレベルで、前記第3のカメラの前記視野の第7の部分の表現を表示している間に、前記1つ以上のカメラの前記視野の前記部分の前記表現の前記ズームレベルを第6のズームレベルまで下げる第1の要求を受信することと、
前記1つ以上のカメラの前記視野の前記部分の前記表現の前記ズームレベルを前記第6のズームレベルまで下げる前記第1の要求を受信したことに応答して、
前記第2の領域内に表示するように、前記第6のズームレベルが第4のズーム値範囲内にあるという判定に従って、
前記第1の領域において、前記第6のズームレベルで、前記第3のカメラの前記視野の前記第3の部分の少なくとも1つのサブセット除外する前記第3のカメラの前記視野の第8の部分の表現を表示することと、
前記第2の領域において、前記第3のカメラの前記視野の前記第8の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第6のズームレベルで、前記第3のカメラの前記視野の前記第8の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットと重なる前記第1のカメラの前記視野の第8の部分の表現を表示することと、
を更に含む、項目316に記載の方法。
[項目318]
前記第1のカメラの前記視野の第8の部分の少なくとも1つの前記サブセットの表現を表示することなく、前記第1の領域において、前記第6のズームレベルで、前記第1のカメラの前記視野の前記第8の部分の少なくとも1つのサブセットと重なる前記第3のカメラの前記視野の第8の部分の表現を表示し、かつ前記第2の領域において、前記第6のズームレベルで、前記第1のカメラの前記視野の前記第8の部分の少なくとも1つの前記サブセット除外する前記第1のカメラの前記視野の第8の部分の表現を表示している間に、前記1つ以上のカメラの前記視野の前記部分の前記表現の前記ズームレベルを第7のズームレベルまで下げる第2の要求を受信することと、
前記1つ以上のカメラの前記視野の前記部分の前記表現の前記ズームレベルを前記第7のズームレベルまで下げる前記第1の要求を受信したことに応答して、
前記第7のズームレベルが第5のズーム値範囲内にあるという判定に従って、
前記第1の領域において、前記第7のズームレベルで、前記第1のカメラの前記視野の第1の第9の部分の表現を表示することと、
前記第2の領域において、前記第7のズームレベルで、前記第1のカメラの前記視野の第10の部分の表現を表示することと、
を更に含む、項目317に記載の方法。
[項目319]
前記第2の領域が、複数のカメラ設定を制御する複数のコントロールアフォーダンスを含む、項目312から319のいずれか一項に記載の方法。
[項目320]
前記カメラユーザインタフェース上の場所で入力を受信することと、
前記カメラユーザインタフェース上の前記場所で前記入力を受信したことに応答して、
前記入力の前記場所が前記第1の領域内にあるという判定に従って、前記入力の前記場所に焦点を合わせるように前記電子デバイスを構成することと、
前記入力の前記場所が前記第2の領域内にあるという判定に従って、前記入力の前記場所に焦点を合わせるように前記電子デバイスを構成するのをやめることと、
を更に含む、項目312から320のいずれか一項に記載の方法。
[項目321]
前記表示デバイスを介して、前記第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の前記表現を含む前記カメラユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応答して、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャすることであって、前記メディアが、前記第1のズームレベルでの前記第1のカメラの前記視野の前記第1の部分からのコンテンツ及び前記第1のズームレベルでの前記第2のカメラの前記視野の前記第1の部分からのコンテンツを含む、メディアをキャプチャすることと、
前記メディアをキャプチャした後に、前記キャプチャされたメディアを編集する要求を受信することと、
前記キャプチャされたメディアを編集する前記要求を受信したことに応答して、前記第1のズームレベルでの前記第1のカメラの前記視野の前記第1の部分からの前記コンテンツのうちの少なくともいくらか及び前記第1のズームレベルでの前記第2のカメラの前記視野の前記第1の部分からの前記コンテンツのうちの少なくともいくらかを含む、前記キャプチャされたメディアの表現を表示することと、
を更に含む、項目312に記載の方法。
[項目322]
表示デバイスと、視野を有する第1のカメラと、前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、を備える電子デバイスの1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目312から321のいずれか一項に記載の方法を行う命令を含んでいる、非一時的コンピュータ可読記憶媒体。
[項目323]
電子デバイスであって、
表示デバイスと、
視野を有する第1のカメラと、
前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、項目312から321のいずれか一項に記載の方法を行う命令を含む、電子デバイス。
[項目324]
電子デバイスであって、
表示デバイスと、
視野を有する第1のカメラと、
前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、
また、
項目312から321のいずれか一項に記載の方法を行う手段と、
を備える、電子デバイス。
[項目325]
表示デバイスと、視野を有する第1のカメラと、前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記表示デバイスを介して、第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
前記第1のズームレベルで前記第1のカメラの前記視野の第1の部分の表現を含む第1の領域と、
前記第1のズームレベルで前記第2のカメラの前記視野の第1の部分の表現を含む第2の領域と、を含む、カメラユーザインタフェースを表示することと、
前記表示デバイスを介して、前記第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の前記表現を含む前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野の前記部分の前記表現の前記ズームレベルを第2のズームレベルまで上げる第1の要求を受信することと、
前記1つ以上のカメラの前記視野の前記部分の前記表現の前記ズームレベルを第2のズームレベルまで上げる前記第1の要求を受信したことに応答して、
前記第1の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第1の部分の少なくとも1つのサブセット除外する前記第1のカメラの前記視野の第2の部分の表現を表示することと、
前記第2の領域において、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットと重なる前記第2のカメラの前記視野の第2の部分の表現を表示することと、の命令と、
を含む、非一時的コンピュータ可読記憶媒体。
[項目326]
電子デバイスであって、
表示デバイスと、
視野を有する第1のカメラと、
前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備える電子デバイスであって、前記1つ以上のプログラムが、
前記表示デバイスを介して、第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
前記第1のズームレベルで前記第1のカメラの前記視野の第1の部分の表現を含む第1の領域と、
前記第1のズームレベルで前記第2のカメラの前記視野の第1の部分の表現を含む第2の領域と、を含む、カメラユーザインタフェースを表示することと、
前記表示デバイスを介して、前記第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の前記表現を含む前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野の前記部分の前記表現の前記ズームレベルを第2のズームレベルまで上げる第1の要求を受信することと、
前記1つ以上のカメラの前記視野の前記部分の前記表現の前記ズームレベルを第2のズームレベルまで上げる前記第1の要求を受信したことに応答して、
前記第1の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第1の部分の少なくとも1つのサブセット除外する前記第1のカメラの前記視野の第2の部分の表現を表示することと、
前記第2の領域において、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットと重なる前記第2のカメラの前記視野の第2の部分の表現を表示することと、の命令と、
を含む、電子デバイス。
[項目327]
電子デバイスであって、
表示デバイスと、
視野を有する第1のカメラと、
前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、
1つ以上のカメラと、
前記表示デバイスを介して、第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースが、
前記第1のズームレベルで前記第1のカメラの前記視野の第1の部分の表現を含む第1の領域と、
前記第1のズームレベルで前記第2のカメラの前記視野の第1の部分の表現を含む第2の領域と、を含む、カメラユーザインタフェースを表示する手段と、
前記表示デバイスを介して、前記第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の前記表現を含む前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野の前記部分の前記表現の前記ズームレベルを第2のズームレベルまで上げる第1の要求を受信する手段と、
前記1つ以上のカメラの前記視野の前記部分の前記表現の前記ズームレベルを第2のズームレベルまで上げる前記第1の要求を受信したことに応答して、
前記第1の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第1の部分の少なくとも1つのサブセット除外する前記第1のカメラの前記視野の第2の部分の表現を表示する手段と、
前記第2の領域において、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットと重なる前記第2のカメラの前記視野の第2の部分の表現を表示する手段と、
を備える、電子デバイス。
[項目328]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスで、
前記表示デバイスを介して、第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、複数のズーミングを含み、前記複数のズームアフォーダンスが、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、カメラユーザインタフェースを表示することと、
前記複数のズーミングアフォーダンスを表示している間に、前記複数のアフォーダンスのうちの1つに向けられた第1のジェスチャを受信することと、
前記第1のジェスチャを受信したことに応答して、
前記第1のジェスチャが前記第1のズームアフォーダンスに向けられたジェスチャであるという判定に従って、第2のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示することと、
前記第1のジェスチャが前記第2のズームアフォーダンスに向けられたジェスチャであるという判定に従って、前記第1のズームレベル及び前記第2のズームレベルとは異なる第3のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示することと、
を含む、方法。
[項目329]
前記第1のジェスチャが前記第1のズームアフォーダンスに向けられた前記ジェスチャであるという前記判定に従って、前記第2のズームアフォーダンスの視覚特性を維持し、前記第1のズームアフォーダンスの視覚特性を変更することと、
前記第1のジェスチャが前記第2のズームアフォーダンスに向けられた前記ジェスチャであるという前記判定に従って、前記第1のズームアフォーダンスの前記視覚特性を維持し、前記第2のズームアフォーダンスの前記視覚特性を変更することと、
を更に含む、項目328に記載の方法。
[項目330]
前記第1のズームアフォーダンスの前記視覚特性を変更することが、
前記第1のズームアフォーダンスのサイズを第1のサイズから第2のサイズに変更することであって、前記第1のズームアフォーダンスの前記第2のサイズが、前記第2のズームアフォーダンスの現在のサイズとは異なる、変更することと、
前記第1のズームアフォーダンスの色を第1の色から第2の色に変更することであって、前記第1のズームアフォーダンスの前記第2の色が、前記第2のズームアフォーダンスの現在の色とは異なる、変更することと、のうちの1つ以上を含む、
項目329に記載の方法。
[項目331]
前記第2のズームレベルで、前記1つ以上のカメラの前記視野の少なくとも前記部分の前記第2の表現を表示している間に、前記第1のズームアフォーダンスに向けられた第2のジェスチャを受信することと、
前記第1のズームアフォーダンスに向けられた前記第2のジェスチャを受信したことに応答して、
前記第1のズームアフォーダンスが第1のそれぞれの基準を満たすという判定に従って、第4のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第4の表現を表示することと、前記第1のズームアフォーダンスが第2のそれぞれの基準を満たすという判定に従って、
前記第4のズームレベルで、前記1つ以上のカメラの前記視野の少なくとも前記部分の前記第4の表現を表示するのをやめることと、
前記第2のズームレベルで、前記1つ以上のカメラの前記視野の前記部分の前記第2の表現の表示を維持することと、
を更に含む、項目328から330のいずれか一項に記載の方法。
[項目332]
前記第1のジェスチャが、第1のタイプのジェスチャであり、前記方法が、更に、
前記第1のズームアフォーダンスに向けられた第3のジェスチャを受信することであって、前記第3のジェスチャが、前記第1のタイプのジェスチャとは異なる第2のタイプのジェスチャである、受信することと、
前記第1のズームアフォーダンスに向けられた前記第3のジェスチャを受信したことに応答して、第1の現在表示されている表現の前記ズームレベルを変更するコントロールを表示することであって、前記第1の現在表示されている表現の前記ズームレベルを変更する前記コントロールが、前記第1の現在表示されている表現の現在のズームレベルの第1のインジケーションを含む、表示することと、
前記第1の現在表示されている表現の前記ズームレベルを変更する前記コントロールを表示している間に、前記ズームレベルを変更する前記コントロールに向けられた第4のジェスチャを受信することと、
前記ズームレベルを変更する前記コントロールに向けられた前記第4のジェスチャを受信したことに応答して、
前記ズームレベルを変更する前記コントロール上に第5のズームレベルの第2のインジケーションを表示することと、
前記第5のズームレベルで、前記1つ以上のカメラの前記視野の第4の表現を表示することと、
を含む、項目328から331のいずれか一項に記載の方法。
[項目333]
前記第1の現在表示されている表現の前記ズームレベルの前記第1のインジケーションが、前記第1の現在表示されている表現の前記ズームレベルを変更する前記コントロール上の選択されたズームレベルに対応する位置に表示される、項目332に記載の方法。
[項目334]
前記第1の現在表示されている表現の前記ズームレベルを変更する前記コントロールが、回転可能なユーザインタフェース要素である、項目332又は333に記載の方法。
[項目335]
前記第1の現在表示されている表現の前記ズームレベルを変更する前記コントロールを表示することが、前記複数のズームアフォーダンスの表示を、前記第1の現在表示されている表現の前記ズームレベルを変更する前記コントロールの前記表示に置き換えることを含む、項目332から334のいずれか一項に記載の方法。
[項目336]
前記第3のジェスチャが、第1の方向への移動を含み、
前記第4のジェスチャが、前記第1の方向とは異なる第2の方向への移動を含む、
項目332から335のいずれか一項に記載の方法。
[項目337]
前記ズームレベルを変更する前記コントロールに向けられた前記第4のジェスチャを受信した後に、前記第4のジェスチャのリフトオフを検出することと、
前記第4のジェスチャのリフトオフを検出した後に、
所定の時間枠内で前記ズームレベルを変更する前記コントロールに向けられたジェスチャがないという判定に従って、前記ズームレベルを変更する前記コントロールの表示を停止することと、
を更に含む、項目332から336のいずれか一項に記載の方法。
[項目338]
前記第1の現在表示されている表現の前記ズームレベルを変更する前記コントロールを表示することが、
前記調整可能なコントロール上に複数の視覚インジケータを同時に表示することを含み、前記ズームアフォーダンスに対応する前記複数のズームレベルのそれぞれが、前記複数の視覚インジケータの異なる対応する視覚インジケータで表される、項目332から337のいずれか一項に記載の方法。
[項目339]
前記第1のジェスチャを受信したことに応答して、
前記第1のジェスチャが、前記複数のズーミングアフォーダンスのうちの少なくとも1つを目的とせず、前記表現の第1の部分に向けられたという判定に従って、前記第1のジェスチャの場所に焦点を合わせるように前記電子デバイスを構成すること、
を更に含む、項目328から338のいずれか一項に記載の方法。
[項目340]
前記第1のジェスチャを受信したことに応答して、
前記第1のジェスチャが、前記複数のズーミングアフォーダンスのうちの少なくとも1つを目的とせず、前記表現の第2の部分に向けられたという判定に従って、前記第1のジェスチャの場所に焦点を合わせるように前記電子デバイスを構成するのをやめること、
を更に含む、項目328から339のいずれか一項に記載の方法。
[項目341]
前記1つ以上のカメラの前記視野の少なくとも前記部分の前記第2の表現が、前記1つ以上のカメラの第1のカメラの前記視野の少なくとも一部分の表現であり、
前記1つ以上のカメラの前記視野の少なくとも前記部分の前記第3の表現が、前記1つ以上のカメラの第2のカメラの前記視野の少なくとも一部分の表現であり、
前記第1のカメラが、前記第2のカメラとは異なる、
項目328から340のいずれか一項に記載の方法。
[項目342]
前記第2のズームレベルで、前記1つ以上のカメラの前記視野の少なくとも前記部分の前記第2の表現を表示することが、
前記第2のズームレベルが第6のズームレベルであるという判定に従って、前記第2の表現の一部分を第1の視覚外観で表示することと、
前記第2のズームレベルが前記第6のズームレベルとは異なる第7のズームレベルであるという判定に従って、前記第2の表現の一部分を、前記第1の視覚外観とは異なる第2の視覚外観で表示することと、
を含む、項目328から341のいずれか一項に記載の方法。
[項目343]
前記複数のズームアフォーダンスが、第3のズームアフォーダンスを含み、
前記方法が、更に、
第2の現在表示されている表現の前記ズームレベルを変更する要求を受信することと、
前記第2の現在表示されている表現の前記ズームレベルを第8のズームレベルに変更する要求を受信したことに応答して、
前記第8のズームレベルが第1のズーム値範囲内にあるという判定に従って、前記第1のズームアフォーダンスの表示を、前記第8のズームレベルに対応する第4のズームアフォーダンスの表示に置き換えることと、
前記第8のズームレベルが第2のズーム値範囲内にあるという判定に従って、前記第2のズームアフォーダンスの表示を、前記第8のズームレベルに対応する前記第4のズームアフォーダンスの表示に置き換えることと、
前記第8のズームレベルが第3のズーム値範囲内にあるという判定に従って、前記第3のズームアフォーダンスの表示を、前記第8のズームレベルに対応する前記第4のズームアフォーダンスの表示に置き換えることと、
を含む、項目328から342のいずれか一項に記載の方法。
[項目344]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目328から343のいずれか一項に記載の方法を行う命令を含んでいる、非一時的コンピュータ可読記憶媒体。
[項目345]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、項目328から343のいずれか一項に記載の方法を行う命令と、
を含む、電子デバイス。
[項目346]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
項目328から343のいずれか一項に記載の方法を行う手段と、
を備える、電子デバイス。
[項目347]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記表示デバイスを介して、第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、複数のズーミングを含み、前記複数のズームアフォーダンスが、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、カメラユーザインタフェースを表示することと、
前記複数のズーミングアフォーダンスを表示している間に、前記複数のアフォーダンスのうちの1つに向けられた第1のジェスチャを受信することと、
前記第1のジェスチャを受信したことに応答して、
前記第1のジェスチャが前記第1のズームアフォーダンスに向けられたジェスチャであるという判定に従って、第2のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示することと、
前記第1のジェスチャが前記第2のズームアフォーダンスに向けられたジェスチャであるという判定に従って、前記第1のズームレベル及び前記第2のズームレベルとは異なる第3のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示することと、の命令を含む、非一時的コンピュータ可読記憶媒体。
[項目348]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備える電子デバイスであって、前記1つ以上のプログラムが、
前記表示デバイスを介して、第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、複数のズーミングを含み、前記複数のズームアフォーダンスが、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、カメラユーザインタフェースを表示することと、
前記複数のズーミングアフォーダンスを表示している間に、前記複数のアフォーダンスのうちの1つに向けられた第1のジェスチャを受信することと、
前記第1のジェスチャを受信したことに応答して、
前記第1のジェスチャが前記第1のズームアフォーダンスに向けられたジェスチャであるという判定に従って、第2のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示することと、
前記第1のジェスチャが前記第2のズームアフォーダンスに向けられたジェスチャであるという判定に従って、前記第1のズームレベル及び前記第2のズームレベルとは異なる第3のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示することと、
の命令を含む、電子デバイス。
[項目349]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースが、複数のズーミングを含み、前記複数のズームアフォーダンスが、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、カメラユーザインタフェースを表示する手段と、
前記複数のズーミングアフォーダンスを表示している間に、前記複数のアフォーダンスのうちの1つに向けられた第1のジェスチャを受信する手段と、
前記第1のジェスチャを受信したことに応答して、
前記第1のジェスチャが前記第1のズームアフォーダンスに向けられたジェスチャであるという判定に従って、第2のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示する手段と、
前記第1のジェスチャが前記第2のズームアフォーダンスに向けられたジェスチャであるという判定に従って、前記第1のズームレベル及び前記第2のズームレベルとは異なる第3のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示する手段と、
を備える、電子デバイス。
[項目350]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスで、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の場所で前記1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することと、
前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示している間に、前記カメラユーザインタフェースに向けられた第1のジェスチャを検出することと、
前記カメラユーザインタフェースに向けられた前記第1のジェスチャを検出したことに応答して、
前記第1の場所で第1の1組のカメラ設定アフォーダンスを表示することであって、前記第1の1組のカメラ設定アフォーダンスが、第1のカメラモードの画像キャプチャを調整する設定である、第1の1組のカメラ設定アフォーダンスを表示することと、
前記第1の場所で前記カメラの異なる動作モードを示す前記複数のカメラモードアフォーダンスの表示を停止することと、
前記第1の場所で前記第1の1組のカメラ設定アフォーダンスを表示している間に、及び前記第1のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されている間に、前記カメラユーザインタフェースに向けられた第2のジェスチャを受信することと、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応答して、
前記第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように前記電子デバイスを構成することと、
前記第1の場所で前記1つ以上のカメラの異なる動作モードを示す前記複数のカメラモードアフォーダンスを表示することなく、前記第1の場所で第2の1組のカメラ設定アフォーダンスを表示することと、
を含む、方法。
[項目351]
前記第2の1組のカメラ設定アフォーダンスが、前記第2のカメラモードの画像キャプチャを調整する設定である、項目350に記載の方法。
[項目352]
前記第2の1組のカメラ設定アフォーダンスが、前記第1の1組のカメラ設定アフォーダンスとは異なる、項目350又は351に記載の方法。
[項目353]
前記第1の1組のカメラ設定アフォーダンスが、フラッシュ設定アフォーダンス、画像キャプチャ設定アフォーダンス、アスペクト比カメラ設定アフォーダンス、フィルタ設定カメラ設定アフォーダンス、高ダイナミックレンジイメージングカメラ設定アフォーダンス、及び低光カメラ設定アフォーダンスのうちの1つ以上を含む、項目350から352のいずれか一項に記載の方法。
[項目354]
前記第1のジェスチャを検出することが、前記カメラユーザインタフェースに向けられた第1の接触を検出することを含み、前記方法が、更に、
前記第1のジェスチャを検出している間に、前記第1の接触のリフトオフを検出する前に、前記第1のジェスチャの完了を検出することと、
前記第1の接触のリフトオフを検出する前に、前記第1のジェスチャの完了を検出したことに応答して、触知出力を提供することと、を含む、項目350から353のいずれか一項に記載の方法。
[項目355]
前記カメラユーザインタフェースを表示している間に、前記カメラユーザインタフェースに向けられた第3のジェスチャを検出することと、
前記カメラユーザインタフェースに向けられた前記第3のジェスチャを検出したことに応答して、
前記第3のジェスチャが検出されたときに、前記第2の1組のカメラ設定アフォーダンスが表示されたという判定に従って、
第3のカメラモードでメディアをキャプチャするように前記電子デバイスを構成することと、
前記1つ以上のカメラの異なる動作モードを示す前記複数のカメラモードアフォーダンスを表示することなく、前記第1の場所で、第3の1組のカメラ設定アフォーダンスを表示することと、
前記第3のジェスチャが検出されたときに、前記第1の複数のカメラモードアフォーダンスが表示されたという判定に従って、
前記第2の1組のカメラ設定アフォーダンス及び前記第3の1組のカメラ設定アフォーダンスを表示することなく、前記第1の場所で、前記カメラの異なるカメラ動作モードを示す第2の複数のカメラモードアフォーダンスを表示することと、前記第1のカメラモード及び前記第3のカメラモードでメディアをキャプチャするように前記電子デバイスを構成することと、を含み、前記第2の複数のカメラアフォーダンスが、前記第1の複数のカメラモードアフォーダンスとは異なること、
を更に含む、項目350から354のいずれか一項に記載の方法。
[項目356]
前記第1の場所で、前記第3の1組のカメラ設定アフォーダンスを表示することが、前記第1の1組のカメラ設定アフォーダンスを置き換える前記第3の1組のカメラ設定アフォーダンスのアニメーションを表示することを含み、項目355に記載の方法。
[項目357]
前記1つ以上のカメラの前記視野の前記表現が、前記1つ以上のカメラの前記視野の第1の部分の第1の表現であり、前記方法が、更に、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応答して、
第1のタイプのカメラを介してメディアをキャプチャするように前記電子デバイスが構成されているという判定に従って、前記1つ以上のカメラの前記視野の第2の部分の第2の表現を表示することを含み、前記視野の前記第2の部分が、前記1つ以上のカメラの前記視野の前記第1の部分のいくらかを含まない、項目350から356のいずれか一項に記載の方法。
[項目358]
前記1つ以上のカメラの前記視野の前記表現が、前記1つ以上のカメラの前記視野の第3の部分の第3の表現であり、前記方法が、更に、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応答して、
第2のタイプのカメラを使用してメディアをキャプチャするように前記電子デバイスが構成されているという判定に従って、前記1つ以上のカメラの視野の第4の部分の第4の表現を表示することを含み、前記1つ以上のカメラの前記視野の前記第4の部分が、前記1つ以上のカメラの前記視野の前記第3の部分にない前記1つ以上のカメラの視野の一部分を含む、項目350から357のいずれか一項に記載の方法。
[項目359]
前記1つ以上のカメラの前記視野の前記表現が、前記1つ以上のカメラの前記視野の第5の部分の第5の表現であり、
前記第5の表現が、前記ディスプレイ上の第2の場所に表示され、
前記方法が、更に、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応答して、
第3のタイプのカメラを使用してメディアをキャプチャするように前記電子デバイスが構成されているという判定に従って、
前記ディスプレイ上の前記第2の場所から前記ディスプレイ上の前記第3の場所に前記第5の表現を動かすこと、
を含む、項目357又は358に記載の方法。
[項目360]
前記第1のカメラモードが、ポートレートモードであり、
前記1つ以上のカメラの視野の前記表現が、第1のズームレベルで表示され、
前記方法が、更に、
前記第1の複数のカメラモードアフォーダンスを表示している間に、
照明効果動作を制御するアフォーダンス及びズームアフォーダンスを表示することと、
前記ズームアフォーダンスを表示している間に、前記ズームアフォーダンスに向けられた第4のジェスチャを受信することと、
前記ズームアフォーダンスに向けられた前記第4のジェスチャを受信したことに応答して、第2のズームレベルで前記1つ以上のカメラの前記視野の表現を表示することと、
を含む、項目350から359のいずれか一項に記載の方法。
[項目361]
前記第1の複数のカメラモードアフォーダンスが、
選択されると、メディアをキャプチャする要求に応答して、前記電子デバイスに前記第1のカメラモードでメディアをキャプチャさせる第1のカメラモードアフォーダンスと、
選択されると、メディアをキャプチャする要求に応答して、前記電子デバイスに前記第2のカメラモードでメディアをキャプチャさせる第2のカメラモードアフォーダンスと、を含む、項目350から360のいずれか一項に記載の方法。
[項目362]
前記第1の複数のカメラモードアフォーダンスを表示している間に、前記第1のカメラモードアフォーダンスが、前記第2のカメラモードアフォーダンスに隣接して表示される、項目361に記載の方法。
[項目363]
前記カメラユーザインタフェースに向けられた前記第1のジェスチャを検出する前に、及び前記第1の複数のカメラモードアフォーダンスを表示している間に、前記第1のカメラモードアフォーダンスが、前記第1のカメラモードがアクティブであるというインジケーションとともに表示される、項目361又は362に記載の方法。
[項目364]
前記第1の場所で前記第2の1組のカメラ設定アフォーダンスを表示している間に、前記カメラインタフェースに向けられた第5のジェスチャを検出することと、
前記カメラインタフェースに向けられた前記第5のジェスチャを検出したことに応答して、
前記カメラの異なるカメラ動作モードを示す第3の複数のカメラモードアフォーダンスを表示することと、を含み、
前記第3の複数のカメラモードアフォーダンスが、前記第2のモードアフォーダンスを含み、
前記第2のカメラモードアフォーダンスが、前記第2のカメラモードがアクティブであるというインジケーションとともに表示されることと、
を更に含む、項目362又は363に記載の方法。
[項目365]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目350から364のいずれか一項に記載の方法を行う命令を含んでいる、非一時的コンピュータ可読記憶媒体。
[項目366]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、項目350から364のいずれか一項に記載の方法を行う命令を含む、電子デバイス。
[項目367]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
項目350から364のいずれか一項に記載の方法を行う手段と、
を備える、電子デバイス。
[項目368]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の場所で前記1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することと、
前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示している間に、前記カメラユーザインタフェースに向けられた第1のジェスチャを検出することと、
前記カメラユーザインタフェースに向けられた前記第1のジェスチャを検出したことに応答して、
前記第1の場所で第1の1組のカメラ設定アフォーダンスを表示することであって、前記第1の1組のカメラ設定アフォーダンスが、第1のカメラモードの画像キャプチャを調整する設定である、第1の1組のカメラ設定アフォーダンスを表示することと、
前記第1の場所で前記カメラの異なる動作モードを示す前記複数のカメラモードアフォーダンスの表示を停止することと、
前記第1の場所で前記第1の1組のカメラ設定アフォーダンスを表示している間に、及び前記第1のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されている間に、前記カメラユーザインタフェースに向けられた第2のジェスチャを受信することと、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応答して、
前記第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように前記電子デバイスを構成することと、
前記第1の場所で前記1つ以上のカメラの異なる動作モードを示す前記複数のカメラモードアフォーダンスを表示することなく、前記第1の場所で第2の1組のカメラ設定アフォーダンスを表示することと、の命令を含む、非一時的コンピュータ可読記憶媒体。
[項目369]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備える電子デバイスであって、前記1つ以上のプログラムが、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の場所で前記1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することと、
前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示している間に、前記カメラユーザインタフェースに向けられた第1のジェスチャを検出することと、
前記カメラユーザインタフェースに向けられた前記第1のジェスチャを検出したことに応答して、
前記第1の場所で第1の1組のカメラ設定アフォーダンスを表示することであって、前記第1の1組のカメラ設定アフォーダンスが、第1のカメラモードの画像キャプチャを調整する設定である、第1の1組のカメラ設定アフォーダンスを表示することと、
前記第1の場所で前記カメラの異なる動作モードを示す前記複数のカメラモードアフォーダンスの表示を停止することと、
前記第1の場所で前記第1の1組のカメラ設定アフォーダンスを表示している間に、及び前記第1のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されている間に、前記カメラユーザインタフェースに向けられた第2のジェスチャを受信することと、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応答して、
前記第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように前記電子デバイスを構成することと、
前記第1の場所で前記1つ以上のカメラの異なる動作モードを示す前記複数のカメラモードアフォーダンスを表示することなく、前記第1の場所で第2の1組のカメラ設定アフォーダンスを表示することと、の命令と、
を含む、電子デバイス。
[項目370]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースが、
1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の場所で前記1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示する手段と、
前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示している間に、前記カメラユーザインタフェースに向けられた第1のジェスチャを検出する手段と、
前記カメラユーザインタフェースに向けられた前記第3のジェスチャを検出したことに応答して、
前記第1の場所で第1の1組のカメラ設定アフォーダンスを表示する手段であって、前記第1の1組のカメラ設定アフォーダンスが、第1のカメラモードの画像キャプチャを調整する設定である、第1の1組のカメラ設定アフォーダンスを表示する手段と、
前記第1の場所で前記カメラの異なる動作モードを示す前記複数のカメラモードアフォーダンスの表示を停止する手段と、
前記第1の場所で前記第1の1組のカメラ設定アフォーダンスを表示している間に、及び前記第1のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されている間に、前記カメラユーザインタフェースに向けられた第2のジェスチャを受信する手段と、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応答して、
前記第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように前記電子デバイスを構成する手段と、
前記第1の場所で前記1つ以上のカメラの異なる動作モードを示す前記複数のカメラモードアフォーダンスを表示することなく、前記第1の場所で第2の1組のカメラ設定アフォーダンスを表示する手段と、
を備える、電子デバイス。
[項目371]
方法であって、
表示デバイスを有する電子デバイスで、
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信することと、
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応答して、
自動メディア補正基準が満たされているという判定に従って、前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現を表示することと、
自動メディア補正基準が満たされていないという判定に従って、前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの表現を表示することと、
を含む、方法。
[項目372]
前記メディアアイテムの前記表現を表示する前記要求を受信する前に、前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
前記1つ以上のカメラの視野の前記第1の部分の表現を含む第1の領域と、
前記1つ以上のカメラの前記視野の第2の部分の表現を含む第2の領域であって、前記1つ以上のカメラの前記視野の前記第2の部分の前記表現が、前記第1の部分の前記表現と視覚的に区別される、第2の領域と、を含む、カメラユーザインタフェースを表示することと、
を更に含む、項目371に記載の方法。
[項目373]
自動メディア補正基準が満たされているという前記判定に従って、自動調整が前記以前にキャプチャされたメディアアイテムに適用されたことを示す第1の補正アフォーダンスを表示することと、
自動メディア補正基準が満たされていないという判定に従って、第2の補正アフォーダンス、前記自動調整が前記以前にキャプチャされたメディアアイテムに適用されなかったことを示す前記第2の自動調整アフォーダンスを表示することと、を含み、前記第2の自動調整アフォーダンスが、前記第1の自動調整アフォーダンスとは視覚的に異なることと、
を更に含む、項目371又は372に記載の方法。
[項目374]
前記第1の自動調整アフォーダンスを表示し、かつ前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、前記第1の自動調整アフォーダンスの選択に対応する第1の入力を受信することと、
前記第1の自動調整アフォーダンスの選択に対応する前記第1の入力を受信したことに応答して、前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現を表示することと、
を更に含む、項目373に記載の方法。
[項目375]
前記第2の自動調整アフォーダンスを表示し、かつ前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、前記第2の自動調整アフォーダンスの選択に対応する第2の入力を受信することと、
前記第2の自動調整アフォーダンスの選択に対応する前記第2の入力を受信したことに応答して、前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現を表示することと、
を更に含む、項目373に記載の方法。
[項目376]
前記以前にキャプチャされたメディアアイテムが、画像であり、
前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現が、縁部部分を含み、
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現が、更に、前記縁部部分を含まない、項目371から375のいずれか一項に記載の方法。
[項目377]
前記以前にキャプチャされたメディアアイテムが、ビデオであり、
前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現が、第1の量の移動を含み、
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現が、前記第1の量の移動とは異なる第2の量の移動を含む、
項目371から376のいずれか一項に記載の方法。
[項目378]
前記以前にキャプチャされたメディアアイテムが、識別可能なオブジェクトを含み、
前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現が、前記識別可能なオブジェクトの一部分を含み、
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現が、前記識別可能なオブジェクトの前記部分を含まない、こと、
を含む、項目371から377のいずれか一項に記載の方法。
[項目379]
前記自動メディア補正基準が、前記以前にキャプチャされたメディアアイテムが前記1つ以上のカメラの前記視野の前記第2の部分からの前記第2のコンテンツを使用して補正され得る1つ以上の視覚アスペクトを含むと判定されると満たされる第2の基準を含む、項目371から378のいずれか一項に記載の方法。
[項目380]
前記自動メディア補正基準が、前記以前にキャプチャされたメディアが表示される前に前記第2の基準が満たされたと満たされる第3の基準を含む、項目379に記載の方法。
[項目381]
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応答して、及び自動メディア補正基準が満たされているという判定に従って、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現と同時に、選択されると、前記電子デバイスに、第1の動作を行わせる第3の補正アフォーダンスを表示すること、
を更に含む、項目371から380のいずれか一項に記載の方法。
[項目382]
前記自動メディア補正基準が、自動適用設定が有効化されると満たされ、かつ前記自動適用設定が無効化されると満たされない基準を含む、項目371から381のいずれか一項に記載の方法。
[項目383]
前記自動適用設定が、ユーザ構成可能設定である、項目371から382のいずれか一項に記載の方法。
[項目384]
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応答して、及び自動メディア補正基準が満たされていないという判定に従って、
第1の1組の基準が満たされているという判定に従って、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現と同時に、選択されると、前記電子デバイスに、第2の動作を行わせる第4の補正アフォーダンスを表示すること、
を更に含む、項目371から383のいずれか一項に記載の方法。
[項目385]
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応答して、及び自動メディア補正基準が満たされていないという判定に従って、
前記第1の1組の基準が満たされていないという判定に従って、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現と同時に、非選択可能インジケータを表示すること、
を更に含む、項目371から384のいずれか一項に記載の方法。
[項目386]
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応答して、
コンテンツ処理基準が満たされているという判定に従って、コンテンツ処理インジケータを表示することと、
前記コンテンツ処理基準が満たされていないという判定に従って、前記コンテンツ処理インジケータを表示するのをやめることと、
を更に含む、項目371から385のいずれか一項に記載の方法。
[項目387]
前記コンテンツ処理インジケータを表示している間に、及び前記コンテンツ処理基準がもはや満たされていないという判定に従って、前記コンテンツ処理インジケータの表示を停止すること、
を更に含む、項目386に記載の方法。
[項目388]
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、及び前記コンテンツ処理インジケータを表示している間に、及び前記コンテンツ処理基準がもはや満たされていないという判定に従って、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現を、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現に置き換えること、
を更に含む、項目386に記載の方法。
[項目389]
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、及び前記コンテンツ処理インジケータを表示している間に、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの第2の表現を表示することと、
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記の前記の前記第2の描写を表示している間に、及び前記コンテンツ処理基準がもはや満たされていないという判定に従って、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記第2の表現を、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの第2の表現に置き換えることと、
を更に含む、項目386に記載の方法。
[項目390]
前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現のアニメーションを表示することと、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現に遷移することと、
を更に含む、項目371から389のいずれか一項に記載の方法。
[項目391]
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現のアニメーションを表示することと、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現に遷移することと、
を更に含む、項目371から390のいずれか一項に記載の方法。
[項目392]
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信することと、1つ以上のカメラの視野の前記第1の部分からの第3のコンテンツを含み、かつ前記1つ以上のカメラの前記視野の前記第2の部分からの第4のコンテンツを含まないメディアアイテムの表現を表示する要求を受信することと、
前記1つ以上のカメラの前記視野の前記第1の部分からの第3のコンテンツを含み、かつ前記1つ以上のカメラの前記視野の前記第2の部分からの第4のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応答して、前記1つ以上のカメラの前記視野の前記第1の部分の外側の追加のメディアコンテンツが利用可能であるというインジケーションを表示するのをやめることと、
を更に含む、項目371から391のいずれか一項に記載の方法。
[項目393]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目371から392のいずれか一項に記載の方法を行う命令を含んでいる、非一時的コンピュータ可読記憶媒体。
[項目394]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、項目371から392のいずれか一項に記載の方法を行う命令と、
を含む、電子デバイス。
[項目395]
電子デバイスであって、
表示デバイスと、
項目371から392のいずれか一項に記載の方法を行う手段と、
を備える、電子デバイス。
[項目396]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信することと、
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応答して、
自動メディア補正基準が満たされているという判定に従って、前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現を表示することと、
自動メディア補正基準が満たされていないという判定に従って、前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの表現を表示することと、の命令を含む、非一時的コンピュータ可読記憶媒体。
[項目397]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備える電子デバイスであって、前記1つ以上のプログラムが、
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信することと、
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応答して、
自動メディア補正基準が満たされているという判定に従って、前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現を表示することと、
自動メディア補正基準が満たされていないという判定に従って、前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの表現を表示することと、の命令と、
を含む、電子デバイス。
[項目398]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信する手段と、
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応答して、
自動メディア補正基準が満たされているという判定に従って、前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現を表示する手段と、
自動メディア補正基準が満たされていないという判定に従って、前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの表現を表示する手段と、
を含む、電子デバイス。
[項目399]
それぞれの時間に対応する前記第1の視覚メディアの時間ベースの表現を選択する前記調整可能なコントロールは、前記表示デバイス上のそれぞれの場所に表示される、
項目219から232のいずれか一項に記載の方法。
Therefore, although the disclosure broadly covers the use of personal information data to implement one or more various disclosed embodiments, the disclosure also covers such personal information data. It is conceivable that it is also possible to implement those various embodiments without requiring access to. That is, various embodiments of the present technology are not impractical due to the lack of all or part of such personal information data. For example, the media is a minimum of non-personal information data or personal information, such as content requested by the device associated with the user, other non-personal information available in the content delivery service, or publicly available information. It can be captured, accessed, and edited by inferring preferences based solely on a limited amount.
[Item 1]
It's a method
An electronic device that has a display device and one or more cameras.
Displaying the camera user interface via the display device.
A camera display area that includes a representation of the field of view of one or more cameras,
Displaying a camera user interface, including a camera control area containing multiple control affordances,
While the first and second default conditions are not met, the first control affordance associated with the first default condition is not displayed and the second default condition is met. Displaying the camera user interface without displaying the associated second control affordance.
Detecting changes in conditions while displaying the camera user interface without displaying the first control affordance and without displaying the second control affordance.
In response to detecting a change in the above conditions
Displaying the first control affordance according to the determination that the first predetermined condition is satisfied, and
Displaying the second control affordance according to the determination that the second predetermined condition is satisfied, and
Including methods.
[Item 2]
In response to detecting a change in the above conditions
Displaying the first control affordance and the second control affordance at the same time according to the determination that the first and second predetermined conditions are satisfied.
The method according to item 1, further comprising.
[Item 3]
In response to detecting a change in the above conditions
According to the determination that the first predetermined condition is satisfied and the second predetermined condition is not satisfied, the first control affordance is displayed while the second control affordance is displayed. To stop doing and
According to the determination that the first predetermined condition is not satisfied and the second predetermined condition is satisfied, the second control affordance is displayed, while the first control affordance is displayed. To stop displaying and
The method according to item 1 or 2, further comprising.
[Item 4]
When the amount of light in the field of view of the one or more cameras falls below the first predetermined threshold value, the first predetermined condition is satisfied, and the first control affordance controls the flash operation. The method according to any one of items 1 to 3.
[Item 5]
From item 1, when the electronic device is connected to a first type of accessory, the first predetermined condition is met and the first control affordance is an affordance that controls timer operation. The method according to any one of 4.
[Item 6]
When the amount of light in the field of view of the one or more cameras falls below a second predetermined threshold, the first predetermined condition is met and the first control affordance controls the low light capture mode. The method according to any one of items 1 to 5, which is an affordance to be performed.
[Item 7]
When the electronic device is configured to capture an image in the first capture mode, the first predetermined condition is met and the first control affordance is an affordance that controls the lighting effect operation. , The method according to any one of items 1 to 6.
[Item 8]
While displaying the affordance that controls the lighting effect, receiving the selection of the affordance that controls the lighting effect and
Adjusting in response to receiving the selection of the affordance to control the lighting effect adjusts the lighting effect applied to the representation of the field of view of the one or more cameras. Displaying affordances to adjust and
7. The method of item 7.
[Item 9]
While displaying the first control affordance, simultaneously displaying the current state indication of the characteristics of the electronic device associated with the first control affordance.
The method according to any one of items 1 to 8, further comprising.
[Item 10]
It is said that the characteristic has one or more active states and one or more inactive states, and displaying the indication is in at least one of the one or more active states. The method according to item 9, according to the determination.
[Item 11]
The method according to any one of items 9 to 10, wherein the characteristic is the first flash operation setting, and the current state of the characteristic is that the flash operation is enabled.
[Item 12]
9. The method of item 9, wherein the characteristic is a second flash operation setting, and the current state of the characteristic is that the flash operation is disabled.
[Item 13]
The characteristic is an image capture mode setting, the current state of the characteristic is that the image capture mode is enabled, and the electronic device responds to an input corresponding to a request to capture media. The method according to any one of items 9 to 12, wherein the method is configured to capture still images and videos.
[Item 14]
The characteristic is a second image capture mode setting, the current state of the characteristic is that the second image capture mode is enabled, and the electronic device is required to capture media. 9. The method of any one of items 9-13, which is configured to capture media using a high dynamic range imaging effect in response to the corresponding input.
[Item 15]
The camera control area is displayed adjacent to the first side of the display device, and the indication is displayed adjacent to the second side of the display device on the side opposite to the first side. The method according to any one of items 9 to 14.
[Item 16]
One of items 1 to 15, wherein said representation of the field of view of one or more cameras extends to a portion of said camera user interface that includes said first affordance and / or said second affordance. The method described in the section.
[Item 17]
In response to displaying the first control affordance,
Displaying the second indication associated with the first control according to the determination that the first control affordance is of the first type.
The determination that the first control affordance is of a second type different from the first type, and the second characteristic of the electronic device associated with the first control are in the active state. The second indication associated with the first control is displayed according to the determination.
The determination that the first control affordance is of a second type different from the first type, and the second characteristic of the electronic device associated with the first control are inactive. To stop displaying the second indication associated with the first control, according to the determination that it is in
The method according to any one of items 1 to 16, further comprising.
[Item 18]
A non-temporary computer-readable storage medium that stores one or more programs configured to be performed by one or more processors of a display device and an electronic device with one or more cameras, said one or more. A non-temporary computer-readable storage medium, wherein the program comprises an instruction to perform the method according to any one of items 1 to 17.
[Item 19]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
An electronic device comprising a memory for storing one or more programs configured to be executed by the one or more processors, wherein the one or more programs is any one of items 1-17. Instructions for performing the method described in the section, and
Including electronic devices.
[Item 20]
It ’s an electronic device,
Display device and
With one or more cameras
Means for performing the method according to any one of items 1 to 17 and
Equipped with an electronic device.
[Item 21]
A non-temporary computer-readable storage medium that stores one or more programs configured to be executed by one or more processors of an electronic device with a display device and one or more cameras, said one or more. Program,
Displaying the camera user interface via the display device.
A camera display area that includes a representation of the field of view of one or more cameras,
Displaying a camera user interface, including a camera control area containing multiple control affordances,
While the first and second default conditions are not met, the first control affordance associated with the first default condition is not displayed and the second default condition is met. Displaying the camera user interface without displaying the associated second control affordance.
Detecting changes in conditions while displaying the camera user interface without displaying the first control affordance and without displaying the second control affordance.
In response to detecting a change in the above conditions
Displaying the first control affordance according to the determination that the first predetermined condition is satisfied, and
Displaying the second control affordance according to the determination that the second predetermined condition is satisfied, and
A non-temporary computer-readable storage medium that contains instructions for.
[Item 22]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
A memory that stores one or more programs configured to be executed by the one or more processors.
An electronic device comprising one or more of the above-mentioned programs.
Displaying the camera user interface via the display device.
A camera display area that includes a representation of the field of view of one or more cameras,
Displaying a camera user interface, including a camera control area containing multiple control affordances,
While the first and second default conditions are not met, the first control affordance associated with the first default condition is not displayed and the second default condition is met. Displaying the camera user interface without displaying the associated second control affordance.
Detecting changes in conditions while displaying the camera user interface without displaying the first control affordance and without displaying the second control affordance.
In response to detecting a change in the above conditions
Displaying the first control affordance according to the determination that the first predetermined condition is satisfied, and
Displaying the second control affordance according to the determination that the second predetermined condition is satisfied, and
Electronic devices, including instructions for.
[Item 23]
It ’s an electronic device,
Display device and
With one or more cameras
A means for displaying a camera user interface via the display device, wherein the camera user interface is
A camera display area that includes a representation of the field of view of one or more cameras,
A means of displaying a camera user interface, including a camera control area containing multiple control affordances,
While the first and second default conditions are not met, the first control affordance associated with the first default condition is not displayed and the second default condition is met. A means of displaying the camera user interface without displaying the associated second control affordance.
Means for detecting changes in conditions while displaying the camera user interface without displaying the first control affordance and without displaying the second control affordance.
In response to detecting a change in the above conditions
A means for displaying the first control affordance according to the determination that the first predetermined condition is satisfied, and
A means of displaying the second control affordance according to the determination that the second predetermined condition is satisfied, and
Equipped with an electronic device.
[Item 24]
It's a method
An electronic device that has a display device and one or more cameras.
Displaying the camera user interface via the display device.
A camera display area that includes a representation of the field of view of one or more cameras,
Displaying a camera user interface, including a camera control area containing multiple camera mode affordances, in a first location.
Detecting a first gesture on the camera user interface while displaying the camera user interface
Modifying the appearance of the camera control area in response to detecting the first gesture.
Displaying one or more additional camera mode affordances at said first location according to the determination that the gesture is a first type of gesture.
Stopping the display of the plurality of camera mode affordances and displaying the plurality of camera setting affordances at the first location according to the determination that the gesture is a second type of gesture different from the first type. Modifying the appearance of the camera control area, including: The camera setting affordance is a setting that adjusts the image capture of the currently selected camera mode.
Including methods.
[Item 25]
24. The method of item 24, wherein the camera control area comprises an affordance displaying a plurality of camera setting affordances, wherein the gesture of the second type is a selection of the affordance displaying one or more camera settings. ..
[Item 26]
24. The method of item 24, wherein the second type of gesture is the movement of contact within the camera display area.
[Item 27]
The method of any one of items 24-26, wherein the gesture of the first type is the movement of a contact on at least one of the plurality of camera mode affordances.
[Item 28]
To detect a second gesture on said camera user interface that corresponds to a request to display a first representation of previously captured media.
In response to detecting the second gesture, displaying the first representation of the previously captured media and
The method according to any one of items 24 to 27, further comprising.
[Item 29]
Using one or more of the cameras to detect a capture of the first media while not displaying a representation of the previously captured media,
In response to detecting the capture of the first media
Displaying one or more representations of the captured media, including the representation of the first media.
The method according to any one of items 24 to 28, further comprising.
[Item 30]
When the plurality of camera setting affordances are displayed, the affordances that configure the electronic device to capture the media displayed in the first aspect ratio in response to the first request to capture the media are included. , The method according to any one of items 24 to 29.
[Item 31]
When displayed, receiving a third request to capture the media while the device is configured to capture the media displayed in the first aspect ratio.
In response to receiving the third request to capture the media, displaying the representation of the captured media in the first aspect ratio and
Receiving a request to change the representation of the captured media having the first aspect ratio to the representation of the captured media having the second aspect ratio.
In response to receiving the request, displaying the representation of the captured media in the second aspect ratio.
The method according to any one of items 24 to 30, further comprising.
[Item 32]
31. The method of item 31, wherein the representation of the captured media having the second aspect ratio comprises visual content that does not exist within the representation of the captured media having the first aspect ratio.
[Item 33]
The representation of the field of view of the one or more cameras is displayed at the first zoom level, and the method further comprises.
Displaying the representation of the field of view of the one or more cameras receives a first request to change the zoom level of the representation while being displayed at the first zoom level.
In response to receiving the first request to change the zoom level of the representation,
According to the determination that the request to change the zoom level of the expression corresponds to the request to increase the zoom level of the expression, the second expression field of view of the one or more cameras is set to be larger than the first zoom level. Displaying at a large second zoom level and
According to the determination that the request to change the zoom level of the expression corresponds to the request to lower the zoom level of the expression, the third expression field of view of the one or more cameras is set to be larger than the first zoom level. Displaying at a small third zoom level and
The method according to any one of items 24 to 32, including.
[Item 34]
Receiving a second request to change the zoom level of the representation while displaying the representation of the field of view of the one or more cameras displayed at the fourth zoom level.
In response to receiving the second request to change the zoom level of the representation,
In accordance with the determination that the fourth zoom level is the second zoom level, displaying the fourth representation of the field of view of the one or more cameras at the third zoom level.
In accordance with the determination that the fourth zoom level is the third zoom level, displaying the fifth representation of the field of view of the one or more cameras at the first zoom level.
In accordance with the determination that the fourth zoom level is the first zoom level, displaying the sixth representation of the field of view of the one or more cameras at the second zoom level.
33. The method of item 33.
[Item 35]
Displaying the camera user interface includes displaying affordances that include graphical indications of the state of the capture settings.
The method of any one of items 24-34, wherein the second type of gesture corresponds to the selection of the indication.
[Item 36]
Displaying the plurality of camera setting affordances at the first location
A first set at the first location, according to the determination that the electronic device is configured to capture the media in the first camera mode while the second type of gesture is detected. To display the camera settings affordances and
According to the determination that the electronic device is configured to capture the media in a second camera mode different from the first camera mode while the second type of gesture is detected, the first. To display a second first camera setting affordance that is different from the first plurality of camera settings at the location of
The method according to any one of items 24 to 35, comprising.
[Item 37]
36. The method of item 36, wherein the first set of camera setting affordances includes a first camera setting affordance, and the second set of camera setting affordances includes the first camera setting affordance.
[Item 38]
The first camera mode is the still photo capture mode, and the first set of camera setting affordances
Affordances, including visual indications for flash settings,
Affordances, including visual indications for live settings,
Affordances, including visual indications for aspect ratio settings,
Affordances, including visual indications that correspond to timer settings,
Includes affordances that include visual indications that correspond to filter settings, and one or more affordances that are selected from the group consisting of.
The method according to item 36 or 37.
[Item 39]
The first camera mode is the portrait mode, and the first set of camera setting affordances
Affordances, including visual indications for depth control settings,
Affordances, including visual indications for flash settings,
Affordances, including visual indications that correspond to timer settings,
Affordances, including visual indications that correspond to filter settings,
Includes affordances that include visual indications that correspond to lighting settings, and one or more affordances that are selected from the group consisting of.
The method according to item 36 or 37.
[Item 40]
That the gesture is of the first type and that detecting the first gesture detects a first portion of the first gesture and a second portion of the first gesture. Including, said method further
In response to detecting the first portion of the first gesture, one or more separate pieces surrounding at least a portion of the representation of the field of view of the one or more cameras via the display device. Displaying boundaries, including boundary elements,
In response to detecting the second portion of the first gesture, the boundary is translated in the first direction until at least a portion of the boundary is translated from the display and the display is stopped. Including translating across the display of the display device.
The method according to item 24.
[Item 41]
40. The method of item 40, wherein detecting the second portion of the first gesture comprises detecting a second contact moving in the first direction.
[Item 42]
The second contact is detected on said representation of the field of view of the one or more cameras.
The speed at which the boundary is translated is proportional to the speed at which the second contact moves in the first direction.
The method according to item 41.
[Item 43]
41. The method of item 41, wherein translating the boundary alters the visual appearance of at least a portion of the representation of the field of view of the one or more cameras surrounded by the boundary.
[Item 44]
Detecting a second request to capture media while the electronic device is configured to capture media in a third camera mode.
In response to receiving the request, the one or more cameras are used based on the settings corresponding to the third camera mode and at least one setting corresponding to the affordances of the plurality of camera settings affordances. To capture the media
The method according to any one of items 24 to 43, further comprising.
[Item 45]
A non-temporary computer-readable storage medium that stores one or more programs configured to be performed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more. A non-temporary computer-readable storage medium, wherein the program comprises instructions for performing the method according to any one of items 24 to 44.
[Item 46]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
An electronic device comprising a memory for storing one or more programs configured to be performed by the one or more processors, wherein the one or more programs is any one of items 24 to 44. Instructions to perform the method described in
Including electronic devices.
[Item 47]
It ’s an electronic device,
Display device and
With one or more cameras
Means for performing the method according to any one of items 24 to 44, and
Equipped with an electronic device.
[Item 48]
A non-temporary computer-readable storage medium that stores one or more programs configured to be executed by one or more processors of an electronic device with a display device and one or more cameras, said one or more. Program,
Displaying the camera user interface via the display device.
A camera display area that includes a representation of the field of view of one or more cameras,
Displaying a camera user interface, including a camera control area containing multiple camera mode affordances, in a first location.
Detecting a first gesture on the camera user interface while displaying the camera user interface
Modifying the appearance of the camera control area in response to detecting the first gesture.
Displaying one or more additional camera mode affordances at said first location according to the determination that the gesture is a first type of gesture.
According to the determination that the gesture is a second type of gesture different from the first type, the display of the plurality of camera mode affordances is stopped, and the plurality of camera setting affordances are performed at the first location. Non-temporary, including displaying and modifying the appearance of the camera control area, the camera setting affordance is a setting that adjusts the image capture of the currently selected camera mode. Computer-readable storage medium.
[Item 49]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
A memory that stores one or more programs configured to be executed by the one or more processors.
An electronic device comprising one or more of the above-mentioned programs.
Displaying the camera user interface via the display device.
A camera display area that includes a representation of the field of view of one or more cameras,
Displaying a camera user interface, including a camera control area containing multiple camera mode affordances, in a first location.
Detecting a first gesture on the camera user interface while displaying the camera user interface
Modifying the appearance of the camera control area in response to detecting the first gesture.
Displaying one or more additional camera mode affordances at said first location according to the determination that the gesture is a first type of gesture.
According to the determination that the gesture is a second type of gesture different from the first type, the display of the plurality of camera mode affordances is stopped, and the plurality of camera setting affordances are performed at the first location. Modifying the appearance of the camera control area, including displaying, where the camera setting affordance is a setting that adjusts the image capture of the currently selected camera mode.
Electronic devices, including instructions for.
[Item 50]
It ’s an electronic device,
Display device and
With one or more cameras
A means for displaying a camera user interface via the display device, wherein the camera user interface is
A camera display area that includes a representation of the field of view of one or more cameras,
A means of displaying a camera user interface, including a camera control area, including multiple camera mode affordances, in a first location.
Means for detecting a first gesture on the camera user interface while displaying the camera user interface, and
A means of modifying the appearance of the camera control area in response to detecting the first gesture.
A means of displaying one or more additional camera mode affordances at said first location, according to the determination that the gesture is a first type of gesture.
A means of stopping the display of the plurality of camera mode affordances and a plurality of camera setting affordances at the first location according to the determination that the gesture is a second type of gesture different from the first type. A means of modifying the appearance of the camera control area, including a means of displaying, wherein the camera setting affordance is a setting that adjusts the image capture of the currently selected camera mode.
Equipped with an electronic device.
[Item 51]
It's a method
An electronic device that has a display device and one or more cameras.
User camera Receiving a request to display the user interface and
In response to receiving the request to display the camera user interface, and according to the determination that the respective criteria are not met.
Displaying the camera user interface via the display device.
A first region that includes a representation of the first portion of the field of view of one or more cameras.
A second region comprising a representation of a second portion of the field of view of the one or more cameras, wherein the second portion of the field of view of the one or more cameras is visual with the first portion. Displaying a camera user interface, including a second area, which is distinctly distinguished from each other.
Detecting the input corresponding to the request to capture media with the one or more cameras while the camera user interface is displayed.
In response to detecting the input corresponding to the request to capture the media with the one or more cameras, the visual content corresponding to the first portion of the field of view of the one or more cameras and the 1 Capturing media items, including visual content corresponding to the second portion of the field of view of one or more cameras, with the one or more cameras.
After capturing the media item, receiving a request to display the media item and
In response to receiving the request to display the media item, the said without displaying a representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras. Displaying a first representation of the visual content corresponding to the first portion of the field of view of one or more cameras.
Including methods.
[Item 52]
While displaying the first representation of the visual content, detecting one or more sets of inputs corresponding to the request to modify the representation of the visual content.
In response to detecting one or more inputs of the set, the second representation of the visual content comprises displaying the second representation of the visual content, wherein the second representation of the visual content is one or more. From the visual content from at least a portion of the first portion of the field of view of the camera and from the second portion of the field of view of the one or more cameras not included in the first representation of the visual content. Visual content based on at least a portion of the visual content of
51. The method of item 51.
[Item 53]
The first expression of the visual content is an expression from a first visual point of view.
The second representation of the visual content is not included in the first representation of the visual content, at least the at least portion of the visual content from the second portion of the field of view of the one or more cameras. It is an expression from a second visual viewpoint different from the first visual viewpoint, which is generated based on the above.
The method according to item 52.
[Item 54]
The first representation of the visual content is a representation in the first orientation.
The second representation of the visual content is not included in the first representation of the visual content, at least the at least portion of the visual content from the second portion of the field of view of the one or more cameras. Is an expression in a second orientation different from the first orientation, which is generated based on the above.
The method according to item 52.
[Item 55]
The first representation is displayed at the first zoom level, and the method further
The first representation of the visual content is a representation at the first zoom level.
The second representation of the visual content is not included in the first representation of the visual content, at least the at least portion of the visual content from the second portion of the field of view of the one or more cameras. 52. The method of item 52, which is an expression of a second zoom level different from the first zoom level generated based on the above.
[Item 56]
The first representation of the visual content uses at least a second portion of the visual content from the second portion of the field of view of the one or more cameras to perform at least a portion of the digital image stabilization operation. The method according to any one of items 51 to 55, which is generated based on the above.
[Item 57]
After capturing the media item, performing an object tracking operation using at least a third portion of the visual content from the second portion of the field of view of the one or more cameras.
The method according to any one of items 51 to 56, further comprising.
[Item 58]
The request for displaying the media item is the first request for displaying the media item, and the method further comprises.
Corresponds to the first portion of the field of view of the one or more cameras without displaying the representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras. To receive a second request to display the media item after displaying the first representation of the visual content.
The first representation of the visual content and the first representation of the visual content corresponding to the first portion of the field of view of the one or more cameras in response to receiving the second request to display the media item. The method of any one of items 51-57, comprising displaying the representation of the visual content corresponding to the second portion of the field of view of one or more cameras.
[Item 59]
Displaying the camera user interface Displaying the second camera user interface via the display device in response to receiving the request and in accordance with the determination that the respective criteria are met. Thus, the second camera user interface does not include the representation of the second portion of the field of view of the one or more cameras, but of the first portion of the field of view of the one or more cameras. Displaying a second camera user interface, including the above representation.
The method according to any one of items 51 to 58, further comprising.
[Item 60]
The above method
Receiving a request to view previously captured media items and
In response to receiving the request to display the previously captured media item,
Displaying additional content indications according to the determination that the previously captured media item was captured when each of the above criteria was not met.
Stopping displaying additional content indications according to the determination that the previously captured media item was captured when each of the above criteria was met.
59. The method of item 59, further comprising.
[Item 61]
59 or 60. The method of item 59 or 60, wherein each of the criteria comprises a criterion in which the electronic device is configured to capture a media item at a resolution of 4000 horizontal pixels or higher.
[Item 62]
The method of any one of items 59-61, wherein each of the criteria comprises a criterion that the electronic device is configured to operate in portrait mode at a predetermined zoom level.
[Item 63]
The method according to any one of items 59 to 62, wherein each of the criteria comprises a criterion in which at least one of the one or more cameras is satisfied that the camera cannot maintain focus for a predetermined period of time.
[Item 64]
The input corresponding to the request for capturing media with the one or more cameras is the first input corresponding to the request for capturing media with the one or more cameras.
The above method further
While the camera user interface is displayed, detecting a second input corresponding to a request to capture media with the one or more cameras.
In response to detecting the second input corresponding to the request to capture the media with the one or more cameras
Based on the additional content settings, according to the determination that the electronic device is configured to capture the visual content corresponding to the second portion of the field of view of the one or more cameras.
Capturing the first representation of the visual content corresponding to the first portion of the field of view of the one or more cameras and corresponding to the second portion of the field of view of the one or more cameras. To capture the representation of at least a portion of the visual content
Based on the additional content settings, according to the determination that the electronic device is not configured to capture the visual content corresponding to the second portion of the field of view of the one or more cameras.
In the first portion of the field of view of the one or more cameras without capturing the representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras. Capturing the first representation of the corresponding visual content,
The method according to any one of items 51 to 63, comprising.
[Item 65]
A non-temporary computer-readable storage medium that stores one or more programs configured to be performed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more. A non-temporary computer-readable storage medium, wherein the program comprises instructions for performing the method according to any one of items 51-64.
[Item 66]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
An electronic device comprising a memory for storing one or more programs configured to be performed by the one or more processors, wherein the one or more programs is any one of items 51 to 64. Instructions to perform the method described in
Including electronic devices.
[Item 67]
It ’s an electronic device,
Display device and
With one or more cameras
A means for performing the method according to any one of items 51 to 64, and
Equipped with an electronic device.
[Item 68]
A non-temporary computer-readable storage medium that stores one or more programs configured to be executed by one or more processors of an electronic device with a display device and one or more cameras, said one or more. Program,
User camera Receiving a request to display the user interface and
In response to receiving the request to display the camera user interface, and according to the determination that the respective criteria are not met.
Displaying the camera user interface via the display device.
A first region that includes a representation of the first portion of the field of view of one or more cameras.
A second region comprising a representation of a second portion of the field of view of the one or more cameras, wherein the second portion of the field of view of the one or more cameras is visual with the first portion. Displaying a camera user interface, including a second area, which is distinctly distinguished from each other.
Detecting the input corresponding to the request to capture media with the one or more cameras while the camera user interface is displayed.
In response to detecting the input corresponding to the request to capture the media with the one or more cameras, the visual content corresponding to the first portion of the field of view of the one or more cameras and the 1 Capturing media items, including visual content corresponding to the second portion of the field of view of one or more cameras, with the one or more cameras.
After capturing the media item, receiving a request to display the media item and
In response to receiving the request to display the media item, the said without displaying a representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras. A non-temporary computer-readable storage medium comprising the instruction of displaying a first representation of the visual content corresponding to the first portion of the field of view of one or more cameras.
[Item 69]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
A memory that stores one or more programs configured to be executed by the one or more processors.
An electronic device comprising one or more of the above-mentioned programs.
User camera Receiving a request to display the user interface and
In response to receiving the request to display the camera user interface, and according to the determination that the respective criteria are not met.
Displaying the camera user interface via the display device.
A first region that includes a representation of the first portion of the field of view of one or more cameras.
A second region comprising a representation of a second portion of the field of view of the one or more cameras, wherein the second portion of the field of view of the one or more cameras is visual with the first portion. Displaying a camera user interface, including a second area, which is distinctly distinguished from each other.
Detecting the input corresponding to the request to capture media with the one or more cameras while the camera user interface is displayed.
In response to detecting the input corresponding to the request to capture the media with the one or more cameras, the visual content corresponding to the first portion of the field of view of the one or more cameras and the 1 Capturing media items, including visual content corresponding to the second portion of the field of view of one or more cameras, with the one or more cameras.
After capturing the media item, receiving a request to display the media item and
In response to receiving the request to display the media item, the said without displaying a representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras. Displaying a first representation of the visual content corresponding to the first portion of the field of view of one or more cameras.
Electronic devices, including instructions for.
[Item 70]
It ’s an electronic device,
Display device and
With one or more cameras
User Camera Means of receiving requests to display the user interface,
In response to receiving the request to display the camera user interface, and according to the determination that the respective criteria are not met.
Displaying the camera user interface via the display device.
A first region that includes a representation of the first portion of the field of view of one or more cameras.
A second region comprising a representation of a second portion of the field of view of the one or more cameras, wherein the second portion of the field of view of the one or more cameras is visual with the first portion. A means of displaying a camera user interface, including a second area, which is distinct.
A means of detecting an input corresponding to a request to capture media with the one or more cameras while the camera user interface is displayed.
In response to detecting the input corresponding to the request to capture the media with the one or more cameras, the visual content corresponding to the first portion of the field of view of the one or more cameras and the 1 A means of capturing a media item, including visual content corresponding to the second portion of the field of view of one or more cameras, with the one or more cameras.
A means of receiving a request to display the media item after capturing the media item, and
In response to receiving the request to display the media item, the said without displaying a representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras. A means of displaying a first representation of the visual content corresponding to the first portion of the field of view of one or more cameras.
Equipped with an electronic device.
[Item 71]
It's a method
An electronic device that has a display device and one or more cameras.
Displaying the camera user interface via the display device, wherein the camera user interface includes a camera display area that includes a representation of the field of view of the one or more cameras. ,
Detecting a request to capture media corresponding to the field of view of one or more cameras while displaying the camera user interface.
Capturing the media corresponding to the field of view of the one or more cameras in response to detecting the request to capture the media corresponding to the field of view of the one or more cameras, and the captured. Displaying the representation of the media and
To detect that the representation of the captured media has been displayed for a predetermined period of time while displaying the representation of the captured media.
In response to detecting that the representation of the captured media has been displayed over the predetermined period of time, the representation of the captured media while maintaining the display of the camera user interface. Stopping the display of at least the first part and
Including methods.
[Item 72]
While maintaining the display of the camera user interface, stopping the display of at least the first portion of the representation of the captured media can be stopped.
71. The method of item 71, comprising maintaining the display of at least a second portion of the representation of the captured media.
[Item 73]
Prior to stopping the display of the first portion of the representation, the representation of the captured media is displayed in a first location on the display device.
While maintaining the display of the camera user interface, stopping the display of at least the first portion of the representation of the captured media can be stopped.
Including displaying an animation moving the representation of the captured media from the first location on the display device to a second location on the display device corresponding to the edge of the display device. , Item 71 or 72.
[Item 74]
The representation of the captured media is displayed in a third location on the display device, the method.
Stop displaying at least a portion of the captured media while maintaining the display of the camera user interface while the second representation of the captured media is displayed. To detect user input corresponding to the request to be made
In response to detecting the request to stop displaying at least a portion of the second representation, the second representation of the captured media while maintaining the display of the camera user interface. The method of any one of items 71-73, comprising stopping the display of at least a portion.
[Item 75]
After stopping the display of the first portion of the expression, the fourth location on the display device corresponding to the edge of the display device is different from the fourth location on the display device. Receiving user input corresponding to the movement of the second contact to the location of
In response to receiving a user input corresponding to the movement of the contact from the fourth location on the display device corresponding to the edge of the display device to the fifth location on the display device. To redisplay the first part of the expression,
The method according to any one of items 71 to 74, further comprising.
[Item 76]
Detecting user input corresponding to a request to display a magnified representation of the captured media while the representation of the captured media is being displayed.
Displaying an enlarged representation of the captured media via the display device in response to detecting a user input corresponding to the selection of the representation of the captured media.
The method according to any one of items 71 to 75, further comprising.
[Item 77]
Receiving a request to redisplay the camera user interface while the camera user interface is not displayed.
Redisplaying the camera user interface Displaying a second instance of the camera user interface, including a second representation of the captured media, in response to receiving the request.
The method according to any one of items 71 to 76, further comprising.
[Item 78]
The representation of the captured media is displayed in a fifth location on the display device, and the method further comprises.
Control a plurality of camera settings at the fifth location after stopping the display of at least the first portion of the representation of the captured media while maintaining the display of the camera user interface. The method of any one of items 71-77, comprising displaying affordances.
[Item 79]
Capturing the media corresponding to the field of view of the one or more cameras comprises capturing a sequence of images.
Displaying the representation of the captured media comprises playing at least a portion of the captured sequence of images containing at least two images.
The method according to any one of items 71 to 78.
[Item 80]
79. The method of item 79, wherein the predetermined time is based on said duration of the captured video sequence.
[Item 81]
While displaying the representation of the captured media, receiving user input corresponding to a request to display the option to share the captured media.
Displaying the option to share the captured media Displaying the user interface for sharing the captured media in response to receiving the user input corresponding to the request.
The method according to any one of items 71 to 80, further comprising.
[Item 82]
The method of any one of items 71-81, wherein the user interface sharing the requested media comprises a plurality of options for sharing the captured media.
[Item 83]
A non-temporary computer-readable storage medium that stores one or more programs configured to be performed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more. A non-temporary computer-readable storage medium, wherein the program comprises instructions for performing the method according to any one of items 71-82.
[Item 84]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
An electronic device comprising a memory for storing one or more programs configured to be performed by the one or more processors, wherein the one or more programs is any one of items 71-82. Instructions to perform the method described in
Including electronic devices.
[Item 85]
It ’s an electronic device,
Display device and
With one or more cameras
Means for performing the method according to any one of items 71 to 82, and
Equipped with an electronic device.
[Item 86]
A non-temporary computer-readable storage medium that stores one or more programs configured to be executed by one or more processors of an electronic device with a display device and one or more cameras, said one or more. Program,
Displaying the camera user interface via the display device, wherein the camera user interface includes a camera display area that includes a representation of the field of view of the one or more cameras. ,
Detecting a request to capture media corresponding to the field of view of one or more cameras while displaying the camera user interface.
Capturing the media corresponding to the field of view of the one or more cameras in response to detecting the request to capture the media corresponding to the field of view of the one or more cameras, and the captured. Displaying the representation of the media and
To detect that the representation of the captured media has been displayed for a predetermined period of time while displaying the representation of the captured media.
In response to detecting that the representation of the captured media has been displayed over the predetermined period of time, while maintaining the display of the camera user interface, the representation of the captured media. A non-temporary computer-readable storage medium containing instructions for stopping the display of at least the first part.
[Item 87]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
A memory that stores one or more programs configured to be executed by the one or more processors.
An electronic device comprising one or more of the above-mentioned programs.
Displaying the camera user interface via the display device, wherein the camera user interface includes a camera display area that includes a representation of the field of view of the one or more cameras. ,
Detecting a request to capture media corresponding to the field of view of one or more cameras while displaying the camera user interface.
Capturing the media corresponding to the field of view of the one or more cameras in response to detecting the request to capture the media corresponding to the field of view of the one or more cameras, and the captured. Displaying the representation of the media and
To detect that the representation of the captured media has been displayed for a predetermined period of time while displaying the representation of the captured media.
In response to detecting that the representation of the captured media has been displayed over the predetermined period of time, the representation of the captured media while maintaining the display of the camera user interface. Stopping the display of at least the first part and
Electronic devices, including instructions for.
[Item 88]
It ’s an electronic device,
Display device and
With one or more cameras
A means for displaying a camera user interface via the display device, wherein the camera user interface includes a camera display area including a representation of the field of view of the one or more cameras. ,
Means for detecting a request to capture media corresponding to the field of view of the one or more cameras while displaying the camera user interface.
In response to detecting the request to capture the media corresponding to the field of view of the one or more cameras, the means for capturing the media corresponding to the field of view of the one or more cameras and the captured. A means of displaying the representation of the media,
Means for detecting that the representation of the captured media has been displayed for a predetermined period of time while displaying the representation of the captured media.
In response to detecting that the representation of the captured media has been displayed over the predetermined period of time, the representation of the captured media while maintaining the display of the camera user interface. A means to stop the display of at least the first part,
Equipped with an electronic device.
[Item 89]
It's a method
An electronic device that has a display device and one or more cameras.
Displaying the camera user interface via the display device, wherein the camera user interface includes a camera display area that includes a representation of the field of view of the one or more cameras. ,
On the representation of the field of view of the one or more cameras while the electronic device is configured to capture the media in a first aspect ratio in response to receiving a request to capture the media. To detect the first input, including the first contact, at each location of
In response to detecting the first input,
The electronic device so as to capture the media in a second aspect ratio different from the first aspect ratio in response to a request to capture the media according to the determination that a set of aspect ratio change criteria is met. Is to compose
The set of aspect ratio change criteria corresponds to a predetermined portion of the camera display area that represents at least a portion of the boundary of the media that is captured in response to a request to capture the media for at least a threshold amount of time. Containing and configuring that maintaining the first contact at one location includes criteria that the first input includes and is subsequently satisfied with, and subsequently to a second location different from the first location. Detecting the movement of the first contact and
Including methods.
[Item 90]
In response to detecting at least the first portion of the first input,
Providing a first tactile output according to the determination that the first portion of the first input comprises maintaining the first contact at the first location for at least the threshold time amount. ,
89.
[Item 91]
In response to detecting at least the second part of the first input,
The second portion of the first input is captured in response to a request to capture the media according to the determination that it comprises maintaining the first contact at the first location for at least the threshold time amount. To display the visual indication of the boundary of the media.
89 or 90.
[Item 92]
While the visual indication is displayed and in response to detecting at least the third portion of the first input.
According to the determination that the third portion of the first input comprises the movement of the first contact.
After the first contact is maintained in the first place for the threshold time amount, the movement of the first contact has a first magnitude and a first direction, said first magnitude. And modifying the appearance of the visual indication based on the first direction.
91.
[Item 93]
In response to detecting at least the first portion of the first input,
The one indicated by the visual indication according to the determination that the first portion of the first input comprises maintaining the first contact at the first location for at least the threshold time amount. Displaying an animation that includes reducing the size of a portion of the representation of the field of view of the camera.
91 or 92.
[Item 94]
While the visual indication is displayed and in response to detecting at least the fourth portion of the first input.
According to the determination that the fourth portion of the first input includes the lift-off of the first contact, the size of a portion of the representation of the field of view of the one or more cameras indicated by the visual indication. Displaying animations, including augmentation,
The method according to any one of items 91 to 93, further comprising.
[Item 95]
A first portion of the representation of the field of view of the one or more cameras is shown as selected by the visual indication of the boundary of the media and said of the field of view of the one or more cameras. The second part of the representation is not shown as selected by the visual indication at the boundary of the media.
The second part is visually distinguishable from the first part.
The method according to any one of items 91 to 94.
[Item 96]
Configuring the electronic device to capture media in a second aspect ratio
The media is captured in a predetermined aspect ratio according to the movement of the first contact to the second location having the first magnitude and / or direction of movement within the first movement range. Configuring electronic devices and
According to the movement of the first contact to the second location having a second magnitude and / or direction of movement that is not within the first movement range, the size and / of movement is not predetermined and is not predetermined. Alternatively, the electronic device may be configured to capture media in a direction-based aspect ratio.
The method according to any one of items 90 to 95, comprising.
[Item 97]
96, wherein configuring the electronic device to capture media at the predetermined aspect ratio comprises generating a second tactile output via one or more tactile output devices. the method of.
[Item 98]
The electronic device is configured to capture media using the first camera mode prior to detecting the first input, and the method further comprises.
In response to detecting the first input,
A determination that the first input does not include maintaining the first contact at the first location for the threshold time amount, and the first input exceeding the first movement threshold. Including configuring the electronic device to capture media using a second camera mode different from the first camera mode according to the determination that the movement of contacts is included.
The method according to any one of items 89 to 97.
[Item 99]
The method further comprises an indication that the camera user interface is configured to operate in the first media capture mode.
According to the detection of the fourth input, including detecting the continuous movement of the fourth contact in the second direction on the camera display area.
Including displaying controls that adjust the characteristics associated with the media capture operation,
The method according to any one of items 89 to 98.
[Item 100]
In response to detecting the first input,
The location in the field of view of the camera corresponding to the first location, according to the determination that the first input comprises detecting the first contact at the first location for less than the threshold time amount. Adjusting the focus setting, including configuring the electronic device to capture the media with a content-based focus setting in.
The method according to any one of items 89 to 99, further comprising.
[Item 101]
In response to detecting the first input,
At a third location, where the first input is captured in response to the request to capture the media, which represents at least the portion of the boundary of the media and does not correspond to a predetermined portion of the camera display area. At the first exposure setting based on the content at the location in the field of view of the camera corresponding to the third location, according to the determination that it involves maintaining the first contact over a second threshold time amount. Configuring the electronic device to capture media,
The method according to any one of items 89 to 100, further comprising.
[Item 102]
After configuring the electronic device to capture media with the first exposure setting based on the content at the location in the field of view of the camera corresponding to the third location, the first. A change in the representation of the field of view of the one or more cameras that the content at the location within the field of view of the camera corresponding to three locations no longer exists within the field of view of the one or more cameras. To detect and
Continuing to configure the electronic device to capture media at the first exposure setting in response to detecting the change.
101. The method of item 101.
[Item 103]
A non-temporary computer-readable storage medium that stores one or more programs configured to be performed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more. A non-temporary computer-readable storage medium, wherein the program comprises an instruction to perform the method according to any one of items 89 to 102.
[Item 104]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
An electronic device comprising a memory for storing one or more programs configured to be performed by the one or more processors, wherein the one or more programs is any one of items 89-102. Instructions to perform the method described in
Including electronic devices.
[Item 105]
It ’s an electronic device,
Display device and
With one or more cameras
A means for performing the method according to any one of items 89 to 102, and
Equipped with an electronic device.
[Item 106]
A non-temporary computer-readable storage medium that stores one or more programs configured to be executed by one or more processors of an electronic device with a display device and one or more cameras, said one or more. Program,
Displaying the camera user interface via the display device, wherein the camera user interface includes a camera display area that includes a representation of the field of view of the one or more cameras. ,
On the representation of the field of view of the one or more cameras while the electronic device is configured to capture the media in a first aspect ratio in response to receiving a request to capture the media. To detect the first input, including the first contact, at each location of
In response to detecting the first input,
The electronic device so as to capture the media in a second aspect ratio different from the first aspect ratio in response to a request to capture the media according to the determination that a set of aspect ratio change criteria is met. Is to compose
The set of aspect ratio change criteria corresponds to a predetermined portion of the camera display area that represents at least a portion of the boundary of the media that is captured in response to a request to capture the media for at least a threshold amount of time. Containing and configuring that maintaining the first contact at one location includes criteria that the first input includes and is subsequently met, and subsequently to a second location that is different from the first location. Includes an instruction to detect the movement of the first contact.
Non-temporary computer-readable storage medium.
[Item 107]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
A memory that stores one or more programs configured to be executed by the one or more processors.
An electronic device comprising one or more of the above-mentioned programs.
Displaying the camera user interface via the display device, wherein the camera user interface includes a camera display area that includes a representation of the field of view of the one or more cameras. ,
On the representation of the field of view of the one or more cameras while the electronic device is configured to capture the media in a first aspect ratio in response to receiving a request to capture the media. To detect the first input, including the first contact, at each location of
In response to detecting the first input,
The electronic device so as to capture the media in a second aspect ratio different from the first aspect ratio in response to a request to capture the media according to the determination that a set of aspect ratio change criteria is met. Is to compose
The set of aspect ratio change criteria corresponds to a predetermined portion of the camera display area that represents at least a portion of the boundary of the media that is captured in response to a request to capture the media for at least a threshold amount of time. Containing and configuring that maintaining the first contact at one location includes criteria that the first input includes and is subsequently satisfied with, and subsequently to a second location different from the first location. The command to detect the movement of the first contact,
Including electronic devices.
[Item 108]
It ’s an electronic device,
Display device and
With one or more cameras
A means of displaying a camera user interface via the display device, wherein the camera user interface includes a camera display area that includes a representation of the field of view of the one or more cameras. ,
On the representation of the field of view of the one or more cameras while the electronic device is configured to capture the media in a first aspect ratio in response to receiving a request to capture the media. A means of detecting a first input, including a first contact, at each location of the
In response to detecting the first input,
The electronic device so as to capture the media in a second aspect ratio different from the first aspect ratio in response to a request to capture the media according to the determination that a set of aspect ratio change criteria is met. Is a means of constructing
The set of aspect ratio change criteria corresponds to a predetermined portion of the camera display area that represents at least a portion of the boundary of the media that is captured in response to a request to capture the media for at least a threshold amount of time. A means of constructing, including a criterion that the first input is satisfied to maintain the first contact at one place, followed by a second place different from the first place. The means for detecting the movement of the first contact and
Equipped with an electronic device.
[Item 109]
It's a method
An electronic device that has a display device and a camera
Displaying a first camera user interface that captures media in a first camera orientation at a first zoom level through the display device while the electronic device is in the first orientation.
To detect a change in the orientation of the electronic device from the first orientation to the second orientation,
In response to detecting the change in orientation of the electronic device from the first orientation to the second orientation,
Media in a second camera orientation at a second zoom level different from the first zoom level, according to the determination that a set of automatic zoom criteria is automatically met without user input. To display a second camera user interface to capture
Including methods.
[Item 110]
Displaying media capture affordances and
Detecting the first input corresponding to the media capture affordance,
In response to detecting the first input,
Capturing the media at the first zoom level according to the determination that the first input was detected while the first camera user interface was displayed.
Capturing the media at the second zoom level according to the determination that the first input was detected while the second camera user interface was displayed.
The method of item 109, further comprising.
[Item 111]
Displaying the first camera user interface includes displaying a first representation of the field of view of the camera.
The first representation is displayed at the first zoom level and in the orientation of the first camera.
Displaying the second camera user interface includes displaying a second representation of the field of view of the camera.
The method of item 109 or 110, wherein the second representation is displayed in the orientation of the second camera at the second zoom level.
[Item 112]
The first orientation is portrait orientation, the first representation is part of the field of view of the camera, the second orientation is landscape orientation, and the second representation is the entire field of view of the camera. , Item 111.
[Item 113]
Receiving a request to change the first zoom level to a third zoom level while displaying the first representation of the field of view of the camera.
In response to receiving the request to change the first zoom level to the third zoom level, the display of the first representation is replaced with a third representation of the field of view of the camera. The third expression is the orientation of the first camera and the third zoom level.
111. The method of item 111 or 112, further comprising.
[Item 114]
Displaying the zoom toggle affordance while displaying the first representation of the field of view of the camera.
Detection of detecting a second input corresponding to the zoom toggle affordance selection, wherein the zoom toggle affordance selection corresponds to a request to change the first zoom level to a fourth zoom level. To do and
In response to detecting the second input, the display of the first representation is replaced with a fourth representation of the field of view of the camera, wherein the fourth representation is the first camera. In the orientation of, and at the fourth zoom level, to replace
The method according to any one of items 111 to 113, further comprising.
[Item 115]
The method of item 114, wherein the zoom toggle affordance is displayed within the first camera user interface and the second camera interface.
[Item 116]
Receiving a request to change the first zoom level to a third zoom level while displaying the first representation of the field of view of the camera.
In response to receiving the request to change the first zoom level to the third zoom level,
Replacing the display of the first expression with the fifth expression of the field of view of the camera, the fifth expression being the orientation of the first camera and the fifth zoom level. To replace and
The method according to any one of items 111 to 115, further comprising.
[Item 117]
The camera includes a first camera and a second camera that is different from the first camera.
The automatic zoom reference causes the electronic device to display the representation of the field of view of the first camera and the representation of the field of view of the second camera in the first camera user interface. The method of any one of items 109-116, comprising criteria that are not met.
[Item 118]
The method according to any one of items 109 to 117, wherein the automatic zoom reference includes a criterion for satisfying that the electronic device is not in video capture operation mode.
[Item 119]
The method of any one of items 109-118, wherein the automatic zoom reference comprises a criterion that the electronic device is configured to capture video of a live communication session.
[Item 120]
The first zoom level is greater than the second zoom level, and the method further comprises.
Detecting a change in the orientation of the electronic device from the second orientation to the first orientation while displaying the second camera user interface.
Displaying the first camera user interface on the display device in response to detecting the change in orientation of the electronic device from the second orientation to the first orientation. Included, the method of any one of items 109-119.
[Item 121]
A non-temporary computer-readable storage medium that stores one or more programs configured to be performed by one or more processors of an electronic device including a display device and a camera, wherein the one or more programs are items. A non-temporary computer-readable storage medium comprising an instruction to perform the method according to any one of 109 to 120.
[Item 122]
It ’s an electronic device,
Display device and
With the camera
With one or more processors
An electronic device comprising a memory for storing one or more programs configured to be performed by the one or more processors, wherein the one or more programs is any one of items 109-120. Instructions to perform the method described in
Including electronic devices.
[Item 123]
It ’s an electronic device,
Display device and
With the camera
Means for performing the method according to any one of items 109 to 120, and
Equipped with an electronic device.
[Item 124]
A non-temporary computer-readable storage medium that stores one or more programs configured to be executed by one or more processors of an electronic device including a display device and a camera, wherein the one or more programs.
Displaying a first camera user interface that captures media in a first camera orientation at a first zoom level through the display device while the electronic device is in the first orientation.
To detect a change in the orientation of the electronic device from the first orientation to the second orientation,
In response to detecting the change in orientation of the electronic device from the first orientation to the second orientation,
Media in a second camera orientation at a second zoom level different from the first zoom level, according to the determination that a set of automatic zoom criteria is automatically met without user input. Including instructions to display a second camera user interface to capture,
Non-temporary computer-readable storage medium.
[Item 125]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
A memory that stores one or more programs configured to be executed by the one or more processors.
An electronic device comprising one or more of the above-mentioned programs.
Displaying a first camera user interface that captures media in a first camera orientation at a first zoom level through the display device while the electronic device is in the first orientation.
To detect a change in the orientation of the electronic device from the first orientation to the second orientation,
In response to detecting the change in orientation of the electronic device from the first orientation to the second orientation,
Media in a second camera orientation at a second zoom level different from the first zoom level, according to the determination that a set of automatic zoom criteria is automatically met without user input. To display a second camera user interface to capture
Electronic devices, including instructions for.
[Item 126]
It ’s an electronic device,
Display device and
With the camera
Means for displaying a first camera user interface that captures media in a first camera orientation at a first zoom level through the display device while the electronic device is in the first orientation.
A means for detecting a change in the orientation of the electronic device from the first orientation to the second orientation, and
In response to detecting the change in orientation of the electronic device from the first orientation to the second orientation,
Media in a second camera orientation at a second zoom level different from the first zoom level, according to the determination that a set of automatic zoom criteria is automatically met without user input. A means of displaying a second camera user interface to capture
Including electronic devices.
[Item 127]
It's a method
An electronic device that has a display device and one or more cameras.
To display a media capture user interface, including displaying a representation of the field of view of one or more cameras, via the display device.
Detecting changes in the field of view of the one or more cameras through the cameras while displaying the media capture user interface.
In response to detecting the change in the field of view of the one or more cameras, and according to the determination that the variable frame rate criterion is met.
Based on the detected changes in the field of view of the one or more cameras at the first frame rate, according to the determination that the detected changes in the field of view of the one or more cameras meet the movement criteria. To update the representation of the field of view of the one or more cameras,
The field of view of the one or more cameras at a second frame rate lower than the first frame rate, according to the determination that the detected changes in the field of view of the one or more cameras do not meet the movement criteria. Updating the representation of the field of view of the one or more cameras based on the detected changes within.
Including methods.
[Item 128]
The variable frame rate reference includes a criterion that is satisfied when the peripheral light in the field of view of the one or more cameras falls below a threshold, and before detecting the change in the field of view of the one or more cameras. The representation of the field of view of the one or more cameras is updated at a third frame rate, and the method further comprises.
The one or more cameras at the third frame rate in response to detecting the change in the field of view of the one or more cameras and according to the determination that the variable frame rate criterion is not met. 127. The method of item 127, comprising maintaining the update of said representation of said field of view.
[Item 129]
138. The method of item 128, wherein the low light variable frame rate reference comprises a criterion that satisfies that the flash mode is inactive.
[Item 130]
Displaying the media capture user interface
In accordance with the determination that the variable frame rate criterion is satisfied, the indication that the variable frame rate mode is active is displayed, and
Displaying the media capture user interface without the indication that the variable frame rate mode is active according to the determination that the variable frame rate criterion is not met.
129. The method according to any one of items 127 to 129.
[Item 131]
The representation of the field of view of the one or more cameras updated based on the detected changes in the field of view of the one or more cameras at the first frame rate is the display at the first luminance. Displayed on the device
The representation of the field of view of the one or more cameras updated based on the detected changes in the field of view of the one or more cameras at the second frame rate lower than the first frame rate. The method according to any one of items 127 to 130, which is displayed on the display device with a second brightness visually brighter than the first brightness.
[Item 132]
The method according to any one of items 127 to 131, wherein the second frame rate is based on the amount of peripheral light in the field of view of the one or more cameras being below the respective thresholds.
[Item 133]
The method of any one of items 127-132, wherein the detected change comprises a detected movement and the second frame rate is based on the amount of the detected movement.
[Item 134]
The movement criteria include criteria for satisfying that the detected change in the field-of-field of the one or more cameras corresponds to the movement of the electronic device that is greater than the movement threshold. , The method according to any one of items 127 to 133.
[Item 135]
A non-temporary computer-readable storage medium that stores one or more programs configured to be performed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more. A non-temporary computer-readable storage medium comprising instructions for the program to perform the method according to any one of items 127-134.
[Item 136]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
An electronic device comprising a memory for storing one or more programs configured to be performed by the one or more processors, wherein the one or more programs is any one of items 127-134. Instructions to perform the method described in
Including electronic devices.
[Item 137]
It ’s an electronic device,
Display device and
With one or more cameras
Means for performing the method according to any one of items 127 to 134, and
Equipped with an electronic device.
[Item 138]
A non-temporary computer-readable storage medium that stores one or more programs configured to be executed by one or more processors of an electronic device with a display device and one or more cameras, said one or more. Program,
To display a media capture user interface, including displaying a representation of the field of view of one or more cameras, via the display device.
Detecting changes in the field of view of the one or more cameras through the cameras while displaying the media capture user interface.
In response to detecting the change in the field of view of the one or more cameras, and according to the determination that the variable frame rate criterion is met.
Based on the detected changes in the field of view of the one or more cameras at the first frame rate, according to the determination that the detected changes in the field of view of the one or more cameras meet the movement criteria. To update the representation of the field of view of the one or more cameras,
The field of view of the one or more cameras at a second frame rate lower than the first frame rate, according to the determination that the detected changes in the field of view of the one or more cameras do not meet the movement criteria. A non-temporary computer-readable storage medium comprising an instruction to update the representation of the field of view of the one or more cameras based on the detected changes within.
[Item 139]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
A memory that stores one or more programs configured to be executed by the one or more processors.
An electronic device comprising one or more of the above-mentioned programs.
To display a media capture user interface, including displaying a representation of the field of view of one or more cameras, via the display device.
Detecting changes in the field of view of the one or more cameras through the cameras while displaying the media capture user interface.
In response to detecting the change in the field of view of the one or more cameras, and according to the determination that the variable frame rate criterion is met.
Based on the detected changes in the field of view of the one or more cameras at the first frame rate, according to the determination that the detected changes in the field of view of the one or more cameras meet the movement criteria. To update the representation of the field of view of the one or more cameras,
The field of view of the one or more cameras at a second frame rate lower than the first frame rate, according to the determination that the detected changes in the field of view of the one or more cameras do not meet the movement criteria. Updating the representation of the field of view of the one or more cameras based on the detected changes within.
Electronic devices, including instructions for.
[Item 140]
It ’s an electronic device,
Display device and
With one or more cameras
A means of displaying a media capture user interface, including displaying a representation of the field of view of the one or more cameras via the display device.
Means for detecting changes in the field of view of the one or more cameras via the cameras while displaying the media capture user interface.
In response to detecting the change in the field of view of the one or more cameras, and according to the determination that the variable frame rate criterion is met.
Based on the detected changes in the field of view of the one or more cameras at the first frame rate, according to the determination that the detected changes in the field of view of the one or more cameras meet the movement criteria. , A means of updating the representation of the field of view of the one or more cameras, and
The field of view of the one or more cameras at a second frame rate lower than the first frame rate, according to the determination that the detected changes in the field of view of the one or more cameras do not meet the movement criteria. Means for updating the representation of the field of view of the one or more cameras based on the detected changes within.
Including electronic devices.
[Item 141]
It's a method
An electronic device that has a display device and one or more cameras.
Receiving a request to display the camera user interface and
Displaying the camera user interface In response to receiving the request to display the camera user interface, the camera user interface is displayed via the display device.
Displaying a representation of the field of view of one or more cameras via the display device.
At the same time as the representation of the field of view of the one or more cameras, according to the determination that the low light condition is satisfied, including the condition that the peripheral light in the field of view of the one or more cameras falls below their respective thresholds. To display controls that adjust the capture duration to capture media in response to requests to capture media,
Displaying the camera user interface, including stopping displaying the control that adjusts the capture duration, according to the determination that the low light condition is not met.
Including methods.
[Item 142]
While displaying the control that adjusts the capture duration, getting an indication that the low light condition is no longer met,
In response to the acquisition of the indication, the display of the control that adjusts the capture duration is stopped via the display device.
141. The method of item 141.
[Item 143]
Obtaining an indication that a low light condition has been met while displaying the representation of the field of view of the one or more cameras without simultaneously displaying the controls that adjust the capture duration. When,
In response to the acquisition of the indication, displaying the control adjusting the capture duration at the same time as the representation of the field of view of the one or more cameras.
141 or 142.
[Item 144]
The method according to any one of items 141 to 143, wherein the low light condition includes a condition in which the flash mode is satisfied as inactive.
[Item 145]
The method according to any one of items 141 to 144, wherein the control for adjusting the capture duration is a slider.
[Item 146]
Displaying the camera user interface
From item 141, including displaying a media capture affordance that, when selected simultaneously with said representation of the field of view of the one or more cameras, initiates the capture of the media using the one or more cameras. The method according to any one of 145.
[Item 147]
While displaying the control for adjusting the capture duration, displaying the first indication of the first capture duration and
The first indicator of the first capture duration in response to receiving a request to adjust the control that adjusts the capture duration from the first capture duration to the second capture duration. Replacing the display of the operation with the display of the second indication of the second capture duration,
The method of item 146, further comprising.
[Item 148]
The representation of the field of view of the one or more cameras is the first representation, and the method further comprises.
In response to receiving the request to adjust the control to adjust the capture duration from the first capture duration
Replacing the display of the first expression with the second expression of the field of view of the one or more cameras, the second expression being based on the second duration. 147. The method of item 147, comprising replacing, visually distinguishing from the first expression.
[Item 149]
Receiving a request to capture media while displaying the second indication of the second capture duration, and
The second capture duration, in response to receiving the request to capture the media, and according to the determination that the second capture duration corresponds to a predetermined deactivation of the low light capture mode. Initiating media capture through one or more of the cameras mentioned above, based on a different duration than
147 or 148.
[Item 150]
Receiving a request to capture media while displaying the second indication of the second capture duration, and
In response to receiving the request to capture the media, the capture of the media is initiated via the one or more cameras based on the second capture duration.
147 or 148.
[Item 151]
Stopping the display of the representation of the field of view of the one or more cameras in response to receiving the request to capture the media.
The method of item 150, further comprising.
[Item 152]
The control for adjusting the capture duration is displayed in a first color, and the method further comprises.
150 or 151, comprising displaying the control adjusting the capture duration in a second color different from the first color in response to receiving the request to capture the media. the method of.
[Item 153]
In response to receiving the request to capture the media, display a first animation that moves the third indication of the third capture value to the second indication of the second capture duration. That and
Displaying a second animation that, after displaying the first animation, moves the second indication of the second capture duration to the third indication of the third capture value. That is, the duration of the second animation corresponds to the duration of the second capture duration and is different from the duration of the first animation.
The method according to any one of items 150 to 152, further comprising.
[Item 154]
While displaying the first animation, providing a first tactile output and
While displaying the second animation, providing a second tactile output and
153. The method of item 153.
[Item 155]
After starting the capture of the media, capturing the media based on the second capture duration,
The method according to any one of items 150 to 154, further comprising.
[Item 156]
The media is the first media captured based on the second capture duration, and the method further comprises.
After capturing the first media, receiving a request to capture the second media based on the second capture duration.
In response to receiving the request to capture the second media based on the second capture duration, the capture of the second media is initiated based on the second capture duration. ,
To receive a request to end the capture of the second media after starting the capture of the second media based on the second capture duration and before the second capture duration elapses. When,
In response to receiving the request to end the capture of the second media,
To end the capture of the second media based on the second capture duration,
Displaying a representation of the second media captured prior to the end is to the visual information captured by the one or more cameras prior to receiving the request to end the capture of the second media. Based on
155, the method of item 155.
[Item 157]
The media is the first media captured based on the second capture duration, and the method further comprises.
After capturing the first media, receiving a request to capture the third media based on the second capture duration.
In response to receiving the request to capture the third media based on the second capture duration, the capture of the third media is initiated based on the second capture duration. ,
After starting the capture of the third media based on the second capture duration
According to the determination that the detected changes in the field of view of the one or more cameras exceed the movement reference.
To end the capture of the third medium and
Displaying a representation of the third medium captured prior to the end is to the visual information captured by the one or more cameras prior to receiving the request to end the capture of the second media. Based on
155 or 156 of the method according to item 155 or 156.
[Item 158]
Replacing the affordance display requesting media capture with an affordance display that terminates media capture, in response to receiving the media capture request.
The method according to any one of items 155 to 167, further comprising.
[Item 159]
After starting the capture of the media, displaying the first representation of the first media captured at the first capture time.
After displaying the first representation of the first media, the display of the first representation of the first media was captured at a second capture time after the first capture time. Replacing with the display of the second representation of the first medium, wherein the second representation is visually distinguishable from the first representation.
The method according to any one of items 155 to 158, further comprising.
[Item 160]
159. The method of item 159, wherein replacing the display of the first expression with the display of the second expression is performed after a predetermined period of time.
[Item 161]
A low light capture status indicator indicating that the low light capture mode state is active at the same time as the control that displays the camera user interface adjusts the capture duration according to the determination that the low light condition has been met. Including displaying
The above method
Receiving the first selection of the low light state indicator while displaying the low light capture state indicator, and
In response to receiving the first selection of the low light condition indicator,
Stopping the display of the control that adjusts the capture duration while maintaining the display of the low light capture status indicator.
It comprises updating the appearance of the low light capture state indicator to indicate that the state of the low light capture mode is inactive.
The method according to any one of items 141 to 160.
[Item 162]
While displaying the camera user interface is displaying the low light capture state, which indicates that the low light capture mode is inactive, according to the determination that the low light condition has been met, the low light. Including receiving a second selection of status indicators
The above method
Redisplaying the control adjusting the capture duration in response to receiving the second selection of the low light condition indicator.
161. The method of item 161.
[Item 163]
161. The method of item 161 comprising configuring the electronic device so that it does not perform a flash operation in response to receiving the first selection of the low light capture state indicator.
[Item 164]
The method according to any one of items 161 to 163, wherein the low light condition includes a condition in which the low light condition indicator is satisfied that the low light condition indicator is selected.
[Item 165]
A non-temporary computer-readable storage medium that stores one or more programs configured to be performed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more. A non-temporary computer-readable storage medium, wherein the program comprises instructions for performing the method according to any one of items 141 to 164.
[Item 166]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
An electronic device comprising a memory for storing one or more programs configured to be performed by the one or more processors, wherein the one or more programs is any one of items 141 to 164. Instructions to perform the method described in
Including electronic devices.
[Item 167]
It ’s an electronic device,
Display device and
With one or more cameras
Means for performing the method according to any one of items 141 to 164, and
Equipped with an electronic device.
[Item 168]
A non-temporary computer-readable storage medium that stores one or more programs configured to be executed by one or more processors of an electronic device with a display device and one or more cameras, said one or more. Program,
Receiving a request to display the camera user interface and
Displaying the camera user interface In response to receiving the request to display the camera user interface, the camera user interface is displayed via the display device.
Displaying a representation of the field of view of one or more cameras via the display device.
At the same time as the representation of the field of view of the one or more cameras, according to the determination that the low light condition is satisfied, including the condition that the peripheral light in the field of view of the one or more cameras falls below their respective thresholds. To display controls that adjust the capture duration to capture media in response to requests to capture media,
Non-temporary, including instructions to display the camera user interface, including to stop displaying the control that adjusts the capture duration according to the determination that the low light condition is not met. Computer-readable storage medium.
[Item 169]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
A memory that stores one or more programs configured to be executed by the one or more processors.
An electronic device comprising one or more of the above-mentioned programs.
Receiving a request to display the camera user interface and
Displaying the camera user interface In response to receiving the request to display the camera user interface, the camera user interface is displayed via the display device.
Displaying a representation of the field of view of one or more cameras via the display device.
At the same time as the representation of the field of view of the one or more cameras, according to the determination that the low light condition is satisfied, including the condition that the peripheral light in the field of view of the one or more cameras falls below their respective thresholds. To display controls that adjust the capture duration to capture media in response to requests to capture media,
Displaying the camera user interface, including stopping displaying the control that adjusts the capture duration, according to the determination that the low light condition is not met.
Electronic devices, including instructions for.
[Item 170]
It ’s an electronic device,
Display device and
With one or more cameras
Means of receiving requests to display the camera user interface,
A means of displaying a camera user interface via the display device in response to receiving the request to display the camera user interface.
A means of displaying a representation of the field of view of one or more cameras via the display device.
At the same time as the representation of the field of view of the one or more cameras, according to the determination that the low light condition is satisfied, including the condition that the peripheral light in the field of view of the one or more cameras falls below their respective thresholds. A means of displaying controls that adjust the capture duration to capture media in response to requests to capture media,
A means of displaying the camera user interface, including a means of stopping displaying the control that adjusts the capture duration according to the determination that the low light condition is not met.
Equipped with an electronic device.
[Item 171]
It's a method
An electronic device that has a display device and one or more cameras.
Displaying the camera user interface via the display device
Detecting the amount of light in the field of view of the one or more cameras via one or more sensors of the electronic device while displaying the camera user interface.
In response to detecting the amount of light in the field of view of the one or more cameras,
According to the determination that the amount of light in the field of view of the one or more cameras meets the low light environmental standard, the low light environmental standard is such that the amount of light in the field of view of the one or more cameras falls below a predetermined threshold. In the camera user interface, including criteria that meet
A flash status indicator that shows the status of flash operation,
Simultaneously displaying the low light capture status indicator, which indicates the status of the low light capture mode, and
Stopping displaying the low light capture status indicator in the camera user interface according to the determination that the amount of light in the field of view of the one or more cameras does not meet the low light environmental standard.
Including methods.
[Item 172]
The flash setting is set to automatically determine whether the amount of light in the field of view of the one or more cameras meets the low light environmental standard and the flash operation is set to active or inactive. According to the determination that the flash operating criteria are met, including the criteria that are met if
The flash state indicator indicates that the state of the flash operation is active.
The low light capture indicator indicates that the state of the low light capture mode is inactive.
Item 171.
[Item 173]
While the amount of light in the field of view of the one or more cameras meets the low light environmental standard
According to the determination that the amount of light in the field of view of the one or more cameras is within a first predetermined range and the flash setting is actively set.
The flash state indicator indicates that the state of the flash operation is active.
The low light capture indicator indicates that the state of the low light capture mode is inactive.
According to the determination that the amount of light in the field of view of the one or more cameras is within the first predetermined range and the flash setting is not actively set.
The flash state indicator indicates that the state of the flash operation is inactive.
The low light capture indicator indicates that the state of the low light capture mode is active.
171 or 172.
[Item 174]
While the amount of light in the field of view of the one or more cameras meets the low light environmental standard
According to the determination that the amount of light in the field of view of the one or more cameras is in a second predetermined range different from the first predetermined range and the flash setting is set to inactive.
The flash state indicator indicates that the state of the flash operation is inactive.
The low light capture indicator indicates that the state of the low light capture mode is active.
According to the determination that the amount of light in the field of view of the one or more cameras is within the second predetermined range different from the first predetermined range and the flash setting is not set to inactive.
The flash state indicator indicates that the state of the flash operation is active.
The low light capture indicator indicates that the state of the low light capture mode is inactive.
173. The method of item 173.
[Item 175]
The flash indicator is displayed and the state of the flash operation is active, the low light capture indicator is displayed, and the state of the low light capture mode is inactive. While receiving the selection of the flash status indicator,
In response to receiving the selection of the flash status indicator
Updating the flash state indicator to indicate that the state of the flash operation is inactive.
Updating the low light capture indicator to indicate that the state of the low light capture mode is active.
The method according to any one of items 171 to 174, further comprising.
[Item 176]
The flash indicator is displayed and the state of the flash operation is active, the low light capture indicator is displayed, and the state of the low light capture mode is inactive. While receiving the selection of the low light capture status indicator,
In response to receiving the selection of the low light capture status indicator,
Updating the flash state indicator to indicate that the state of the flash operation is inactive.
Updating the low light capture state indicator to indicate that the state of the low light capture mode is active.
The method according to any one of items 171 to 175, further comprising.
[Item 177]
Displaying controls that adjust the capture duration according to the determination that the state in low light capture mode is active.
The method according to any one of items 171 to 176, further comprising.
[Item 178]
While displaying the control for adjusting the capture duration, receiving a request to change the control from the first capture duration to the second capture duration.
In response to receiving a request to change the control from the first capture duration to the second capture duration
According to the determination that the second capture duration is a predetermined capture duration that deactivates the low light capture mode, the low light capture mode indicates that the state is inactive. Updating the capture status indicator and
177.
[Item 179]
Adjusting the capture duration While displaying the control, detecting changes in the state of the low light capture mode and
In response to detecting the change in the low light capture mode state
Stopping the display of the control that adjusts the capture duration according to the determination that the state in low light capture mode is inactive.
177.
[Item 180]
Displaying a first representation of the field of view of the one or more cameras within the camera user interface.
Receiving a request to capture the first medium of the field of view of the one or more cameras while said state of low light capture mode is active.
In response to receiving the request to capture the first media while said state of low light capture mode is active,
Starting the capture of the first media and
Maintaining the display of the first representation of the field of view of the one or more cameras for the duration of the capture of the first medium.
The method according to any one of items 171 to 179, further comprising.
[Item 181]
Receiving a request to capture a second medium of the field of view of the one or more cameras while said state of low light capture mode is active.
In response to receiving the request to capture the second media while the state of the low light capture mode is active, the capture of the second media is initiated.
While capturing the second media, simultaneously displaying the representation of the second media in the camera user interface and
The method according to any one of items 171 to 180, further comprising.
[Item 182]
Displaying a second representation of the field of view of the one or more cameras within the camera user interface.
Receiving a request to capture a third medium of the field of view of the one or more cameras while said state of low light capture mode is active.
In response to receiving a request to capture the third media while the state of the low light capture mode is active, the capture of the third media is initiated.
While capturing the third medium, stopping the display of the representation derived from the field of view of the one or more cameras in the camera user interface.
The method according to any one of items 171 to 181, further comprising.
[Item 183]
Displaying the flash state indicator indicating the state of the flash operation in the camera user interface according to the determination that the amount of light in the field of view of the one or more cameras does not meet the low light environmental standard. ,
The method according to any one of items 171 to 182, further comprising.
[Item 184]
The method according to any one of items 171 to 183, wherein the state of the flash operation and the state of the low light capture mode are mutually exclusive.
[Item 185]
The method according to any one of items 171 to 184, wherein the state of the low light capture mode is selected from the group consisting of an active state, an available state, and an inactive state.
[Item 186]
While the amount of light in the field of view of the one or more cameras meets the low light environmental standard
According to the determination that the amount of light in the field of view of the one or more cameras is in a third predetermined range, the flash state indicator indicates that the state of the flash operation is available.
171 or 172, and the method according to any one of 174 to 185.
[Item 187]
The control that adjusts the capture duration is the first control, and the method further
Receiving the selection of the low light capture state indicator while the flash state indicator indicates that the state of the flash operation is available.
In response to receiving the selection of the capture low light capture status indicator
Updating the low light capture state indicator to indicate that the state of the low light capture mode is active.
186. The method of item 186, comprising displaying a second control for adjusting the capture duration.
[Item 188]
According to the determination that the peripheral light in the field of view of the one or more cameras is within the fourth predetermined range, the first low light capture state indicator is the first visual representation of the first capture duration. Including
According to the determination that the peripheral light in the field of view of the one or more cameras is not within the fourth predetermined range, the first low light capture state indicator is the first of the first capture durations. Does not include visual representation,
The method according to any one of items 171 to 187.
[Item 189]
According to the determination that the amount of light in the field of view of the one or more cameras meets the low light environmental standard in response to detecting the amount of light in the field of view of the one or more cameras.
According to the determination that the peripheral light in the field of view of the one or more cameras is within a third predetermined range, the low light capture state indicator indicates that the low light capture mode state is active. Includes a second visual representation of the first capture duration
According to the determination that the peripheral light in the field of view of the one or more cameras is within a fourth predetermined range, the low light capture state indicator indicates that the state of the low light capture mode is active. , Does not include the second visual representation of the first capture duration,
According to the determination that the ambient light in the field of view of the one or more cameras is within the fifth predetermined range, the low light capture state indicator indicates that the low light capture mode state is available. The low light capture state indicator, which indicates that the state of the low light capture mode is active, includes the second visual representation of the first capture duration, and the state of the low light capture mode. The low light capture state indicator that indicates active and does not include the second visual representation of the first capture duration, and the low light capture state indicator that the state of the low light capture mode is available. Are visually different from each other,
The method according to any one of items 171 to 188, further comprising.
[Item 190]
A non-temporary computer-readable storage medium that stores one or more programs configured to be performed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more. A non-temporary computer-readable storage medium, wherein the program comprises instructions for performing the method according to any one of items 171 to 189.
[Item 191]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
An electronic device comprising a memory for storing one or more programs configured to be performed by the one or more processors, wherein the one or more programs is any one of items 171 to 189. Instructions to perform the method described in
Including electronic devices.
[Item 192]
It ’s an electronic device,
Display device and
With one or more cameras
Means for performing the method according to any one of items 171 to 189, and
Equipped with an electronic device.
[Item 193]
A non-temporary computer-readable storage medium that stores one or more programs configured to be executed by one or more processors of an electronic device with a display device and one or more cameras, said one or more. Program,
Displaying the camera user interface via the display device
Detecting the amount of light in the field of view of the one or more cameras via one or more sensors of the electronic device while displaying the camera user interface.
In response to detecting the amount of light in the field of view of the one or more cameras,
According to the determination that the amount of light in the field of view of the one or more cameras meets a low light environment standard, including a criterion that is satisfied when the amount of light in the field of view of the one or more cameras falls below a predetermined threshold. , In the camera user interface,
A flash status indicator that shows the status of flash operation,
Simultaneously displaying the low light capture status indicator, which indicates the status of the low light capture mode, and
An instruction to stop displaying the low light capture state indicator in the camera user interface according to the determination that the amount of light in the field of view of the one or more cameras does not meet the low light environment criteria. Non-temporary computer-readable storage media, including.
[Item 194]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
A memory that stores one or more programs configured to be executed by the one or more processors.
An electronic device comprising one or more of the above-mentioned programs.
Displaying the camera user interface via the display device
Detecting the amount of light in the field of view of the one or more cameras via one or more sensors of the electronic device while displaying the camera user interface.
In response to detecting the amount of light in the field of view of the one or more cameras,
According to the determination that the amount of light in the field of view of the one or more cameras meets a low light environment standard, including a criterion that is satisfied when the amount of light in the field of view of the one or more cameras falls below a predetermined threshold. , In the camera user interface,
A flash status indicator that shows the status of flash operation,
Simultaneously displaying the low light capture status indicator, which indicates the status of the low light capture mode, and
An instruction to stop displaying the low light capture state indicator in the camera user interface according to the determination that the amount of light in the field of view of the one or more cameras does not meet the low light environmental standard. When,
Including electronic devices.
[Item 195]
It ’s an electronic device,
Display device and
With one or more cameras
A means of displaying the camera user interface via the display device,
Means for detecting the amount of light in the field of view of the one or more cameras via the one or more sensors of the electronic device while displaying the camera user interface.
In response to detecting the amount of light in the field of view of the one or more cameras,
According to the determination that the amount of light in the field of view of the one or more cameras meets a low light environment standard, including a criterion that is satisfied when the amount of light in the field of view of the one or more cameras falls below a predetermined threshold. , In the camera user interface,
A flash status indicator that shows the status of flash operation,
A means of simultaneously displaying a low light capture status indicator indicating the status of the low light capture mode, and
Means for stopping the display of the low light capture state indicator in the camera user interface according to the determination that the amount of light in the field of view of the one or more cameras does not meet the low light environmental standard.
Including electronic devices.
[Item 196]
It's a method
An electronic device that has a display device
On the display device
Expression of visual media and
A first affordance corresponding to a first editable parameter that edits the representation of the visual media, and
Displaying a media editing user interface, including a second affordance corresponding to a second editable parameter that edits the representation of the visual media.
Detecting the first user input corresponding to the first affordance selection while displaying the media editing user interface.
In response to detecting the first user input corresponding to the selection of the first affordance, the first editable parameter is placed on the display device at each location within the media editing user interface. To display adjustable controls and to adjust
Adjusting the First Editable Parameter Adjusting the First Editable Parameter While Displaying The Adjustable Control And While The First Editable Parameter Is Selected. Detecting the first gesture directed at the adjustable control,
In response to detecting the first gesture directed at the adjustable control that adjusts the first editable parameter while the first editable parameter is selected, the first. Adjusting the current value of the first editable parameter according to the gesture of 1.
Detecting a second user input corresponding to the selection of the second affordance while displaying the adjustable control for adjusting the first editable parameter on the display device.
Adjustable to adjust the second editable parameter to each of the locations in the media editing user interface in response to detecting the second user input corresponding to the selection of the second affordance. To display various controls
Adjusting the Second Editable Parameter Adjusting the Second Editable Parameter While Displaying The Adjustable Control And While The Second Editable Parameter Is Selected. Detecting a second gesture directed at an adjustable control,
In response to detecting the second gesture directed at the adjustable control that adjusts the second editable parameter while the second editable parameter is selected, the second. Adjusting the current value of the second editable parameter according to gesture 2
Including methods.
[Item 197]
The adjustable control that adjusts the first editable parameter includes a first static part and a first variable part.
The adjustable control that adjusts the second editable parameter includes the first static portion and the second variable portion.
Displaying the adjustable control that adjusts the second editable parameter at each of the locations within the media editing user interface.
Maintaining the display of the first static portion on the display device at each of the above locations within the media editing user interface.
196. The method of item 196.
[Item 198]
One or more visual features when the adjustable control that adjusts the first editable parameter and the adjustable control that adjusts the second editable parameter are adjusted to the same relative position. 196 or 197 of the method of sharing.
[Item 199]
The visual sense in response to detecting the first gesture directed at the adjustable control that adjusts the first editable parameter while the first editable parameter is selected. Replacing the display of the representation of the media with the adjusted representation of the visual media adjusted based on the adjusted current value of the first editable parameter.
The visual sense in response to detecting the second gesture directed at the adjustable control that adjusts the second editable parameter while the second editable parameter is selected. Replacing the display of the representation of the media with the adjusted representation of the visual media adjusted based on the adjusted current value of the second editable parameter.
The method according to any one of items 196 to 198, further comprising.
[Item 200]
The first editable parameter is an automatically adjusted editable parameter.
From item 196, adjusting the current value of the first editable parameter according to the first gesture comprises adjusting the current value of a plurality of editable parameters including the second editable parameter. The method according to any one of 199.
[Item 201]
The media edit user interface includes a plurality of editable parameter current value indicators, and the plurality of editable parameter current value indicators.
A value indicator corresponding to the second editable parameter of the representation of the visual media, and
Includes a value indicator corresponding to a third editable parameter of the representation of the visual media.
Adjusting the current values of the multiple editable parameters
Adjusting the current value of the third editable parameter and
Updating the value indicator corresponding to the second editable parameter based on the adjusted current value of the second editable parameter.
Updating the value indicator corresponding to the third editable parameter based on the adjusted current value of the third editable parameter.
200. The method of item 200.
[Item 202]
Detecting a third user input while the media editing user interface does not include a third affordance corresponding to a fourth editable parameter that edits the representation of the visual media.
In response to detecting the third user input, displaying the third affordance and
The method according to any one of items 196 to 201, further comprising.
[Item 203]
The adjustable control that adjusts the first editable parameter while displaying the adjustable control and detecting the third input. Do not emphasize visually,
202. The method of item 202.
[Item 204]
While the adjustable control for adjusting the first editable parameter is displayed, the third input is received and
Displaying the third affordance
According to the determination that the first set of criteria including the criteria that the fourth editable parameter is satisfied as the first type of parameter is met, at each of the above locations within the media editing user interface. To display an adjustable control that adjusts the fourth editable parameter.
Displaying the adjustable control that adjusts the fourth editable parameter at each of the locations within the media editing user interface according to the determination that the first set of criteria is not met. To stop and
203. The method of item 203.
[Item 205]
The item according to any one of items 196 to 204, wherein the first user input is a tap input on the first affordance, and the second user input is a tap input on the second affordance. Method.
[Item 206]
A first indicator of whether the representation of the visual media is currently being adjusted based on the first editable parameter while displaying the representation of the visual media and the first affordance. To display the editable parameter status indicator and
Detecting a fourth user input corresponding to the first affordance selection and
In response to detecting the fourth user input
According to the determination that the representation of the visual media is currently being adjusted based on the first editable parameter.
Updating the first editable parameter status indicator to indicate that the representation of the visual media is not currently adjusted based on the first editable parameter display.
Replacing the display of the representation of the visual media with a representation of the visual media that was not adjusted based on the first editable parameter.
According to the determination that the representation of the visual media is not currently adjusted based on the first editable parameter.
Updating the status indicator to indicate that the representation of the visual media is currently being adjusted based on the current value of the first editable parameter.
Replacing the display of the representation on the visual media with the representation of the visual media adjusted based on the first editable parameter.
The method according to any one of items 196 to 205, further comprising.
[Item 207]
Adjusting the current value of the first editable parameter according to the first gesture
Producing the tactile output according to the determination that the current value of the first editable parameter corresponds to a predetermined reset value for the first editable parameter.
Stopping generating the tactile output according to the determination that the current value of the first editable parameter does not correspond to the predetermined reset value for the first editable parameter.
The method according to any one of items 196 to 206, comprising:
[Item 208]
Visually adjust the first editable parameter while detecting the first gesture directed at the adjustable control to adjust the first editable parameter. To emphasize,
The method according to any one of items 196 to 207, further comprising.
[Item 209]
From item 196, a third editable parameter current value indicator visually surrounds at least a portion of the first affordance, and a fourth editable parameter current value indicator visually surrounds the second affordance. The method according to any one of 208.
[Item 210]
The electronic device includes one or more cameras
The expression of the visual medium is an expression of the one or the field of view of the camera.
The media editing user interface is displayed while the electronic device is configured to capture visual media in a first capture mode that allows the application of lighting and depth effects.
The first editable parameter is the illumination effect intensity.
The second editable parameter is the depth effect intensity.
The method according to any one of items 196 to 199 and 202 to 209.
[Item 211]
The first editable parameter corresponds to the lighting effect parameter.
The media editing user interface includes a value indicator corresponding to the lighting effect parameter.
Adjusting the current value of the first editable parameter according to the first gesture adjusts the light enable state indicator based on the adjusted current value of the first editable parameter. include,
The method according to any one of items 196 to 199 and 202 to 209.
[Item 212]
The first editable parameter is the visual filter effect intensity.
Adjusting the current value of the first editable parameter according to the first gesture
The present invention comprises replacing the representation of the visual media with a representation of the visual media adjusted based on the current value of the filter effect intensity.
The method according to any one of items 196 to 199 and 202 to 209.
[Item 213]
A non-temporary computer-readable storage medium that stores one or more programs configured to be performed by one or more processors of an electronic device comprising a display device, wherein the one or more programs are described in item 196. A non-temporary computer-readable storage medium comprising an instruction to perform the method according to any one of 212.
[Item 214]
It ’s an electronic device,
Display device and
With one or more processors
An electronic device comprising a memory for storing one or more programs configured to be performed by the one or more processors, wherein the one or more programs is any one of items 196-212. Instructions to perform the method described in
Including electronic devices.
[Item 215]
It ’s an electronic device,
Display device and
Means for performing the method according to any one of items 196 to 212, and
Equipped with an electronic device.
[Item 216]
A non-temporary computer-readable storage medium that stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device.
On the display device
Expression of visual media and
A first affordance corresponding to a first editable parameter that edits the representation of the visual media, and
Displaying a media editing user interface, including a second affordance corresponding to a second editable parameter that edits the representation of the visual media.
Detecting the first user input corresponding to the first affordance selection while displaying the media editing user interface.
In response to detecting the first user input corresponding to the selection of the first affordance, the first editable parameter is placed on the display device at each location within the media editing user interface. To display adjustable controls and to adjust
Adjusting the First Editable Parameter Adjusting the First Editable Parameter While Displaying The Adjustable Control And While The First Editable Parameter Is Selected. Detecting the first gesture directed at the adjustable control,
In response to detecting the first gesture directed at the adjustable control that adjusts the first editable parameter while the first editable parameter is selected, the first. Adjusting the current value of the first editable parameter according to the gesture of 1.
Detecting a second user input corresponding to the selection of the second affordance while displaying the adjustable control for adjusting the first editable parameter on the display device.
Adjustable to adjust the second editable parameter to each of the locations in the media editing user interface in response to detecting the second user input corresponding to the selection of the second affordance. To display various controls
Adjusting the Second Editable Parameter Adjusting the Second Editable Parameter While Displaying The Adjustable Control And While The Second Editable Parameter Is Selected. Detecting a second gesture directed at an adjustable control,
In response to detecting the second gesture directed at the adjustable control that adjusts the second editable parameter while the second editable parameter is selected, the second. A non-temporary computer-readable storage medium comprising the instruction of adjusting the current value of the second editable parameter according to the gesture of 2.
[Item 217]
It ’s an electronic device,
Display device and
With one or more processors
A memory that stores one or more programs configured to be executed by the one or more processors.
An electronic device comprising one or more of the above-mentioned programs.
On the display device
Expression of visual media and
A first affordance corresponding to a first editable parameter that edits the representation of the visual media, and
Displaying a media editing user interface, including a second affordance corresponding to a second editable parameter that edits the representation of the visual media.
Detecting the first user input corresponding to the first affordance selection while displaying the media editing user interface.
In response to detecting the first user input corresponding to the selection of the first affordance, the first editable parameter is placed on the display device at each location within the media editing user interface. To display adjustable controls and to adjust
Adjusting the First Editable Parameter Adjusting the First Editable Parameter While Displaying The Adjustable Control And While The First Editable Parameter Is Selected. Detecting the first gesture directed at the adjustable control,
In response to detecting the first gesture directed at the adjustable control that adjusts the first editable parameter while the first editable parameter is selected, the first. Adjusting the current value of the first editable parameter according to the gesture of 1.
Detecting a second user input corresponding to the selection of the second affordance while displaying the adjustable control for adjusting the first editable parameter on the display device.
Adjustable to adjust the second editable parameter to each of the locations in the media editing user interface in response to detecting the second user input corresponding to the selection of the second affordance. To display various controls
Adjusting the Second Editable Parameter Adjusting the Second Editable Parameter While Displaying The Adjustable Control And While The Second Editable Parameter Is Selected. Detecting a second gesture directed at an adjustable control,
In response to detecting the second gesture directed at the adjustable control that adjusts the second editable parameter while the second editable parameter is selected, the second. The instruction to adjust the current value of the second editable parameter according to the gesture of 2.
Including electronic devices.
[Item 218]
It ’s an electronic device,
Display device and
On the display device
Expression of visual media and
A first affordance corresponding to a first editable parameter that edits the representation of the visual media, and
A means of displaying a media editing user interface, including a second affordance corresponding to a second editable parameter that edits the representation of the visual media.
A means of detecting a first user input corresponding to the first affordance selection while displaying the media editing user interface.
In response to detecting the first user input corresponding to the selection of the first affordance, the first editable parameter is placed on the display device at each location within the media editing user interface. A means of displaying adjustable controls and
Adjusting the First Editable Parameter Adjusting the First Editable Parameter While Displaying The Adjustable Control And While The First Editable Parameter Is Selected. A means of detecting a first gesture directed at an adjustable control,
In response to detecting the first gesture directed at the adjustable control that adjusts the first editable parameter while the first editable parameter is selected, the first. A means for adjusting the current value of the first editable parameter according to the gesture of 1.
Means for detecting a second user input corresponding to the selection of the second affordance while displaying the adjustable control for adjusting the first editable parameter on the display device.
Adjustable to adjust the second editable parameter to each of the above locations within the media editing user interface in response to detecting the second user input corresponding to the selection of the second affordance. How to display various controls
Adjusting the Second Editable Parameter Adjusting the Second Editable Parameter While Displaying The Adjustable Control And While The Second Editable Parameter Is Selected. A means of detecting a second gesture directed at an adjustable control,
In response to detecting the second gesture directed at the adjustable control that adjusts the second editable parameter while the second editable parameter is selected, the second. A means of adjusting the current value of the second editable parameter according to the gesture of 2 and
Equipped with an electronic device.
[Item 219]
It's a method
An electronic device that has a display device
On the display device
The first expression of the first visual medium and
Displaying a first user interface that includes simultaneously displaying an adjustable control that includes an indication of the current adjustment amount for perspective distortion of the first visual medium.
Detecting user input, including gestures directed at the adjustable control, while displaying the first user interface on the display device.
In response to detecting the user input containing the gesture directed at the adjustable control,
Displaying a second representation of the first visual medium on the display device with each adjustment amount for the perspective distortion selected based on the magnitude of the gesture.
Including methods.
[Item 220]
The first user interface is
When selected, the first visual media updates the indication of the adjustable control and is based on user input to indicate the current amount of adjustment for horizontal perspective distortion of the first visual media. The first affordance, which constitutes the adjustable control so as to allow adjustment of the current adjustment amount with respect to the horizontal perspective distortion of the.
When selected, the first visual media updates the indication of the adjustable control and is based on user input to indicate the current adjustment amount for vertical perspective distortion of the first visual media. A second affordance that constitutes the adjustable control to allow adjustment of the current adjustment amount with respect to the vertical perspective distortion of the.
219. The method of item 219.
[Item 221]
To indicate the current adjustment amount to rotate the visual content in the first representation of the first visual media when selected while displaying the first affordance and the second affordance. To simultaneously display a third affordance that updates the indication of the adjustable control.
220. The method of item 220.
[Item 222]
The perspective distortion corresponds to the horizontal perspective distortion,
The amount of horizontal perspective distortion of the first representation of the first visual medium is different from the amount of horizontal perspective distortion of the second representation of the first visual media.
The method according to any one of items 219 to 221.
[Item 223]
The perspective distortion corresponds to the vertical perspective distortion,
The amount of vertical perspective distortion of the first representation of the first visual medium is different from the amount of vertical perspective distortion of the second representation of the first visual media.
The method according to any one of items 219 to 222.
[Item 224]
The first representation includes a first real-view horizon, and the method further comprises.
While the first representation of the first visual media includes the degree of rotation of the first visual media with respect to the visual boundary within the representation, the degree of rotation of the representation of the first visual media. Detecting changing inputs and
In response to detecting an input that changes the degree of rotation of the expression of the first visual medium, the expression of the first visual medium is rotated by an amount determined based on the input. ,
The method according to any one of items 219 to 223, comprising.
[Item 225]
The first representation comprises a first visual content of the first visual medium, wherein the method.
Detecting one or more sets of inputs that alter the content of the first representation while the first representation of the first visual media includes the first visual content.
In response to detecting one or more inputs of the set that alter the content of the first representation of the first visual media, the first visual content of the first visual media and the first visual content. To display a fourth representation of the first visual medium, including a second visual content of the first visual medium that is different.
219. The method according to any one of items 219 to 224.
[Item 226]
The first user interface comprises an auto-adjustment affordance, the method further comprising.
Detecting the input corresponding to the automatic adjustment affordance,
In response to detecting the input corresponding to the auto-adjustment affordance,
Automatically adjusting the current values of two or more parameters of the first visual medium selected from the group consisting of horizontal perspective distortion parameters, vertical perspective distortion parameters, and rotation parameters.
Displaying a fifth representation of the first visual medium based on the adjusted current values of the two or more adjusted parameters.
219. The method according to any one of items 219 to 225.
[Item 227]
One or more of a second set corresponding to a request to display a third user interface that is different from the first user interface while displaying the first user interface that includes the auto-tuning affordance. To detect the input of
Displaying the third user interface, including displaying a third user interface on the display device in response to detecting one or more inputs in the second set. but,
Displaying at least a portion of the visual content of the second visual medium
Displaying the auto-tuning interface according to the determination that the second visual media contains additional visual content outside a predetermined spatial boundary of the visual content.
Stopping the display of the auto-tuning interface according to the determination that the second visual media does not contain additional visual content outside a predetermined spatial boundary of the visual content.
226. The method of item 226.
[Item 228]
The first representation of the first visual media includes additional visual content that is also outside a predetermined spatial boundary of the captured visual content when the first visual media is captured. Not a representation of the first part of the visual content of the first visual medium.
The second representation of the first visual media is that of the additional visual content that is also outside a predetermined spatial boundary of the captured visual content when the first visual media is captured. Including at least a part,
The method according to any one of items 219 to 227.
[Item 229]
The first representation of the first visual medium is displayed in the first aspect ratio.
The first user interface includes aspect ratio affordances.
The above method further
Detecting the user input corresponding to the aspect ratio affordance while displaying the first representation of the first visual medium.
In response to detecting the user input corresponding to the aspect ratio affordance, the sixth representation of the first visual medium is displayed with a second aspect ratio different from the first aspect ratio. ,
219. The method according to any one of items 219 to 228.
[Item 230]
The first representation of the first visual medium is displayed in the first orientation.
The first aspect ratio has a first horizontal aspect value and a first vertical aspect value.
The first user interface includes aspect ratio affordances.
The above method further
Detecting the user input corresponding to the aspect ratio affordance while displaying the first representation of the first visual medium.
A third aspect different from the first aspect ratio without rotating the first representation of the first visual media in response to detecting the user input corresponding to the aspect ratio affordance. The third aspect ratio comprises displaying visual feedback indicating a portion of the first visual media corresponding to the ratio.
A second horizontal aspect ratio value equal to the first vertical aspect ratio value,
It has a second vertical aspect ratio value that is equal to the first horizontal aspect ratio value.
229. The method of item 229.
[Item 231]
Displaying the first user interface
The first visual, with one or more controls for adjusting perspective distortion, cropping, and / or rotation of the image, according to the determination that the first visual medium contains frames of a plurality of contents corresponding to different times. Including displaying adjustable controls that adjust which frame of the content corresponding to the media is displayed,
The method according to any one of items 219 to 230.
[Item 232]
A seventh representation of the first visual medium, wherein the seventh representation is around a first portion of the seventh representation that corresponds to a first time in the first visual media. The visual border is displayed,
The above method further
Adjusting which frame of content corresponding to the first visual media While displaying the adjustable control, the time-based of the first visual media corresponding to each time. Detecting the request to select a representation and
In response to detecting the request to select the time-based representation of the first visual media corresponding to each time,
Displaying an eighth representation of the first visual medium corresponding to a second time in the first visual medium.
231. The method of item 231, comprising maintaining the display of visual boundaries displayed around the first portion of the eighth representation of the first visual media.
15. The method of item 15, wherein the adjustable control that selects a time-based representation of the first visual media corresponding to each time is displayed at each location on the display device.
[Item 233]
The first representation of the first visual medium is displayed at the first zoom level, and the method further comprises.
Detecting a request to change the zoom level of the representation of the first visual media while displaying the first representation of the first visual media.
In response to detecting the request to change the zoom level of the representation of the first visual media, the first visual media has a second zoom level different from the first zoom level. Displaying 9 expressions, including,
The method according to any one of items 219 to 232.
[Item 234]
The first representation of the first visual medium comprises perspective distortion based on the shape of the camera lens and / or the position of the camera.
The second representation of the first visual medium is adjusted to reduce the perspective distortion based on the shape of the camera lens and / or the position of the camera.
The method according to any one of items 219 to 233.
[Item 235]
The adjustable control corresponds to the control that corrects perspective distortion.
The above method further
A amount of correction for perspective distortion according to the direction and / or magnitude of the gesture directed at the adjustable control in response to detecting the user input containing the gesture directed at the adjustable control. Including updating,
The method according to any one of items 219 to 234.
[Item 236]
A non-temporary computer-readable storage medium that stores one or more programs configured to be performed by one or more processors of an electronic device comprising a display device, wherein the one or more programs are described in item 219. A non-temporary computer-readable storage medium comprising an instruction to perform the method according to any one of 235.
[Item 237]
It ’s an electronic device,
Display device and
With one or more processors
An electronic device comprising a memory for storing one or more programs configured to be performed by the one or more processors, wherein the one or more programs is any one of items 219 to 235. An electronic device that includes instructions to perform the method described in.
[Item 238]
It ’s an electronic device,
Display device and
Means for performing the method according to any one of items 219 to 235, and
Equipped with an electronic device.
[Item 239]
A non-temporary computer-readable storage medium that stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device.
On the display device
The first expression of the first visual medium and
Displaying a first user interface that includes simultaneously displaying an adjustable control that includes an indication of the current adjustment amount for perspective distortion of the first visual medium.
Detecting user input, including gestures directed at the adjustable control, while displaying the first user interface on the display device.
In response to detecting the user input containing the gesture directed at the adjustable control,
Displaying a second representation of the first visual medium on the display device with each adjustment amount for the perspective distortion selected based on the magnitude of the gesture.
A non-temporary computer-readable storage medium that contains instructions for.
[Item 240]
It ’s an electronic device,
Display device and
With one or more processors
A memory that stores one or more programs configured to be executed by the one or more processors.
An electronic device comprising one or more of the above-mentioned programs.
On the display device
The first expression of the first visual medium and
Displaying a first user interface that includes simultaneously displaying an adjustable control that includes an indication of the current adjustment amount for perspective distortion of the first visual medium.
Detecting user input, including gestures directed at the adjustable control, while displaying the first user interface on the display device.
In response to detecting the user input containing the gesture directed at the adjustable control,
Displaying a second representation of the first visual medium on the display device with each adjustment amount for the perspective distortion selected based on the magnitude of the gesture.
Electronic devices, including instructions for.
[Item 241]
It ’s an electronic device,
Display device and
On the display device
The first expression of the first visual medium and
A means of displaying a first user interface, including displaying at the same time an adjustable control that includes an indication of the current amount of adjustment for perspective distortion of the first visual medium.
Means for detecting user input, including gestures directed at the adjustable control, while displaying the first user interface on the display device.
In response to detecting the user input containing the gesture directed at the adjustable control,
A means for displaying a second representation of the first visual medium on the display device with each adjustment amount for the perspective distortion selected based on the magnitude of the gesture.
Equipped with an electronic device.
[Item 242]
It's a method
An electronic device that has a display device
Through the display device
Displaying a media capture user interface that includes displaying a representation of the field of view of one or more cameras.
Displaying a control that adjusts the capture duration of capturing media while the low light camera mode is active, including displaying said control.
According to the determination that a set of first capture duration criteria is met
Displaying an indication that the control is set to the first capture duration,
Configuring the electronic device to capture a first plurality of images over the first capture duration in response to a single request to capture an image corresponding to the field of view of the one or more cameras. When,
According to the determination that a set of second capture duration criteria different from the set of first capture duration criteria is met.
Displaying an indication that the control is set to a second capture duration that is longer than the first capture duration.
In response to the single request to capture the image corresponding to the field of view of the one or more cameras, the electronic device is configured to capture a second plurality of images over the second capture duration. To configure and
Including methods.
[Item 243]
Receiving the single request to capture the image corresponding to the field of view of the one or more cameras.
In response to receiving the single request to capture the image corresponding to the field of view of the one or more cameras.
According to the determination that the electronic device is configured to capture the first plurality of images over the first capture duration, the first plurality of images are captured over the first capture duration. That and
According to the determination that the electronic device is configured to capture the second plurality of images over the second capture duration, the second plurality of images are captured over the second capture duration. That and
242.
[Item 244]
243. The method of item 243, wherein the amount of images in the first plurality of images is different from the amount of images in the second plurality of images.
[Item 245]
Capturing the first plurality of images in response to receiving the single request to capture the image corresponding to the field of view of the one or more cameras and over the first capture duration. To generate a first composite image containing at least some content of the first plurality of images in accordance with the determination that the electronic device is configured as described above.
Capture the second plurality of images in response to receiving the single request to capture the image corresponding to the field of view of the one or more cameras and over the second capture duration. To generate a second composite image containing at least some content of the second plurality of images in accordance with the determination that the electronic device is configured as described above.
243 or 244 of the method, further comprising.
[Item 246]
To detect the first stability of the electronic device while the control is displaying the indication that it is set to the first capture duration.
In response to detecting the first stability of the electronic device,
According to the determination that the first stability of the electronic device exceeds the first stability threshold.
Displaying an indication that the control is set to a third capture duration that is longer than the first capture duration.
In response to the single request to capture the image corresponding to the field of view of the one or more cameras, the electronic device is configured to capture a third plurality of images over the third capture duration. To configure and
The method according to any one of items 242 to 245, further comprising.
[Item 247]
While the low light camera mode is active, the state of the low light capture mode is shown and
According to the determination that the capture duration display criteria are met, the visual representation of the first capture duration is included.
Displaying a first low light capture status indicator that does not include the visual representation of the first capture duration according to the determination that the duration display criteria are not met.
The method according to any one of items 242 to 246, further comprising.
[Item 248]
247. The method of item 247, wherein the capture duration display criteria includes criteria for satisfying that the ambient light in the field of view of the one or more cameras is within a first predetermined range.
[Item 249]
Before the low light camera mode is active
According to the determination that the peripheral light in the field of view of the one or more cameras is within the second predetermined range, it indicates that the state of the low light capture mode is active, and the visual sense of the third capture duration. Displaying a second low light capture status indicator that includes a representation,
According to the determination that the peripheral light in the field of view of the one or more cameras is within the fourth predetermined range, the state of the low light capture mode is shown to be active and the third capture duration. Displaying a third low light capture status indicator that does not include the visual representation,
A fourth low light capture state indicator indicating that the low light capture mode state is available according to the determination that the ambient light in the field of view of the one or more cameras is within a fifth predetermined range. The second low-light capture state indicator, the third low-light capture state indicator, and the fourth low-light capture state indicator are visually different from each other. That and
According to the determination that the peripheral light in the field of view of the one or more cameras is within the sixth predetermined range, the second low light capture state indicator, the third low light capture state indicator, and the above. Stop displaying the 4th low light capture status indicator,
The method according to any one of items 242 to 248, further comprising.
[Item 250]
The control that adjusts the capture duration to capture the media
The first state corresponding to the first recommended capture duration value, and
A second state corresponding to the second recommended capture duration value, and
It is configured to be adjustable with a third state, which corresponds to a third recommended capture duration value.
The method according to any one of items 242 to 249.
[Item 251]
To display the control that adjusts the capture duration to capture the media
Displaying the control that adjusts the capture duration to capture the media adjusted to the second state according to the determination of a set of first capture duration criteria, the first capture duration. The time is the second recommended capture duration value, to display and
Displaying the control that adjusts the capture duration to capture the media adjusted to the second state according to the determination of a set of second capture duration criteria, the second capture duration. The time is the second recommended capture duration value, to display and
250. The method of item 250.
[Item 252]
To display the control that adjusts the capture duration to capture the media
According to the determination that the control for adjusting the capture duration for capturing the media is in the third state, and the determination that the first set of capture duration criteria is met, the third The recommended capture duration value of is the third capture duration value,
According to the determination that the control for adjusting the capture duration for capturing the media is in the third state, and the determination that the set of second capture duration criteria is met, the third The recommended capture duration value of is a fourth capture duration value different from the third capture duration value.
The method according to item 250 or 251.
[Item 253]
The second capture duration value is the fifth capture duration value, the third recommended capture duration value is the sixth capture value, and the method further comprises.
To detect the first change in the current conditions of the electronic device while viewing the control that adjusts the capture duration to capture the media.
In response to detecting the first change in the current conditions of the electronic device,
According to the determination that the first current condition meets the third capture duration criterion.
From the second recommended capture duration value to the seventh capture duration, which is different from the seventh capture duration.
Changing at least one of the eighth capture duration from the third recommended capture duration value, which is different from the sixth capture duration, and the eighth capture duration.
The method according to any one of items 250 to 252, comprising.
[Item 254]
The first set of capture duration criteria is
Peripheral light detected in the field of view of the one or more cameras,
With the movement detected in the field of view of the one or more cameras,
A second stability of the electronic device and a criterion based on one or more parameters selected from the group consisting of:
The method according to any one of items 250 to 253, comprising.
[Item 255]
Displaying the media capture user interface comprises displaying the affordance to capture the media at the same time as the representation of the field of view of the one or more cameras.
A first, including the selection of the affordance to capture the media, while displaying the affordance to capture the media and displaying the indication that the control is set to a third capture duration. To detect the input, the selection of the affordance to capture the media corresponds to the single request to capture the image corresponding to the field of view of the one or more cameras.
In response to detecting the first input corresponding to the affordance that captures the media, the capture of the fourth plurality of images is initiated over the first capture duration.
The method according to any one of items 250 to 254, comprising.
[Item 256]
The indication that the control is set to the third capture duration is the first indication.
The first indication is displayed at the first position on the control corresponding to the third capture duration.
The above method further
In response to detecting the first input corresponding to the affordance that captures the media, the first indication from the first position on the control to the second position on the control. Displaying moving animations and
Redisplaying the first indication at the first position on the control in response to displaying the first indication at the second position.
255. The method of item 255.
[Item 257]
The indication that the control is set to the third capture duration is the second indication.
The second indication appears at a third position on the control that corresponds to the third capture duration.
The above method further
In response to detecting the first input corresponding to the affordance that captures the media,
Displaying an animation that moves the second indication from the third position on the control to the fourth position on the control.
Detecting a second change in the current conditions of the electronic device while displaying the animation,
In response to detecting a second change in the above conditions
According to the determination that the second current condition meets the fourth capture duration criterion, and in response to displaying the first indication at the fourth position, the third capture duration and To display the second indication at a fifth position on the control corresponding to a different fourth capture duration.
256. The method of item 256.
[Item 258]
To change the visual appearance of the affordance that captures the media in response to detecting the first input corresponding to the affordance that captures the media.
The method according to any one of items 255 to 257, further comprising.
[Item 259]
In response to the detection of the first input corresponding to the affordance that captures the media, the display of the affordance that captures the media is visually different from that of the affordance that captures the media. Replace with an affordance display to end the capture,
25. The method of any one of items 255-258, further comprising.
[Item 260]
In response to detecting the first input corresponding to the affordance to capture the media, the pause of the electronic device when the capture of the media is started via the display device and the pose of the media. Displaying a visual indication of the difference between the pose of the electronic device at the first time after initiating the capture.
The method according to any one of items 255 to 259, further comprising.
[Item 261]
After starting the capture of the first plurality of images over the first capture duration and before detecting the end of the capture of the first plurality of images over the first capture duration.
Displaying one or more low light mode animations according to the determination that the first capture duration exceeds the threshold.
To stop displaying the one or more low light mode animations according to the determination that the first capture duration does not exceed the threshold.
255. The method of item 255.
[Item 262]
While capturing the media
From a plurality of images captured by the one or more cameras prior to the first time in a first time after initiating the capture of the first plurality of images over the first capture duration. To display a representation of a third composite image based on at least some of the content of
From a plurality of images captured by the one or more cameras prior to the second time in a second time after initiating the capture of the first plurality of images over the first capture duration. Including displaying a fourth composite image representation based on at least some of the content of
The first time is different from the second time
The representation of the third composite image is visually distinguishable from the representation of the fourth composite image.
The method according to any one of items 242 to 261, further comprising.
[Item 263]
A non-temporary computer-readable storage medium that stores one or more programs configured to be performed by one or more processors of an electronic device comprising a display device, wherein the one or more programs are from item 242. A non-temporary computer-readable storage medium comprising an instruction to perform the method according to any one of 262.
[Item 264]
It ’s an electronic device,
Display device and
With one or more processors
An electronic device comprising a memory for storing one or more programs configured to be performed by the one or more processors, wherein the one or more programs is any one of items 242 to 262. An electronic device that includes instructions to perform the method described in.
[Item 265]
It ’s an electronic device,
Display device and
Means for performing the method according to any one of items 242 to 262, and
Equipped with an electronic device.
[Item 266]
A non-temporary computer-readable storage medium that stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device.
Through the display device
Displaying a media capture user interface that includes displaying a representation of the field of view of one or more cameras.
While the low light camera mode is active, displaying the control that adjusts the capture duration to capture the media, including the instruction to display the control.
According to the determination that a set of first capture duration criteria is met
Displaying an indication that the control is set to the first capture duration,
Configuring the electronic device to capture a first plurality of images over the first capture duration in response to a single request to capture an image corresponding to the field of view of the one or more cameras. When,
According to the determination that a set of second capture duration criteria different from the set of first capture duration criteria is met.
Displaying an indication that the control is set to a second capture duration that is longer than the first capture duration.
In response to the single request to capture the image corresponding to the field of view of the one or more cameras, the electronic device is configured to capture a second plurality of images over the second capture duration. A non-temporary computer-readable storage medium, including, to configure.
[Item 267]
It ’s an electronic device,
Display device and
With one or more processors
A memory that stores one or more programs configured to be executed by the one or more processors.
An electronic device comprising one or more of the above-mentioned programs.
Through the display device
Displaying a media capture user interface that includes displaying a representation of the field of view of one or more cameras.
While the low light camera mode is active, displaying the control that adjusts the capture duration to capture the media, including the instruction to display the control.
According to the determination that a set of first capture duration criteria is met
Displaying an indication that the control is set to the first capture duration,
Configuring the electronic device to capture a first plurality of images over the first capture duration in response to a single request to capture an image corresponding to the field of view of the one or more cameras. When,
According to the determination that a set of second capture duration criteria different from the set of first capture duration criteria is met.
Displaying an indication that the control is set to a second capture duration that is longer than the first capture duration.
In response to the single request to capture the image corresponding to the field of view of the one or more cameras, the electronic device is configured to capture a second plurality of images over the second capture duration. To configure and
Including electronic devices.
[Item 268]
It ’s an electronic device,
Display device and
Through the display device
A means of displaying a media capture user interface, including means of displaying a representation of the field of view of one or more cameras.
Displaying the control comprises means of displaying a control for adjusting the capture duration of capturing the media while the low light camera mode is active.
According to the determination that a set of first capture duration criteria is met
Displaying an indication that the control is set to the first capture duration,
Configuring the electronic device to capture a first plurality of images over the first capture duration in response to a single request to capture an image corresponding to the field of view of the one or more cameras. When,
According to the determination that a set of second capture duration criteria different from the set of first capture duration criteria is met.
Displaying an indication that the control is set to a second capture duration that is longer than the first capture duration.
In response to the single request to capture the image corresponding to the field of view of the one or more cameras, the electronic device is configured to capture a second plurality of images over the second capture duration. To configure and
Including electronic devices.
[Item 269]
It's a method
An electronic device that has a display device and one or more cameras.
To display a media capture user interface that includes a representation of the field of view of one or more cameras through the display device.
Receiving a request to capture media while viewing the media capture user interface through the display device.
In response to receiving the request to capture the media, initiating the capture of the media through the one or more cameras.
At the first time after starting the capture of media through the one or more cameras.
Pause of the electronic device when capture of the media is initiated through the display device according to the determination that a set of guidance criteria is met, including criteria that the low light mode is satisfied as active. And to display a visual indication of the difference from the pose of the electronic device at the first time after starting the capture of the media.
Including methods.
[Item 270]
269. The method of item 269, wherein the set of guidance criteria is satisfied that the electronic device is configured to capture a plurality of images over a first capture duration that exceeds a threshold duration.
[Item 271]
The visual indication
One or more shapes of the first set representing the pose of the electronic device when the capture of the media is started, and one or more shapes of the first set are the media capture. A first set of one or more shapes, displayed in a first position on the user interface.
One or more shapes of a second set representing the pose of the electronic device at the first time after the start of media capture, wherein the one or more shapes of the second set. Includes a set of shapes, including one or more shapes of a second set, displayed in a second position.
The method according to any one of items 269 to 270.
[Item 272]
One or more of the first set of shapes comprises a first color.
One or more of the second set of shapes comprises a second color that is different from the first color.
The method according to item 271.
[Item 273]
Detecting a change in the pose of the electronic device at a second time after the start of capture
In response to detecting the change in the pose of the electronic device, the second one is placed in a third position on the media camera user interface that is different from the second position on the media camera user interface. Displaying one or more shapes in a set and
271 or 272.
[Item 274]
In response to detecting the change in the pose of the electronic device,
The difference between the first position of one or more shapes of the first set and the third position of one or more shapes of the second set is within the first threshold difference. To stop at least one of the first set of one or more shapes or the second set of one or more shapes according to the determination that
The difference between the first position of one or more shapes of the first set and the third position of one or more shapes of the second set is within the first threshold difference. Maintaining the display of one or more shapes of the first set or one or more shapes of the second set according to the determination that the value is not present.
27. The method of any one of items 271 to 273, further comprising.
[Item 275]
Detecting a change in the pose of the electronic device at a second time after the start of capture
In response to detecting the change in the pose of the electronic device,
The difference between the pose of the electronic device when the capture of the media is started and the pose of the electronic device at the second time after the capture of the media is started is the second threshold difference. To generate a tactile output according to the determination that it is inside,
The difference between the pose of the electronic device when the capture of the media is started and the pose of the electronic device at the second time after the capture of the media is started is within the second threshold difference. To stop generating the tactile output according to the judgment that it is not
The method according to any one of items 269 to 274, further comprising.
[Item 276]
According to the judgment that one set of guidance criteria is met
Displaying the representation corresponding to the request to stabilize the electronic device while capturing the media,
269. The method according to any one of items 269 to 275.
[Item 277]
Stop displaying the visual indication of the difference through the display device according to the determination that the set of guidance criteria is not met.
269. The method according to any one of items 269 to 276.
[Item 278]
The visual indication is displayed at the first time, and the method further comprises.
To detect the end of the capture of the media at a third time different from the first time.
To stop displaying the visual indication via the display device in response to detecting the end of the capture of the media.
269. The method according to any one of items 269 to 277.
[Item 279]
A non-temporary computer-readable storage medium that stores one or more programs configured to be performed by one or more processors of an electronic device comprising a display device, wherein the one or more programs are described in item 269. A non-temporary computer-readable storage medium comprising an instruction to perform the method according to any one of 278.
[Item 280]
It ’s an electronic device,
Display device and
With one or more processors
An electronic device comprising a memory for storing one or more programs configured to be performed by the one or more processors, wherein the one or more programs is any one of items 269 to 278. An electronic device that includes instructions to perform the method described in.
[Item 281]
It ’s an electronic device,
Display device and
Means for performing the method according to any one of items 269 to 278, and
Equipped with an electronic device.
[Item 282]
A non-temporary computer-readable storage medium that stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device.
Through the display device
Displaying a media capture user interface that includes displaying a representation of the field of view of one or more cameras.
While the low light camera mode is active, displaying the control that adjusts the capture duration to capture the media, including the instruction to display the control.
According to the determination that a set of first capture duration criteria is met
Displaying an indication that the control is set to the first capture duration,
Configuring the electronic device to capture a first plurality of images over the first capture duration in response to a single request to capture an image corresponding to the field of view of the one or more cameras. When,
According to the determination that a set of second capture duration criteria different from the set of first capture duration criteria is met.
Displaying an indication that the control is set to a second capture duration that is longer than the first capture duration.
In response to the single request to capture the image corresponding to the field of view of the one or more cameras, the electronic device is configured to capture a second plurality of images over the second capture duration. To configure and
Non-temporary computer-readable storage media, including.
[Item 283]
It ’s an electronic device,
Display device and
With one or more processors
A memory that stores one or more programs configured to be executed by the one or more processors.
An electronic device comprising one or more of the above-mentioned programs.
Through the display device
Displaying a media capture user interface that includes displaying a representation of the field of view of one or more cameras.
While the low light camera mode is active, displaying the control that adjusts the capture duration to capture the media, including the instruction to display the control.
According to the determination that a set of first capture duration criteria is met
Displaying an indication that the control is set to the first capture duration,
Configuring the electronic device to capture a first plurality of images over the first capture duration in response to a single request to capture an image corresponding to the field of view of the one or more cameras. When,
According to the determination that the second set of capture duration criteria different from the first set of capture duration criteria is met.
Displaying an indication that the control is set to a second capture duration that is longer than the first capture duration.
In response to the single request to capture the image corresponding to the field of view of the one or more cameras, the electronic device is configured to capture a second plurality of images over the second capture duration. To configure and
Including electronic devices.
[Item 284]
It ’s an electronic device,
Display device and
Through the display device
A means of displaying a media capture user interface, including means of displaying a representation of the field of view of one or more cameras.
Displaying the control comprises means of displaying a control for adjusting the capture duration of capturing the media while the low light camera mode is active.
According to the determination that a set of first capture duration criteria is met
Displaying an indication that the control is set to the first capture duration,
Configuring the electronic device to capture a first plurality of images over the first capture duration in response to a single request to capture an image corresponding to the field of view of the one or more cameras. When,
According to the determination that a set of second capture duration criteria different from the set of first capture duration criteria is met.
Displaying an indication that the control is set to a second capture duration that is longer than the first capture duration.
In response to the single request to capture the image corresponding to the field of view of the one or more cameras, the electronic device is configured to capture a second plurality of images over the second capture duration. To configure and
Including electronic devices.
[Item 285]
It's a method
An electronic device that has a display device and one or more cameras.
Displaying the camera user interface via the display device.
A first region containing a first representation of a first portion of the field of view of one or more cameras.
A second region that is outside the first region and is visually distinguishable from the first region.
A set of first respective criteria is met, including a criterion in which each first object in the field of view of the one or more cameras is satisfied with a first distance from the one or more cameras. In accordance with the determination that the camera has, the second portion of the field of view of the one or more cameras is displayed in the second area with the first visual appearance.
A set of second respective criteria is met, including a criterion in which each of the first objects in the field of view of the one or more cameras is satisfied to be a second distance from the one or more cameras. The second region includes, according to the determination, to stop displaying the second portion of the field of view of the one or more cameras in the first visual appearance. Displaying the camera user interface, including two areas,
Including methods.
[Item 286]
285. The method of item 285, wherein the second region comprises a plurality of control affordances that control a plurality of camera settings.
[Item 287]
The electronic device is configured to focus on each of the first objects in the field of view of the one or more cameras, and the method further comprises.
Receiving a first request to adjust the focus setting of the electronic device while displaying the second portion of the field of view of the one or more cameras with the first visual appearance.
The electronic device so as to focus on each of the second objects in the field of view of the one or more cameras in response to receiving the first request to adjust the focus setting of the electronic device. And to configure
While the electronic device is configured to focus on each of the second objects in the field of view of the one or more cameras.
Each set of third criteria comprises a criterion in which each of the second objects in the field of view of the one or more cameras is satisfied to be a third distance from the one or more cameras. According to the determination that the condition is satisfied, the display of the second portion of the field of view of the one or more cameras in the second area with the first visual appearance is stopped.
285 or 286 of the method according to item 285 or 286.
[Item 288]
While displaying the second portion of the field of view of the one or more cameras with the first visual appearance, the first objects and the first objects in the field of view of the one or more cameras. Detecting the first change in distance between one or more cameras,
In response to detecting the first change in the distance between each of the first objects in the field of view of the one or more cameras and the one or more cameras.
Each set of fourth criteria is met, including a criterion that each of the first objects in the field of view of the one or more cameras is met at a fourth distance from the one or more cameras. According to the determination that the camera has been used, the display of the second portion of the field of view of the one or more cameras in the second area with the first visual appearance is stopped.
The method according to any one of items 285 to 287, further comprising.
[Item 289]
It is possible to stop displaying the second portion of the field of view of the one or more cameras in the second area with the first visual appearance.
Stopping the display of at least some of the third portion of the field of view of the one or more cameras previously displayed in the second area within the second area.
285. The method according to any one of items 285 to 288.
[Item 290]
Stopping the display of the second portion of the field of view of the one or more cameras in the second region with the first visual appearance is a first superimposed on the second region. The method according to any one of items 285 to 289, which comprises increasing the opacity of the blackening layer of the above.
[Item 291]
The electronic device is configured to focus on each of the first objects in the field of view of the one or more cameras, and the method further comprises.
Receiving a second request to adjust the focus setting of the electronic device while not displaying the second portion of the field of view of the one or more cameras in the first visual appearance.
The electronic device so as to focus on each of the third objects in the field of view of the one or more cameras in response to receiving the second request to adjust the focus setting of the electronic device. And to configure
While the electronic device is configured to focus on each of the third objects in the field of view of the one or more cameras.
A set of fifth criteria is met, including a criterion in which each of the third objects in the field of view of the one or more cameras is satisfied to be a fifth distance from the one or more cameras. The second portion of the field of view of the one or more cameras is displayed in the second area in the first visual appearance according to the determination that the camera has been used.
285. The method according to any one of items 285 to 290.
[Item 292]
While the second portion of the field of view of the one or more cameras is not displayed in the first visual appearance, the first objects and the first objects in the field of view of the one or more cameras. Detecting a second change in distance between one or more cameras,
In response to detecting the second change in the distance between the first object in the field of view of the one or more cameras and the one or more cameras.
Each of the sixth criteria in the set includes a criterion in which each of the first objects in the field of view of the one or more cameras is satisfied to be a sixth distance from the one or more cameras. According to the determination that the condition is satisfied, the second portion of the field of view of the one or more cameras is displayed in the second area with the first visual appearance.
The method according to any one of items 285 to 291, further comprising.
[Item 293]
Displaying the second portion of the field of view of the one or more cameras in the second region with the first visual appearance is in the second region, in the second region. 285. The method of any one of items 285 to 292, comprising displaying a fourth portion of the field of view of the one or more cameras that was not previously displayed.
[Item 294]
Displaying the second portion of the field of view of the one or more cameras in the second region with the first visual appearance is a second blackening superimposed on the second region. 285. The method of any one of items 285-293, comprising reducing said opacity of the layer.
[Item 295]
The first visual appearance may include a first visual prominence to display the second portion of the field of view of the one or more cameras with the first visual appearance.
The second visual appearance comprises displaying an animation that gradually transitions the second portion of the field of view of the one or more cameras from the second visual appearance to the first visual appearance. It has a second visual prominence that is different from the first visual prominence,
The method according to any one of items 285 to 294.
[Item 296]
The first portion is displayed with a third visual appearance that is different from the first visual appearance.
The above method further
Showing that the first portion is displayed in the third visual appearance and that the second portion of the field of view of the one or more cameras is displayed in the first visual appearance. While receiving a request to capture the media,
Capturing Media In response to receiving the request, the media captures the media corresponding to the field of view of the one or more cameras, wherein the media is the field of view of the one or more cameras. Capturing media, including content from the first portion and content from the second portion of the field of view of the one or more cameras.
After capturing the media corresponding to the field of view of the one or more cameras, the content from the first portion of the field of view of the one or more cameras and the first of the field of view of the one or more cameras. Displaying the representation of the media, including the content from part 2,
285. The method of item 285.
[Item 297]
The method according to any one of items 285 to 296, wherein at least the first portion of the second region is above the first region.
[Item 298]
The method according to any one of items 285 to 297, wherein at least a second portion of the second region is below the second region.
[Item 299]
Receiving input at a location on the camera user interface
In response to receiving the input at the location on the camera user interface,
To configure the electronic device to focus on the location of the input according to the determination that the location of the input is within the first region.
Discontinuing the configuration of the electronic device to focus on the location of the input according to the determination that the location of the input is within the second region.
The method according to any one of items 285 to 298, further comprising.
[Item 300]
The method according to any one of items 285 to 299, wherein the second region is visually distinguished from the first region when displayed in the first appearance.
[Item 301]
Items 285 to 300, wherein each of the first set of criteria includes criteria for satisfying that each of the first objects is the closest object identified in the field of view of the one or more cameras. The method according to any one of the above.
[Item 302]
One of items 285 to 301, wherein each of the first set of criteria includes criteria for satisfying that each of the first objects is at a focal point in the field of view of the one or more cameras. The method described in paragraph 1.
[Item 303]
The first region is separated from the second region by a boundary.
In any one of items 285 to 302, wherein each of the first set of criteria comprises a criterion that is met when the detected visual tear adjacent to the boundary is above the threshold level of visual tear. The method described.
[Item 304]
Each of the first set of criteria includes criteria for satisfying that the first portion of the field of view of the one or more cameras is part of the field of view of the first camera.
Item 285-303, wherein each of the second set of criteria comprises criteria for satisfying that the second portion of the field of view of the one or more cameras is part of the field of view of the second camera. The method described in any one of the paragraphs.
[Item 305]
Receiving a request to capture media while displaying the second portion of the field of view of the one or more cameras with a first visual appearance.
Capturing Media In response to receiving the request, the media captures the media corresponding to the field of view of the one or more cameras, wherein the media is the field of view of the one or more cameras. Capturing media, including content from the first portion and content from the second portion of the field of view of the one or more cameras.
After capturing the media, receiving a request to edit the captured media,
In response to receiving the request to edit the captured media, at least some of the content from the first portion of the field of view of the one or more cameras and the one or more cameras. Displaying a representation of the captured media, including at least some of the content from said second portion of said field of view.
The method according to any one of items 285 to 304, further comprising.
[Item 306]
A non-temporary computer-readable storage medium that stores one or more programs configured to be performed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more. A non-temporary computer-readable storage medium, wherein the program contains instructions for performing the method according to any one of items 285 to 305.
[Item 307]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
An electronic device comprising a memory for storing one or more programs configured to be performed by the one or more processors, wherein the one or more programs is any one of items 285 to 305. Instructions to perform the method described in
Including electronic devices.
[Item 308]
It ’s an electronic device,
Display device and
With one or more cameras
Means for performing the method according to any one of items 285 to 305, and
Equipped with an electronic device.
[Item 309]
A non-temporary computer-readable storage medium that stores one or more programs configured to be executed by one or more processors of an electronic device with a display device and one or more cameras, said one or more. Program,
Displaying the camera user interface via the display device.
A first region containing a first representation of a first portion of the field of view of one or more cameras.
A second region that is outside the first region and is visually distinguishable from the first region.
A set of first respective criteria is met, including a criterion in which each first object in the field of view of the one or more cameras is satisfied with a first distance from the one or more cameras. In accordance with the determination that the camera has, the second portion of the field of view of the one or more cameras is displayed in the second area with the first visual appearance.
A set of second respective criteria is met, including a criterion in which each of the first objects in the field of view of the one or more cameras is satisfied to be a second distance from the one or more cameras. The second region includes, according to the determination, to stop displaying the second portion of the field of view of the one or more cameras in the first visual appearance. Includes instructions to display the camera user interface, including two areas,
Non-temporary computer-readable storage medium.
[Item 310]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
A memory that stores one or more programs configured to be executed by the one or more processors.
An electronic device comprising one or more of the above-mentioned programs.
Displaying the camera user interface via the display device.
A first region containing a first representation of a first portion of the field of view of one or more cameras.
A second region that is outside the first region and is visually distinguishable from the first region.
A set of first respective criteria is met, including a criterion in which each first object in the field of view of the one or more cameras is satisfied with a first distance from the one or more cameras. In accordance with the determination that the camera has, the second portion of the field of view of the one or more cameras is displayed in the second area with the first visual appearance.
A set of second respective criteria is met, including a criterion in which each of the first objects in the field of view of the one or more cameras is satisfied to be a second distance from the one or more cameras. The second region includes, according to the determination, to stop displaying the second portion of the field of view of the one or more cameras in the first visual appearance. Instructions to display the camera user interface, including two areas,
Including electronic devices.
[Item 311]
It ’s an electronic device,
Display device and
With one or more cameras
A means for displaying a camera user interface via the display device, wherein the camera user interface is
A first region containing a first representation of a first portion of the field of view of one or more cameras.
A second region that is outside the first region and is visually distinguishable from the first region.
A set of first respective criteria is met, including a criterion in which each first object in the field of view of the one or more cameras is satisfied with a first distance from the one or more cameras. In accordance with the determination that the camera has, the second portion of the field of view of the one or more cameras is displayed in the second area with the first visual appearance.
A set of second respective criteria is met, including a criterion in which each of the first objects in the field of view of the one or more cameras is satisfied to be a second distance from the one or more cameras. The second region includes, according to the determination, to stop displaying the second portion of the field of view of the one or more cameras in the first visual appearance. Means for displaying the camera user interface, including two areas,
Equipped with an electronic device.
[Item 312]
It's a method
An electronic device having a display device, a first camera having a field of view, and a second camera having a field of view wider than the field of view of the first camera.
Through the display device, the camera user interface is to display a camera user interface that includes a representation of at least a portion of the field of view of the one or more cameras displayed at a first zoom level.
A first region containing a representation of the first portion of the field of view of the first camera at the first zoom level.
Displaying a camera user interface that includes, at the first zoom level, a second region that includes a representation of the first portion of the field of view of the second camera.
The one or more while displaying the camera user interface including the representation of at least a portion of the field of view of the one or more cameras displayed at the first zoom level through the display device. Receiving a first request to raise the zoom level of the representation of the portion of the field of view of the camera to a second zoom level.
In response to receiving the first request to raise the zoom level of the representation of the portion of the field of view of the one or more cameras to a second zoom level.
In the first region, at the second zoom level, the second portion of the field of view of the first camera excluding at least one subset of the first portion of the field of view of the first camera. Displaying expressions and
In the second region, the second without displaying a representation of the subset of the field of view of the first camera excluded from the second portion of the field of view of the first camera. At the second zoom level, the second overlaps with the subset of the field of view of the first camera excluded from the second portion of the field of view of the first camera. Displaying the representation of the second part of the field of view of the camera
Including methods.
[Item 313]
The method of item 312, wherein the first portion of the field of view of the second camera is different from the second portion of the field of view of the second camera.
[Item 314]
In the first region, at the second zoom level, the representation of the second portion of the field of view of the first camera is displayed, and in the second region, the second zoom level. In, while displaying the representation of the second portion of the field of view of the second camera, the zoom level of the representation of the portion of the field of view of the one or more cameras is set to a third. Receiving a second request to raise to the zoom level and
In response to receiving the second request to raise the zoom level of the representation of the portion of the field of view of the one or more cameras to the third zoom level.
According to the determination that the third zoom level is within the first zoom value range.
Displaying a representation of a third portion of the field of view of the first camera at the third zoom level in the first region.
In the second region, at the third zoom level, displaying the representation of the fourth portion of the field of view of the first camera.
The method of item 312 or 313, further comprising.
[Item 315]
In the first region, at the third zoom level, the representation of the third portion of the field of view of the first camera is displayed, and in the second region, the third zoom level. In, while displaying the representation of the fourth portion of the field of view of the first camera, the zoom level of the representation of the portion of the field of view of the one or more cameras is set to a fourth. Receiving a third request to raise to the zoom level and
In response to receiving the third request to raise the zoom level of the representation of the portion of the field of view of the one or more cameras to the fourth zoom level.
According to the determination that the fourth zoom level is within the second zoom value range,
In the first region, at the fourth zoom level, the representation of the fifth part of the field of view of the third camera excluding at least one subset of the third part of the field of view of the third camera. To display and
In the second region, the second without displaying a representation of the subset of the field of view of the third camera excluded from the fifth portion of the field of view of the third camera. At the fourth zoom level, the first overlaps with the subset of the field of view of the third camera excluded from the fifth portion of the field of view of the third camera. Displaying the representation of the fifth part of the field of view of the camera and
314. The method of item 314.
[Item 316]
In the first region, at the fourth zoom level, the fourth fifth of the field of view of the third camera excludes at least one subset of the third portion of the field of view of the third camera. The representation of the portion is displayed and, in the second region, the representation of the subset of the field of view of the third camera excluded from the fifth portion of the field of view of the third camera. In the second region, at the fourth zoom level, the portion of the field of view of the third camera excluded from the fifth portion of the field of view of the third camera without display. While displaying the representation of the fifth and fourth portion of the field of view of the first camera that overlaps the subset, the zoom level of the representation of the portion of the field of view of the one or more cameras. Receiving a fourth request to raise to a fifth zoom level and
In response to receiving the fourth request to raise the zoom level of the representation of the portion of the field of view of the one or more cameras to the fifth zoom level.
According to the determination that the fifth zoom level is within the third zoom value range,
In the first region, at the fifth zoom level, the representation of the sixth portion of the field of view of the third camera is displayed.
In the second region, at the fifth zoom level, displaying the representation of the seventh portion of the field of view of the third camera.
315. The method of item 315.
[Item 317]
In the first region, at the fifth zoom level, the representation of the sixth portion of the field of view of the third camera is displayed, and in the second region, at the fifth zoom level. While displaying the representation of the seventh portion of the field of view of the third camera, the zoom level of the representation of the portion of the field of view of the one or more cameras is lowered to the sixth zoom level. Receiving the first request and
In response to receiving the first request to reduce the zoom level of the representation of the portion of the field of view of the one or more cameras to the sixth zoom level.
According to the determination that the sixth zoom level is within the fourth zoom value range so as to be displayed within the second region.
In the first region, at the sixth zoom level, the eighth portion of the field of view of the third camera excluding at least one subset of the third portion of the field of view of the third camera. Displaying expressions and
In the second region, the second without displaying a representation of the subset of the field of view of the third camera excluded from the eighth portion of the field of view of the third camera. At the sixth zoom level, the first overlaps with the subset of the field of view of the third camera excluded from the eighth portion of the field of view of the third camera. Displaying the representation of the eighth part of the field of view of the camera
316. The method of item 316.
[Item 318]
The field of view of the first camera at the sixth zoom level in the first region without displaying a representation of at least one of the subsets of the eighth portion of the field of view of the first camera. Represents an eighth portion of the field of view of the third camera that overlaps at least one subset of the eighth portion of the third camera, and in the second region, at the sixth zoom level, said the third. Of the one or more cameras while displaying a representation of the eighth portion of the field of view of the first camera excluding at least one said subset of the eighth portion of the field of view of one camera. Receiving a second request to reduce the zoom level of the representation of the portion of the field of view to a seventh zoom level.
In response to receiving the first request to reduce the zoom level of the representation of the portion of the field of view of the one or more cameras to the seventh zoom level.
According to the determination that the seventh zoom level is within the fifth zoom value range,
In the first region, at the seventh zoom level, displaying the representation of the first ninth portion of the field of view of the first camera.
In the second region, at the seventh zoom level, displaying the representation of the tenth portion of the field of view of the first camera.
317. The method of item 317.
[Item 319]
The method of any one of items 312-319, wherein the second region comprises a plurality of control affordances for controlling a plurality of camera settings.
[Item 320]
Receiving input at a location on the camera user interface
In response to receiving the input at the location on the camera user interface,
To configure the electronic device to focus on the location of the input according to the determination that the location of the input is within the first region.
Discontinuing the configuration of the electronic device to focus on the location of the input according to the determination that the location of the input is within the second region.
The method according to any one of items 312 to 320, further comprising.
[Item 321]
A request to capture media while displaying the camera user interface that includes the representation of at least a portion of the field of view of the one or more cameras displayed at the first zoom level through the display device. To receive and
Capturing Media In response to receiving the request, the media captures the media corresponding to the field of view of the one or more cameras, wherein the media is the first at the first zoom level. Capturing media, including content from the first portion of the field of view of one camera and content from the first portion of the field of view of the second camera at the first zoom level. ,
After capturing the media, receiving a request to edit the captured media,
At least some of the content from the first portion of the field of view of the first camera at the first zoom level in response to receiving the request to edit the captured media. And to display a representation of the captured media, including at least some of the content from the first portion of the field of view of the second camera at the first zoom level.
312. The method of item 312, further comprising.
[Item 322]
It is configured to be performed by one or more processors of an electronic device comprising a display device, a first camera having a field of view, and a second camera having a field of view wider than said field of view of the first camera. A non-temporary computer-readable storage medium that stores one or more programs, wherein the one or more programs include instructions for performing the method according to any one of items 312 to 321. Temporary computer-readable storage medium.
[Item 323]
It ’s an electronic device,
Display device and
The first camera with a field of view,
A second camera having a field of view wider than the field of view of the first camera,
With one or more processors
An electronic device comprising a memory for storing one or more programs configured to be performed by the one or more processors, wherein the one or more programs is any one of items 312 to 321. An electronic device that includes instructions to perform the method described in.
[Item 324]
It ’s an electronic device,
Display device and
The first camera with a field of view,
A second camera having a field of view wider than the field of view of the first camera,
again,
Means for performing the method according to any one of items 312 to 321 and
Equipped with an electronic device.
[Item 325]
Configured to be executed by one or more processors of an electronic device comprising a display device, a first camera having a field of view, and a second camera having a field of view wider than said field of view of the first camera. A non-temporary computer-readable storage medium that stores one or more of these programs.
Through the display device, the camera user interface is to display a camera user interface that includes a representation of at least a portion of the field of view of the one or more cameras displayed at a first zoom level.
A first region containing a representation of the first portion of the field of view of the first camera at the first zoom level.
Displaying a camera user interface that includes, at the first zoom level, a second region that includes a representation of the first portion of the field of view of the second camera.
The one or more while displaying the camera user interface including the representation of at least a portion of the field of view of the one or more cameras displayed at the first zoom level through the display device. Receiving a first request to raise the zoom level of the representation of the portion of the field of view of the camera to a second zoom level.
In response to receiving the first request to raise the zoom level of the representation of the portion of the field of view of the one or more cameras to a second zoom level.
In the first region, at the second zoom level, the second portion of the field of view of the first camera excluding at least one subset of the first portion of the field of view of the first camera. Displaying expressions and
In the second region, the second without displaying a representation of the subset of the field of view of the first camera excluded from the second portion of the field of view of the first camera. At the second zoom level, the second overlaps with the subset of the field of view of the first camera excluded from the second portion of the field of view of the first camera. The command to display the representation of the second part of the field of view of the camera,
Non-temporary computer-readable storage media, including.
[Item 326]
It ’s an electronic device,
Display device and
The first camera with a field of view,
A second camera having a field of view wider than the field of view of the first camera,
With one or more processors
A memory that stores one or more programs configured to be executed by the one or more processors.
An electronic device comprising one or more of the above-mentioned programs.
Through the display device, the camera user interface is to display a camera user interface that includes a representation of at least a portion of the field of view of the one or more cameras displayed at a first zoom level.
A first region containing a representation of the first portion of the field of view of the first camera at the first zoom level.
Displaying a camera user interface that includes, at the first zoom level, a second region that includes a representation of the first portion of the field of view of the second camera.
The one or more while displaying the camera user interface including the representation of at least a portion of the field of view of the one or more cameras displayed at the first zoom level through the display device. Receiving a first request to raise the zoom level of the representation of the portion of the field of view of the camera to a second zoom level.
In response to receiving the first request to raise the zoom level of the representation of the portion of the field of view of the one or more cameras to a second zoom level.
In the first region, at the second zoom level, the second portion of the field of view of the first camera excluding at least one subset of the first portion of the field of view of the first camera. Displaying expressions and
In the second region, the second without displaying a representation of the subset of the field of view of the first camera excluded from the second portion of the field of view of the first camera. At the second zoom level, the second overlaps with the subset of the field of view of the first camera excluded from the second portion of the field of view of the first camera. The command to display the representation of the second part of the field of view of the camera,
Including electronic devices.
[Item 327]
It ’s an electronic device,
Display device and
The first camera with a field of view,
A second camera having a field of view wider than the field of view of the first camera,
With one or more cameras
A means of displaying a camera user interface, including a representation of at least a portion of the field of view of the one or more cameras displayed at a first zoom level, via the display device.
A first region containing a representation of the first portion of the field of view of the first camera at the first zoom level.
A means of displaying a camera user interface, including a second region comprising a representation of a first portion of the field of view of the second camera at the first zoom level.
The one or more while displaying the camera user interface including the representation of at least a portion of the field of view of the one or more cameras displayed at the first zoom level through the display device. A means of receiving a first request to raise the zoom level of the representation of the portion of the field of view of the camera to a second zoom level.
In response to receiving the first request to raise the zoom level of the representation of the portion of the field of view of the one or more cameras to a second zoom level.
In the first region, at the second zoom level, the second portion of the field of view of the first camera excluding at least one subset of the first portion of the field of view of the first camera. Means of displaying expressions and
In the second region, the second without displaying a representation of the subset of the field of view of the first camera excluded from the second portion of the field of view of the first camera. At the second zoom level, the second overlaps with the subset of the field of view of the first camera excluded from the second portion of the field of view of the first camera. Means for displaying the representation of the second part of the field of view of the camera,
Equipped with an electronic device.
[Item 328]
It's a method
An electronic device that has a display device and one or more cameras.
Through the display device, the camera user interface is to display a camera user interface that includes a first representation of at least a portion of the field of view of the one or more cameras displayed at a first zoom level. Displaying a camera user interface that includes a plurality of zooming, wherein the plurality of zoom affordances include a first zoom affordance and a second zoom affordance.
Receiving a first gesture directed to one of the plurality of affordances while displaying the plurality of zooming affordances.
In response to receiving the first gesture,
Displaying a second representation of at least a portion of the field of view of the one or more cameras at a second zoom level according to the determination that the first gesture is a gesture directed to the first zoom affordance. When,
According to the determination that the first gesture is a gesture directed to the second zoom affordance, one or more of the first zoom level and a third zoom level different from the second zoom level. To display a third representation of at least a portion of the camera's field of view,
Including methods.
[Item 329]
According to the determination that the first gesture is the gesture directed to the first zoom affordance, the visual characteristics of the second zoom affordance are maintained and the visual characteristics of the first zoom affordance are changed. That and
According to the determination that the first gesture is the gesture directed to the second zoom affordance, the visual characteristic of the first zoom affordance is maintained and the visual characteristic of the second zoom affordance is changed. To change and
328. The method of item 328.
[Item 330]
Changing the visual characteristics of the first zoom affordance can
The size of the first zoom affordance is changed from the first size to the second size, and the second size of the first zoom affordance is the current size of the second zoom affordance. Different from, changing and
By changing the color of the first zoom affordance from the first color to the second color, the second color of the first zoom affordance is the current color of the second zoom affordance. Different from, including one or more of the changes,
329. The method of item 329.
[Item 331]
A second gesture directed to the first zoom affordance while displaying the second representation of at least the portion of the field of view of the one or more cameras at the second zoom level. To receive and
In response to receiving the second gesture directed at the first zoom affordance,
Displaying a fourth representation of at least a portion of the field of view of the one or more cameras at a fourth zoom level, according to the determination that the first zoom affordance meets each of the first criteria. According to the determination that the zoom affordance of 1 meets each of the second criteria.
Stopping displaying the fourth representation of at least the portion of the field of view of the one or more cameras at the fourth zoom level.
Maintaining the display of the second representation of the portion of the field of view of the one or more cameras at the second zoom level.
The method according to any one of items 328 to 330, further comprising.
[Item 332]
The first gesture is a first type of gesture, and the method further comprises.
Receiving a third gesture directed to the first zoom affordance, wherein the third gesture is a second type of gesture different from the first type of gesture. That and
Displaying a control that changes the zoom level of the first currently displayed representation in response to receiving the third gesture directed to the first zoom affordance. Displaying that the control that changes the zoom level of the first currently displayed representation includes a first indication of the current zoom level of the first currently displayed representation.
Receiving a fourth gesture directed at the control that changes the zoom level while displaying the control that changes the zoom level of the first currently displayed representation.
In response to receiving the fourth gesture directed at the control that changes the zoom level,
Displaying a second indication of the fifth zoom level on the control that changes the zoom level, and
Displaying a fourth representation of the field of view of the one or more cameras at the fifth zoom level.
328. The method according to any one of items 328 to 331.
[Item 333]
The first indication of the zoom level of the first currently displayed representation to the selected zoom level on the control that modifies the zoom level of the first currently displayed representation. 332. The method of item 332, which is displayed at the corresponding position.
[Item 334]
332. The method of item 332 or 333, wherein the control that changes the zoom level of the first currently displayed representation is a rotatable user interface element.
[Item 335]
Displaying the control that changes the zoom level of the first currently displayed representation changes the display of the plurality of zoom affordances and the zoom level of the first currently displayed representation. 332-334. The method of any one of items 332 to 334, comprising substituting the indication of said control.
[Item 336]
The third gesture includes movement in the first direction.
The fourth gesture involves moving in a second direction different from the first direction.
The method according to any one of items 332 to 335.
[Item 337]
Detecting the lift-off of the fourth gesture after receiving the fourth gesture directed at the control that changes the zoom level.
After detecting the lift-off of the fourth gesture,
Stopping the display of the control that changes the zoom level according to the determination that there is no gesture directed to the control that changes the zoom level within a predetermined time frame.
The method according to any one of items 332 to 336, further comprising.
[Item 338]
Displaying the control that changes the zoom level of the first currently displayed representation
Each of the plurality of zoom levels corresponding to the zoom affordance is represented by a different corresponding visual indicator of the plurality of visual indicators, including displaying a plurality of visual indicators simultaneously on the adjustable control. The method according to any one of items 332 to 337.
[Item 339]
In response to receiving the first gesture,
Focus on the location of the first gesture according to the determination that the first gesture was not aimed at at least one of the plurality of zooming affordances and was directed to the first part of the expression. To configure the electronic device,
328. The method of any one of items 328 to 338, further comprising.
[Item 340]
In response to receiving the first gesture,
Focus on the location of the first gesture according to the determination that the first gesture was not aimed at at least one of the plurality of zooming affordances and was directed to a second part of the expression. To stop configuring the electronic device,
The method according to any one of items 328 to 339, further comprising.
[Item 341]
The second representation of at least the portion of the field of view of the one or more cameras is a representation of at least a portion of the field of view of the first camera of the one or more cameras.
The third representation of at least the portion of the field of view of the one or more cameras is a representation of at least a portion of the field of view of the second camera of the one or more cameras.
The first camera is different from the second camera,
The method according to any one of items 328 to 340.
[Item 342]
At the second zoom level, displaying the second representation of at least the portion of the field of view of the one or more cameras can be displayed.
According to the determination that the second zoom level is the sixth zoom level, a part of the second expression is displayed in the first visual appearance.
According to the determination that the second zoom level is a seventh zoom level different from the sixth zoom level, a part of the second expression is made into a second visual appearance different from the first visual appearance. To display with
328. The method according to any one of items 328 to 341.
[Item 343]
The plurality of zoom affordances include a third zoom affordance.
The above method further
Receiving a request to change the zoom level of the second currently displayed representation and
In response to receiving a request to change the zoom level of the second currently displayed representation to an eighth zoom level,
According to the determination that the eighth zoom level is within the first zoom value range, the display of the first zoom affordance is replaced with the display of the fourth zoom affordance corresponding to the eighth zoom level. ,
Replacing the display of the second zoom affordance with the display of the fourth zoom affordance corresponding to the eighth zoom level according to the determination that the eighth zoom level is within the second zoom value range. When,
Replacing the display of the third zoom affordance with the display of the fourth zoom affordance corresponding to the eighth zoom level according to the determination that the eighth zoom level is within the third zoom value range. When,
328. The method according to any one of items 328 to 342.
[Item 344]
A non-temporary computer-readable storage medium that stores one or more programs configured to be performed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more. A non-temporary computer-readable storage medium comprising instructions for the program to perform the method according to any one of items 328-343.
[Item 345]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
An electronic device comprising a memory for storing one or more programs configured to be performed by the one or more processors, wherein the one or more programs is any one of items 328-343. Instructions to perform the method described in
Including electronic devices.
[Item 346]
It ’s an electronic device,
Display device and
With one or more cameras
Means for performing the method according to any one of items 328 to 343, and
Equipped with an electronic device.
[Item 347]
A non-temporary computer-readable storage medium that stores one or more programs configured to be executed by one or more processors of an electronic device with a display device and one or more cameras, said one or more. Program,
Through the display device, the camera user interface is to display a camera user interface that includes a first representation of at least a portion of the field of view of the one or more cameras displayed at a first zoom level. Displaying a camera user interface that includes a plurality of zooming, wherein the plurality of zoom affordances include a first zoom affordance and a second zoom affordance.
Receiving a first gesture directed to one of the plurality of affordances while displaying the plurality of zooming affordances.
In response to receiving the first gesture,
Displaying a second representation of at least a portion of the field of view of the one or more cameras at a second zoom level according to the determination that the first gesture is a gesture directed to the first zoom affordance. When,
According to the determination that the first gesture is a gesture directed to the second zoom affordance, one or more of the first zoom level and a third zoom level different from the second zoom level. A non-temporary computer-readable storage medium that includes instructions for displaying a third representation of at least a portion of the camera's field of view.
[Item 348]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
A memory that stores one or more programs configured to be executed by the one or more processors.
An electronic device comprising one or more of the above-mentioned programs.
Through the display device, the camera user interface is to display a camera user interface that includes a first representation of at least a portion of the field of view of the one or more cameras displayed at a first zoom level. Displaying a camera user interface that includes a plurality of zooming, wherein the plurality of zoom affordances include a first zoom affordance and a second zoom affordance.
Receiving a first gesture directed to one of the plurality of affordances while displaying the plurality of zooming affordances.
In response to receiving the first gesture,
Displaying a second representation of at least a portion of the field of view of the one or more cameras at a second zoom level according to the determination that the first gesture is a gesture directed to the first zoom affordance. When,
According to the determination that the first gesture is a gesture directed to the second zoom affordance, one or more of the first zoom level and a third zoom level different from the second zoom level. To display a third representation of at least a portion of the camera's field of view,
Electronic devices, including instructions for.
[Item 349]
It ’s an electronic device,
Display device and
With one or more cameras
A means of displaying a camera user interface, including a first representation of at least a portion of the field of view of the one or more cameras displayed at a first zoom level, via the display device. A means of displaying a camera user interface, comprising a plurality of zooming, wherein the plurality of zoom affordances include a first zoom affordance and a second zoom affordance.
A means of receiving a first gesture directed at one of the plurality of affordances while displaying the plurality of zooming affordances.
In response to receiving the first gesture,
Means for displaying a second representation of at least a portion of the field of view of one or more cameras at a second zoom level according to the determination that the first gesture is a gesture directed to the first zoom affordance. When,
According to the determination that the first gesture is a gesture directed to the second zoom affordance, one or more of the first zoom level and a third zoom level different from the second zoom level. A means of displaying a third representation of at least a portion of the camera's field of view,
Equipped with an electronic device.
[Item 350]
It's a method
An electronic device that has a display device and one or more cameras.
Displaying the camera user interface via the display device.
A camera display area that contains a representation of the field of view of one or more cameras,
Displaying a camera user interface, including a camera control area including a first plurality of camera mode affordances indicating different operating modes of the one or more cameras in a first location.
Detecting a first gesture directed at the camera user interface while displaying the first plurality of camera mode affordances indicating different operating modes of the one or more cameras.
In response to detecting the first gesture directed at the camera user interface,
The first set of camera setting affordances is displayed at the first location, and the first set of camera setting affordances is a setting for adjusting the image capture of the first camera mode. Displaying the first set of camera setting affordances,
Stopping the display of the plurality of camera mode affordances indicating different operating modes of the camera at the first location, and
While displaying the first set of camera configuration affordances at the first location, and while the electronic device is configured to capture media in the first camera mode, said. Receiving a second gesture directed at the camera user interface,
In response to receiving the second gesture directed at the camera user interface,
To configure the electronic device to capture media in a second camera mode different from the first camera mode.
Displaying a second set of camera setting affordances at the first location without displaying the plurality of camera mode affordances indicating different operating modes of the one or more cameras at the first location. ,
Including methods.
[Item 351]
The method of item 350, wherein the second set of camera setting affordances is a setting that adjusts the image capture of the second camera mode.
[Item 352]
The method of item 350 or 351 wherein the second set of camera setting affordances is different from the first set of camera setting affordances.
[Item 353]
The first set of camera setting affordances is one of flash setting affordance, image capture setting affordance, aspect ratio camera setting affordance, filter setting camera setting affordance, high dynamic range imaging camera setting affordance, and low light camera setting affordance. The method of any one of items 350-352, comprising one or more.
[Item 354]
Detecting the first gesture comprises detecting a first contact directed at the camera user interface, the method further comprising.
Detecting the completion of the first gesture while detecting the first gesture and before detecting the lift-off of the first contact.
Any one of items 350-353, comprising providing a tactile output in response to detecting the completion of the first gesture before detecting the lift-off of the first contact. The method described in.
[Item 355]
Detecting a third gesture directed at the camera user interface while displaying the camera user interface.
In response to detecting the third gesture directed at the camera user interface,
According to the determination that the second set of camera setting affordances was displayed when the third gesture was detected.
Configuring the electronic device to capture media in a third camera mode,
Displaying a third set of camera setting affordances at the first location without displaying the plurality of camera mode affordances indicating different operating modes of the one or more cameras.
According to the determination that the first plurality of camera mode affordances were displayed when the third gesture was detected.
A second plurality of camera modes indicating different camera operating modes of the camera at the first location without displaying the second set of camera setting affordances and the third set of camera setting affordances. The second plurality of camera affordances include displaying the affordances and configuring the electronic device to capture media in the first camera mode and the third camera mode. Different from the first multiple camera mode affordances,
The method according to any one of items 350 to 354, further comprising.
[Item 356]
Displaying the third set of camera setting affordances at the first location displays an animation of the third set of camera setting affordances that replaces the first set of camera setting affordances. The method according to item 355, including the above.
[Item 357]
The representation of the field of view of the one or more cameras is the first representation of the first portion of the field of view of the one or more cameras.
In response to receiving the second gesture directed at the camera user interface,
Displaying a second representation of a second portion of the field of view of one or more cameras according to the determination that the electronic device is configured to capture media through a first type of camera. The method according to any one of items 350 to 356, wherein said second portion of the field of view does not include some of the first portion of said field of view of the one or more cameras.
[Item 358]
The representation of the field of view of the one or more cameras is a third representation of the third portion of the field of view of the one or more cameras.
In response to receiving the second gesture directed at the camera user interface,
Displaying a fourth representation of a fourth portion of the field of view of one or more cameras according to the determination that the electronic device is configured to capture media using a second type of camera. The fourth portion of the field of view of the one or more cameras includes a portion of the field of view of the one or more cameras that is not in the third portion of the field of view of the one or more cameras. The method according to any one of items 350 to 357.
[Item 359]
The representation of the field of view of the one or more cameras is the fifth representation of the fifth portion of the field of view of the one or more cameras.
The fifth expression is displayed in a second place on the display.
The above method further
In response to receiving the second gesture directed at the camera user interface,
According to the determination that the electronic device is configured to capture media using a third type of camera.
Moving the fifth expression from the second location on the display to the third location on the display.
357 or 358 of the method according to item 357 or 358.
[Item 360]
The first camera mode is a portrait mode.
The representation of the field of view of one or more cameras is displayed at the first zoom level.
The above method further
While displaying the first plurality of camera mode affordances,
Displaying affordances and zoom affordances that control lighting effect behavior,
Receiving a fourth gesture directed at the zoom affordance while displaying the zoom affordance, and
Displaying the representation of the field of view of one or more cameras at a second zoom level in response to receiving the fourth gesture directed to the zoom affordance.
The method according to any one of items 350 to 359, comprising.
[Item 361]
The first plurality of camera mode affordances
When selected, a first camera mode affordance that causes the electronic device to capture the media in the first camera mode in response to a request to capture the media.
When selected, any one of items 350-360, comprising a second camera mode affordance, which causes the electronic device to capture the media in the second camera mode in response to a request to capture the media. The method described in.
[Item 362]
361. The method of item 361, wherein the first camera mode affordance is displayed adjacent to the second camera mode affordance while displaying the first plurality of camera mode affordances.
[Item 363]
The first camera mode affordance is the first camera mode affordance before detecting the first gesture directed at the camera user interface and while displaying the first plurality of camera mode affordances. 361. The method of item 361 or 362, which is displayed with an indication that the camera mode is active.
[Item 364]
Detecting a fifth gesture directed at the camera interface while displaying the second set of camera setting affordances at the first location.
In response to detecting the fifth gesture directed at the camera interface,
Including displaying a third plurality of camera mode affordances indicating different camera operating modes of the camera.
The third plurality of camera mode affordances include the second mode affordance.
The second camera mode affordance is displayed with an indication that the second camera mode is active.
362 or 363, further comprising.
[Item 365]
A non-temporary computer-readable storage medium that stores one or more programs configured to be performed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more. A non-temporary computer-readable storage medium, wherein the program comprises instructions to perform the method according to any one of items 350 to 364.
[Item 366]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
An electronic device comprising a memory for storing one or more programs configured to be performed by the one or more processors, wherein the one or more programs is any one of items 350 to 364. An electronic device that includes instructions to perform the method described in.
[Item 367]
It ’s an electronic device,
Display device and
With one or more cameras
Means for performing the method according to any one of items 350 to 364, and
Equipped with an electronic device.
[Item 368]
A non-temporary computer-readable storage medium that stores one or more programs configured to be executed by one or more processors of an electronic device with a display device and one or more cameras, said one or more. Program,
Displaying the camera user interface via the display device.
A camera display area that contains a representation of the field of view of one or more cameras,
Displaying a camera user interface, including a camera control area including a first plurality of camera mode affordances indicating different operating modes of the one or more cameras in a first location.
Detecting a first gesture directed at the camera user interface while displaying the first plurality of camera mode affordances indicating different operating modes of the one or more cameras.
In response to detecting the first gesture directed at the camera user interface,
The first set of camera setting affordances is displayed at the first location, and the first set of camera setting affordances is a setting for adjusting the image capture of the first camera mode. Displaying the first set of camera setting affordances,
Stopping the display of the plurality of camera mode affordances indicating different operating modes of the camera at the first location, and
While displaying the first set of camera configuration affordances at the first location, and while the electronic device is configured to capture media in the first camera mode, said. Receiving a second gesture directed at the camera user interface,
In response to receiving the second gesture directed at the camera user interface,
To configure the electronic device to capture media in a second camera mode different from the first camera mode.
Displaying a second set of camera setting affordances at the first location without displaying the plurality of camera mode affordances indicating different operating modes of the one or more cameras at the first location. A non-temporary computer-readable storage medium that contains instructions for.
[Item 369]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
A memory that stores one or more programs configured to be executed by the one or more processors.
An electronic device comprising one or more of the above-mentioned programs.
Displaying the camera user interface via the display device.
A camera display area that contains a representation of the field of view of one or more cameras,
Displaying a camera user interface, including a camera control area including a first plurality of camera mode affordances indicating different operating modes of the one or more cameras in a first location.
Detecting a first gesture directed at the camera user interface while displaying the first plurality of camera mode affordances indicating different operating modes of the one or more cameras.
In response to detecting the first gesture directed at the camera user interface,
The first set of camera setting affordances is displayed at the first location, and the first set of camera setting affordances is a setting for adjusting the image capture of the first camera mode. Displaying the first set of camera setting affordances,
Stopping the display of the plurality of camera mode affordances indicating different operating modes of the camera at the first location, and
While displaying the first set of camera configuration affordances at the first location, and while the electronic device is configured to capture media in the first camera mode, said. Receiving a second gesture directed at the camera user interface,
In response to receiving the second gesture directed at the camera user interface,
To configure the electronic device to capture media in a second camera mode different from the first camera mode.
Displaying a second set of camera setting affordances at the first location without displaying the plurality of camera mode affordances indicating different operating modes of the one or more cameras at the first location. , And
Including electronic devices.
[Item 370]
It ’s an electronic device,
Display device and
With one or more cameras
A means for displaying a camera user interface via the display device, wherein the camera user interface is
A camera display area that contains a representation of the field of view of one or more cameras,
A means of displaying a camera user interface, including a camera control area including a first plurality of camera mode affordances indicating different operating modes of the one or more cameras in a first location.
Means for detecting a first gesture directed at the camera user interface while displaying the first plurality of camera mode affordances indicating different operating modes of the one or more cameras.
In response to detecting the third gesture directed at the camera user interface,
A means of displaying a first set of camera setting affordances at the first location, wherein the first set of camera setting affordances is a setting that adjusts image capture in the first camera mode. A means of displaying the first set of camera setting affordances,
A means of stopping the display of the plurality of camera mode affordances indicating different operating modes of the camera at the first location.
While displaying the first set of camera configuration affordances at the first location, and while the electronic device is configured to capture media in the first camera mode, said. A means of receiving a second gesture directed at the camera user interface,
In response to receiving the second gesture directed at the camera user interface,
A means of configuring the electronic device to capture media in a second camera mode different from the first camera mode.
A means of displaying a second set of camera setting affordances at the first location without displaying the plurality of camera mode affordances indicating different operating modes of the one or more cameras at the first location. ,
Equipped with an electronic device.
[Item 371]
It's a method
An electronic device that has a display device
Of previously captured media items, including first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras. Receiving a request to display a representation and
In response to receiving the request to display the representation of the previously captured media item,
According to the determination that the automatic media correction criteria are met, the representation of the previously captured media item, including the combination of the first content and the second content, is displayed via the display device. ,
According to the determination that the automatic media correction criterion is not met, the representation of the previously captured media item containing the first content and not containing the second content is displayed via the display device. That and
Including methods.
[Item 372]
The camera user interface is to display the camera user interface through the display device prior to receiving the request to display the representation of the media item.
A first region that includes a representation of said first portion of the field of view of one or more cameras.
A second region comprising a representation of a second portion of the field of view of the one or more cameras, wherein the representation of the second portion of the field of view of the one or more cameras is the first. Displaying a camera user interface, including a second area, which is visually distinguishable from the representation of the portion.
371.
[Item 373]
Displaying a first correction affordance indicating that the automatic adjustment has been applied to the previously captured media item in accordance with the determination that the automatic media correction criteria have been met.
Displaying a second correction affordance, the second auto-adjustment affordance indicating that the auto-adjustment was not applied to the previously captured media item, according to the determination that the auto-media correction criteria are not met. The second auto-adjustment affordance is visually different from the first auto-adjustment affordance.
371 or 372, further comprising.
[Item 374]
Display the first auto-adjustment affordance and, through the display device, display the representation of the previously captured media item, including the combination of the first content and the second content. While receiving the first input corresponding to the selection of the first auto-adjustment affordance,
In response to receiving the first input corresponding to the selection of the first auto-adjustment affordance, the first content is included and the second content is not included via the display device. To display said representations of previously captured media items,
373. The method of item 373.
[Item 375]
Display the second auto-adjustment affordance and, through the display device, display the representation of the previously captured media item that includes the first content and does not contain the second content. While receiving a second input corresponding to the selection of the second auto-adjustment affordance,
The said including the first content and the combination of the second content via the display device in response to receiving the second input corresponding to the selection of the second auto-adjusting affordance. To display the above representation of a previously captured media item,
373. The method of item 373.
[Item 376]
The previously captured media item is an image
The representation of the previously captured media item, including the first content and the combination of the second content, comprises an edge portion.
The representation of a previously captured media item that includes the first content and does not include the second content further comprises any one of items 371 to 375 that does not include the edge portion. The method described.
[Item 377]
The previously captured media item is a video
The representation of the previously captured media item, including the first content and the combination of the second content, comprises a first amount of movement.
The representation of the previously captured media item that includes the first content and does not include the second content includes a second amount of movement that is different from the first amount of movement.
The method according to any one of items 371 to 376.
[Item 378]
The previously captured media item contains an identifiable object and contains
The representation of the previously captured media item, including the first content and the combination of the second content, comprises a portion of the identifiable object.
That the representation of the previously captured media item that includes the first content and does not include the second content does not include the portion of the identifiable object.
371. The method according to any one of items 371 to 377.
[Item 379]
The automatic media correction criterion is one or more visuals in which the previously captured media item can be corrected using the second content from the second portion of the field of view of the one or more cameras. 371. The method of any one of items 371 to 378, comprising a second criterion that is satisfied if it is determined to include an aspect.
[Item 380]
379. The method of item 379, wherein the automatic media correction criterion comprises a third criterion in which the second criterion is met before the previously captured media is displayed.
[Item 381]
The first content and the second content in response to receiving the request to display the representation of the previously captured media item and in accordance with the determination that the automatic media correction criteria are met. At the same time as said representation of the previously captured media item containing the combination of, the electronic device displays a third correction affordance that causes the electronic device to perform the first action.
371. The method of any one of items 371 to 380, further comprising.
[Item 382]
371. The method of any one of items 371 to 381, wherein the automatic media correction criteria are met when the auto-apply setting is enabled and not met when the auto-apply setting is disabled.
[Item 383]
The method according to any one of items 371 to 382, wherein the automatic application setting is a user-configurable setting.
[Item 384]
In response to receiving the request to display said representation of the previously captured media item, and according to the determination that the automatic media correction criteria are not met.
According to the determination that the first set of criteria is met, it is selected at the same time as the representation of the previously captured media item that includes the first content and does not contain the second content. To display the fourth correction affordance that causes the electronic device to perform the second operation.
371. The method according to any one of items 371 to 383.
[Item 385]
In response to receiving the request to display said representation of the previously captured media item, and according to the determination that the automatic media correction criteria are not met.
According to the determination that the first set of criteria is not met, the previously captured media item containing the first content and not containing the second content is not selected at the same time as the representation. Displaying a possible indicator,
The method according to any one of items 371 to 384, further comprising.
[Item 386]
In response to receiving the request to display the representation of the previously captured media item,
Displaying the content processing indicator according to the judgment that the content processing criteria are met, and
To stop displaying the content processing indicator according to the determination that the content processing criteria are not met,
The method according to any one of items 371 to 385, further comprising.
[Item 387]
Stopping the display of the content processing indicator while displaying the content processing indicator and in accordance with the determination that the content processing criteria are no longer met.
386. The method of item 386.
[Item 388]
While displaying the representation of the previously captured media item that includes the first content and does not include the second content, and while displaying the content processing indicator, and According to the determination that the content processing criteria are no longer met, the representation of the previously captured media item that includes the first content and does not include the second content is expressed in the first content and. Replacing with said representation of the previously captured media item containing the second content combination.
386. The method of item 386.
[Item 389]
While displaying the representation of the previously captured media item that includes the first content and does not include the second content, and while displaying the content processing indicator, said Displaying a second representation of the previously captured media item that includes the first content and does not include the second content.
While displaying said said second depiction of said previously captured media item containing said first content and not containing said second content, and said content processing criteria no longer. According to the determination that it is not satisfied, the second representation of the previously captured media item containing the first content and not containing the second content is referred to as the first content and the second. Replacing with a second representation of the previously captured media item containing a combination of content in
386. The method of item 386.
[Item 390]
The said including the combination of the first content and the second content while displaying the representation of the previously captured media item containing the first content and the combination of the second content. Displaying an animation of the representation of a previously captured media item and transitioning to the representation of a previously captured media item that includes the first content and does not include the second content. When,
371. The method of any one of items 371 to 389, further comprising.
[Item 391]
While displaying the representation of the previously captured media item that includes the first content and does not include the second content, the first content and the second content are included. Displaying an animation of the representation of the previously captured media item that does not include, and transitioning to the representation of the previously captured media item that includes a combination of the first content and the second content. That and
371. The method of any one of items 371 to 390, further comprising.
[Item 392]
Of previously captured media items, including first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras. Receiving a request to display a representation and including a third content from said first portion of the field of view of one or more cameras and from said second portion of said view of one or more cameras. Receiving a request to display a representation of a media item that does not contain the fourth content of
The third content from the first portion of the field of view of the one or more cameras and not including the fourth content from the second portion of the field of view of the one or more cameras. In response to receiving the request to display said representation of a previously captured media item, additional media content outside of said first portion of said field of view of said one or more cameras is available. Stopping displaying the indication that there is,
371. The method according to any one of items 371 to 391.
[Item 393]
A non-temporary computer-readable storage medium that stores one or more programs configured to be performed by one or more processors of an electronic device comprising a display device, wherein the one or more programs are from item 371. A non-temporary computer-readable storage medium comprising an instruction to perform the method according to any one of 392.
[Item 394]
It ’s an electronic device,
Display device and
With one or more processors
An electronic device comprising a memory for storing one or more programs configured to be performed by the one or more processors, wherein the one or more programs is any one of items 371 to 392. Instructions to perform the method described in
Including electronic devices.
[Item 395]
It ’s an electronic device,
Display device and
Means for performing the method according to any one of items 371 to 392, and
Equipped with an electronic device.
[Item 396]
A non-temporary computer-readable storage medium that stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device.
Of previously captured media items, including first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras. Receiving a request to display a representation and
In response to receiving the request to display the representation of the previously captured media item,
According to the determination that the automatic media correction criteria are met, the representation of the previously captured media item, including the combination of the first content and the second content, is displayed via the display device. ,
According to the determination that the automatic media correction criterion is not met, the representation of the previously captured media item containing the first content and not containing the second content is displayed via the display device. A non-temporary computer-readable storage medium that contains instructions for that.
[Item 397]
It ’s an electronic device,
Display device and
With one or more processors
A memory that stores one or more programs configured to be executed by the one or more processors.
An electronic device comprising one or more of the above-mentioned programs.
Of previously captured media items, including first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras. Receiving a request to display a representation and
In response to receiving the request to display the representation of the previously captured media item,
According to the determination that the automatic media correction criteria are met, the representation of the previously captured media item, including the combination of the first content and the second content, is displayed via the display device. ,
According to the determination that the automatic media correction criterion is not met, the representation of the previously captured media item containing the first content and not containing the second content is displayed via the display device. That, the command,
Including electronic devices.
[Item 398]
It ’s an electronic device,
Display device and
Of previously captured media items, including first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras. A means of receiving a request to display an expression,
In response to receiving the request to display the representation of the previously captured media item,
As a means of displaying a representation of the previously captured media item, including the combination of the first content and the second content, via the display device, according to the determination that the automatic media correction criteria are met. ,
According to the determination that the automatic media correction criterion is not met, the representation of the previously captured media item containing the first content and not containing the second content is displayed via the display device. Means and
Including electronic devices.
[Item 399]
The adjustable control that selects the time-based representation of the first visual media corresponding to each time is displayed at each location on the display device.
The method according to any one of items 219 to 232.

Claims (23)

方法であって、
表示デバイスを有する電子デバイスで、
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信することと、
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応答して、
自動メディア補正基準が満たされているという判定に従って、
前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現を表示することと、
自動調整が前記以前にキャプチャされたメディアアイテムに適用されたことを示す第1の自動調整アフォーダンスを表示することと、
自動メディア補正基準が満たされていないという判定に従って、
前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの表現を表示することと、
前記自動調整が前記以前にキャプチャされたメディアアイテムに適用されていないことを示す第2の自動調整アフォーダンスを表示することであって、前記第2の自動調整アフォーダンスは、前記第1の自動調整アフォーダンスとは視覚的に異なる、表示することと、
を含む、方法。
It's a method
An electronic device that has a display device
Of previously captured media items, including first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras. Receiving a request to display a representation and
In response to receiving the request to display the representation of the previously captured media item,
According to the determination that the automatic media correction criteria are met
Displaying, through the display device, a representation of the previously captured media item, including the combination of the first content and the second content.
To display a first auto-adjustment affordance indicating that the auto-adjustment has been applied to the previously captured media item.
According to the determination that the automatic media correction criteria are not met
To display, through the display device, a representation of the previously captured media item that includes the first content and does not include the second content.
Displaying a second auto-adjustment affordance indicating that the auto-adjustment has not been applied to the previously captured media item, wherein the second auto-adjustment affordance is the first auto-adjustment affordance. Visually different from displaying and
Including methods.
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信する前に、前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
前記1つ以上のカメラの視野の前記第1の部分の表現を含む第1の領域と、
前記1つ以上のカメラの前記視野の第2の部分の表現を含む第2の領域であって、前記1つ以上のカメラの前記視野の前記第2の部分の前記表現が、前記第1の部分の前記表現と視覚的に区別される、第2の領域と、を含む、カメラユーザインタフェースを表示することと、
を更に含む、請求項1に記載の方法。
The camera user interface is to display the camera user interface through the display device prior to receiving the request to display the representation of the previously captured media item.
A first region that includes a representation of said first portion of the field of view of one or more cameras.
A second region comprising a representation of a second portion of the field of view of the one or more cameras, wherein the representation of the second portion of the field of view of the one or more cameras is the first. Displaying a camera user interface, including a second area, which is visually distinguishable from the representation of the portion.
The method according to claim 1, further comprising.
前記第1の自動調整アフォーダンスを表示し、かつ前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、前記第1の自動調整アフォーダンスの選択に対応する第1の入力を受信することと、
前記第1の自動調整アフォーダンスの選択に対応する前記第1の入力を受信したことに応答して、前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現を表示することと、
を更に含む、請求項1又は2に記載の方法。
Display the first auto-adjustment affordance and, through the display device, display the representation of the previously captured media item, including the combination of the first content and the second content. While receiving the first input corresponding to the selection of the first auto-adjustment affordance,
In response to receiving the first input corresponding to the selection of the first auto-adjustment affordance, the first content is included and the second content is not included via the display device. To display said representations of previously captured media items,
The method according to claim 1 or 2, further comprising.
前記第2の自動調整アフォーダンスを表示し、かつ前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、前記第2の自動調整アフォーダンスの選択に対応する第2の入力を受信することと、
前記第2の自動調整アフォーダンスの選択に対応する前記第2の入力を受信したことに応答して、前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現を表示することと、
を更に含む、請求項1から3のいずれか一項に記載の方法。
Display the second auto-adjustment affordance and, through the display device, display the representation of the previously captured media item that includes the first content and does not contain the second content. While receiving a second input corresponding to the selection of the second auto-adjustment affordance,
The said including the first content and the combination of the second content via the display device in response to receiving the second input corresponding to the selection of the second auto-adjusting affordance. To display the above representation of a previously captured media item,
The method according to any one of claims 1 to 3, further comprising.
前記以前にキャプチャされたメディアアイテムが、画像であり、
前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現が、縁部部分を含み、
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現が、更に、前記縁部部分を含まない、請求項1から4のいずれか一項に記載の方法。
The previously captured media item is an image
The representation of the previously captured media item, including the first content and the combination of the second content, comprises an edge portion.
Any one of claims 1 to 4, wherein the representation of the previously captured media item that includes the first content and does not include the second content further does not include the edge portion. The method described in.
前記以前にキャプチャされたメディアアイテムが、ビデオであり、
前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現が、第1の量の移動を含み、
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現が、前記第1の量の移動とは異なる第2の量の移動を含む、
請求項1から5のいずれか一項に記載の方法。
The previously captured media item is a video
The representation of the previously captured media item, including the first content and the combination of the second content, comprises a first amount of movement.
The representation of the previously captured media item that includes the first content and does not include the second content includes a second amount of movement that is different from the first amount of movement.
The method according to any one of claims 1 to 5.
前記以前にキャプチャされたメディアアイテムが、識別可能なオブジェクトを含み、
前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現が、前記識別可能なオブジェクトの一部分を含み、
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現が、前記識別可能なオブジェクトの前記部分を含まない、こと、
を含む、請求項1から6のいずれか一項に記載の方法。
The previously captured media item contains an identifiable object and contains
The representation of the previously captured media item, including the first content and the combination of the second content, comprises a portion of the identifiable object.
Includes the first content, and the representation of media items said previously captured not including the second content does not include the first portion of the identifiable objects, it,
The method according to any one of claims 1 to 6, wherein the method comprises.
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応答して、及び自動メディア補正基準が満たされているという判定に従って、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現と同時に、選択されると、前記電子デバイスに、第1の動作を行わせる第3の自動調整アフォーダンスを表示すること、
を更に含む、請求項1から7のいずれか一項に記載の方法。
The first content and the second content in response to receiving the request to display the representation of the previously captured media item and in accordance with the determination that the automatic media correction criteria are met. At the same time as said representation of the previously captured media item containing the combination of, the electronic device displays a third auto-adjustment affordance that causes the electronic device to perform the first action.
The method according to any one of claims 1 to 7, further comprising.
前記自動メディア補正基準が、自動適用設定が有効化されると満たされ、かつ前記自動適用設定が無効化されると満たされない基準を含む、請求項1から8のいずれか一項に記載の方法。 The method according to any one of claims 1 to 8, wherein the automatic media correction standard is satisfied when the automatic application setting is enabled and is not satisfied when the automatic application setting is disabled. .. 前記自動適用設定が、ユーザ構成可能設定である、請求項9に記載の方法。 The method according to claim 9, wherein the automatic application setting is a user-configurable setting. 前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現のアニメーションを表示することと、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現に遷移することと、
を更に含む、請求項1から10のいずれか一項に記載の方法。
The said including the combination of the first content and the second content while displaying the representation of the previously captured media item containing the first content and the combination of the second content. Displaying an animation of the representation of a previously captured media item and transitioning to the representation of a previously captured media item that includes the first content and does not include the second content. When,
The method according to any one of claims 1 to 10, further comprising.
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現のアニメーションを表示することと、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現に遷移することと、
を更に含む、請求項1から11のいずれか一項に記載の方法。
While displaying the representation of the previously captured media item that includes the first content and does not include the second content, the first content and the second content are included. Displaying an animation of the representation of the previously captured media item that does not include, and transitioning to the representation of the previously captured media item that includes a combination of the first content and the second content. That and
The method according to any one of claims 1 to 11, further comprising.
方法であって、
表示デバイスを有する電子デバイスで、
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信することと、
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応答して、
前記以前にキャプチャされたメディアアイテムが前記1つ以上のカメラの視野の前記第2の部分からの前記第2のコンテンツを使用して補正され得る1つ以上の視覚アスペクトを含むと判定されると満たされる第1の基準を含む自動メディア補正基準が満たされるという判定に従って、前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現を表示することと、
前記自動メディア補正基準が満たされていないという判定に従って、前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの表現を表示することと、
を含む、方法。
It's a method
An electronic device that has a display device
Of previously captured media items, including first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras. Receiving a request to display a representation and
In response to receiving the request to display the representation of the previously captured media item,
It is determined that the previously captured media item contains one or more visual aspects that can be corrected using the second content from the second portion of the field of view of the one or more cameras. According to the determination that the automatic media correction criteria including the first criterion to be met are met, the previously captured media item containing the combination of the first content and the second content via the display device. Displaying expressions and
According to the determination that the automatic media correction criterion is not met, the representation of the previously captured media item containing the first content and not containing the second content is displayed via the display device. To do and
Including methods.
前記自動メディア補正基準は、前記以前にキャプチャされたメディアが表示された前に前記第1の基準が満たされたと満たされる第2の基準を含む、
請求項13に記載の方法。
The automatic media correction criterion includes a second criterion that is satisfied if the first criterion is met before the previously captured media is displayed.
13. The method of claim 13.
方法であって、
表示デバイスを有する電子デバイスで、
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信することと、
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応答して、
自動メディア補正基準が満たされているという判定に従って、前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現を表示することと、
自動メディア補正基準が満たされていないという判定に従って、前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの表現を表示することと、
第1の1組の基準が満たされているという判定に従って、第1の1組の基準が満たされているという判定に従って、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現と同時に、選択されると、前記電子デバイスに、第2の動作を行わせる自動調整アフォーダンスを表示すること、
を含む、方法。
It's a method
An electronic device that has a display device
Of previously captured media items, including first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras. Receiving a request to display a representation and
In response to receiving the request to display the representation of the previously captured media item,
Following the determination that the automatic media correction criteria are met, the display of the previously captured representation of the previously captured media item, including the combination of the first content and the second content, via the display device. ,
According to the determination that the automatic media correction criterion is not met, the representation of the previously captured media item containing the first content and not containing the second content is displayed via the display device. That and
According to the determination that the first set of criteria is satisfied, and according to the determination that the first set of criteria is satisfied, the first content is included and the second content is not included. At the same time as the representation of a previously captured media item, the electronic device, when selected, displays an auto-adjustment affordance that causes the electronic device to perform a second action.
Including methods.
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応答して、及び自動メディア補正基準が満たされていないという判定に従って、前記第1の1組の基準が満たされていないという判定に従って、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現と同時に、非選択可能インジケータを表示すること、
を更に含む、
請求項15に記載の方法。
The first set of criteria is met in response to receiving the request to display said representation of the previously captured media item, and according to the determination that the automatic media correction criteria are not met. Displaying a non-selectable indicator at the same time as the representation of the previously captured media item that includes the first content and does not include the second content, according to the determination that it does not.
Including,
15. The method of claim 15.
方法であって、
表示デバイスを有する電子デバイスで、
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信することと、
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応答して、
自動メディア補正基準が満たされているという判定に従って、前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現を表示することと、
自動メディア補正基準が満たされていないという判定に従って、前記表示デバイスを介して、前記第1のコンテンツをみ、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの表現を表示することと、
コンテンツ処理基準が満たされているという判定に従って、コンテンツ処理インジケータを表示することと、
前記コンテンツ処理基準が満たされていないという判定に従って、前記コンテンツ処理インジケータを表示するのをやめることと、
を含む、方法。
It's a method
An electronic device that has a display device
Of previously captured media items, including first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras. Receiving a request to display a representation and
In response to receiving the request to display the representation of the previously captured media item,
Following the determination that the automatic media correction criteria are met, the display of the previously captured representation of the previously captured media item, including the combination of the first content and the second content, via the display device. ,
According to the judgment of the automatic media correction criteria are not met, through the display device, the viewing including the first content, and a representation of media items said previously captured without the second content To display and
Displaying the content processing indicator according to the judgment that the content processing criteria are met, and
To stop displaying the content processing indicator according to the determination that the content processing criteria are not met,
Including methods.
前記コンテンツ処理インジケータを表示している間に、及び前記コンテンツ処理基準がもはや満たされていないという判定に従って、前記コンテンツ処理インジケータの表示を停止すること、
を更に含む、
請求項17に記載の方法。
Stopping the display of the content processing indicator while displaying the content processing indicator and according to the determination that the content processing criteria are no longer met.
Including,
17. The method of claim 17.
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、及び前記コンテンツ処理インジケータを表示している間に、及び前記コンテンツ処理基準がもはや満たされていないという判定に従って、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現を、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現に置き換えること、
を更に含む、
請求項17又は18に記載の方法。
While displaying the representation of the previously captured media item that includes the first content and does not include the second content, and while displaying the content processing indicator, and According to the determination that the content processing criteria are no longer met, the representation of the previously captured media item that includes the first content and does not include the second content is expressed in the first content and. Replacing with said representation of the previously captured media item containing the second content combination.
Including,
The method according to claim 17 or 18.
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、及び前記コンテンツ処理インジケータを表示している間に、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの第2の表現を表示することと、
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、及び前記コンテンツ処理基準がもはや満たされていないという判定に従って、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記第2の表現を、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの第2の表現に置き換えることと、
を更に含む、
請求項17から19のいずれか一項に記載の方法。
While displaying the representation of the previously captured media item that includes the first content and does not include the second content, and while displaying the content processing indicator, said Displaying a second representation of the previously captured media item that includes the first content and does not include the second content.
While displaying the representation of the previously captured media item that includes the first content and does not include the second content, and according to the determination that the content processing criteria are no longer met. The second representation of the previously captured media item that includes the first content and does not include the second content, including the combination of the first content and the second content. Replacing with a second representation of a previously captured media item,
Including,
The method according to any one of claims 17 to 19.
方法であって、
表示デバイスを有する電子デバイスで、
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信することと、
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応答して、
自動メディア補正基準が満たされているという判定に従って、前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現を表示することと、
自動メディア補正基準が満たされていないという判定に従って、前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの表現を表示することと、
1つ以上のカメラの視野の前記第1の部分からの第3のコンテンツを含み、かつ前記1つ以上のカメラの前記視野の前記第2の部分からの第4のコンテンツを含まないメディアアイテムの表現を表示する要求を受信することと、
前記1つ以上のカメラの前記視野の前記第1の部分からの第3のコンテンツを含み、かつ前記1つ以上のカメラの前記視野の前記第2の部分からの第4のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応答して、前記1つ以上のカメラの前記視野の前記第1の部分の外側の追加のメディアコンテンツが利用可能であるというインジケーションを表示するのをやめることと、
を含む、方法。
It's a method
An electronic device that has a display device
Of previously captured media items, including first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras. Receiving a request to display a representation and
In response to receiving the request to display the representation of the previously captured media item,
Following the determination that the automatic media correction criteria are met, the display of the previously captured representation of the previously captured media item, including the combination of the first content and the second content, via the display device. ,
According to the determination that the automatic media correction criterion is not met, the representation of the previously captured media item containing the first content and not containing the second content is displayed via the display device. That and
A media item that includes a third content from the first portion of the field of view of one or more cameras and does not include a fourth content from the second portion of the field of view of the one or more cameras. Receiving a request to display a representation and
The third content from the first portion of the field of view of the one or more cameras and not including the fourth content from the second portion of the field of view of the one or more cameras. In response to receiving the request to display said representation of a previously captured media item, additional media content outside of said first portion of said field of view of said one or more cameras is available. Stopping displaying the indication that there is,
Including methods.
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、前記1つ以上のプロセッサに、請求項1から21のいずれか一項に記載の方法を実行させる、非一時的コンピュータ可読記憶媒体。 A non-temporary computer-readable storage medium that stores one or more programs configured to be performed by one or more processors of an electronic device comprising a display device, wherein the one or more programs are said to be one. A non-temporary computer-readable storage medium that causes the above processor to perform the method according to any one of claims 1 to 21. 表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、前記1つ以上のプロセッサに、請求項1から21のいずれか一項に記載の方法を実行させる、
電子デバイス。
Display device and
With one or more processors
An electronic device comprising a memory for storing one or more programs configured to be performed by the one or more processors, wherein the one or more programs charge the one or more processors. The method according to any one of items 1 to 21 is executed.
Electronic device.
JP2020184471A 2019-05-06 2020-11-04 User interface for capturing and managing visual media Active JP6924319B2 (en)

Applications Claiming Priority (35)

Application Number Priority Date Filing Date Title
US201962844110P 2019-05-06 2019-05-06
US62/844,110 2019-05-06
US201962856036P 2019-06-01 2019-06-01
US62/856,036 2019-06-01
US201962897968P 2019-09-09 2019-09-09
US62/897,968 2019-09-09
US16/583,020 2019-09-25
US16/582,595 US10674072B1 (en) 2019-05-06 2019-09-25 User interfaces for capturing and managing visual media
US16/582,595 2019-09-25
US16/583,020 US10645294B1 (en) 2019-05-06 2019-09-25 User interfaces for capturing and managing visual media
US16/584,044 2019-09-26
US16/584,044 US10735642B1 (en) 2019-05-06 2019-09-26 User interfaces for capturing and managing visual media
DKPA201970601A DK180452B1 (en) 2019-05-06 2019-09-26 USER INTERFACES FOR RECEIVING AND HANDLING VISUAL MEDIA
DKPA201970595 2019-09-26
DKPA201970593A DK180685B1 (en) 2019-05-06 2019-09-26 USER INTERFACES FOR RECEIVING AND HANDLING VISUAL MEDIA
US16/584,100 2019-09-26
DKPA201970593 2019-09-26
DKPA201970600 2019-09-26
DKPA201970592 2019-09-26
US16/584,693 2019-09-26
DKPA201970592A DK201970592A1 (en) 2019-05-06 2019-09-26 User interfaces for capturing and managing visual media
DKPA201970603A DK180679B1 (en) 2019-05-06 2019-09-26 USER INTERFACES FOR RECEIVING AND HANDLING VISUAL MEDIA
US16/584,693 US10791273B1 (en) 2019-05-06 2019-09-26 User interfaces for capturing and managing visual media
DKPA201970600 2019-09-26
DKPA201970601 2019-09-26
DKPA201970603 2019-09-26
DKPA201970595 2019-09-26
US16/584,100 US10735643B1 (en) 2019-05-06 2019-09-26 User interfaces for capturing and managing visual media
US16/586,344 US10652470B1 (en) 2019-05-06 2019-09-27 User interfaces for capturing and managing visual media
DKPA201970605 2019-09-27
US16/586,314 2019-09-27
US16/586,314 US10681282B1 (en) 2019-05-06 2019-09-27 User interfaces for capturing and managing visual media
US16/586,344 2019-09-27
DKPA201970605 2019-09-27
JP2020070418A JP6854049B2 (en) 2019-05-06 2020-04-09 User interface for capturing and managing visual media

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020070418A Division JP6854049B2 (en) 2019-05-06 2020-04-09 User interface for capturing and managing visual media

Publications (2)

Publication Number Publication Date
JP2021051752A JP2021051752A (en) 2021-04-01
JP6924319B2 true JP6924319B2 (en) 2021-08-25

Family

ID=74688824

Family Applications (7)

Application Number Title Priority Date Filing Date
JP2020070418A Active JP6854049B2 (en) 2019-05-06 2020-04-09 User interface for capturing and managing visual media
JP2021565919A Active JP7171947B2 (en) 2019-05-06 2020-05-06 User interface for capturing and managing visual media
JP2020184470A Active JP6924886B2 (en) 2019-05-06 2020-11-04 User interface for capturing and managing visual media
JP2020184471A Active JP6924319B2 (en) 2019-05-06 2020-11-04 User interface for capturing and managing visual media
JP2021051385A Active JP6929478B2 (en) 2019-05-06 2021-03-25 User interface for capturing and managing visual media
JP2022145387A Active JP7467553B2 (en) 2019-05-06 2022-09-13 User interface for capturing and managing visual media
JP2024060293A Pending JP2024105236A (en) 2019-05-06 2024-04-03 User interface for capturing and managing visual media

Family Applications Before (3)

Application Number Title Priority Date Filing Date
JP2020070418A Active JP6854049B2 (en) 2019-05-06 2020-04-09 User interface for capturing and managing visual media
JP2021565919A Active JP7171947B2 (en) 2019-05-06 2020-05-06 User interface for capturing and managing visual media
JP2020184470A Active JP6924886B2 (en) 2019-05-06 2020-11-04 User interface for capturing and managing visual media

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2021051385A Active JP6929478B2 (en) 2019-05-06 2021-03-25 User interface for capturing and managing visual media
JP2022145387A Active JP7467553B2 (en) 2019-05-06 2022-09-13 User interface for capturing and managing visual media
JP2024060293A Pending JP2024105236A (en) 2019-05-06 2024-04-03 User interface for capturing and managing visual media

Country Status (5)

Country Link
EP (1) EP3966676A2 (en)
JP (7) JP6854049B2 (en)
KR (4) KR20230015526A (en)
CN (3) CN112887586B (en)
AU (4) AU2022200966B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117015976A (en) * 2021-03-26 2023-11-07 索尼集团公司 Imaging apparatus, imaging apparatus control method, and program
CN115131222A (en) * 2021-03-29 2022-09-30 华为技术有限公司 Image processing method and related equipment
US20240314426A1 (en) * 2021-12-10 2024-09-19 Petnow Inc. Electronic apparatus for obtaining biometric information of companion animal, and operation method thereof
KR102623605B1 (en) * 2021-12-10 2024-01-11 주식회사 펫나우 Electornic device for acquiring biometric information of and operating method thereof
CN116437193A (en) * 2021-12-31 2023-07-14 荣耀终端有限公司 Electronic equipment control method and electronic equipment
CN114615480B (en) * 2022-03-11 2024-07-02 峰米(重庆)创新科技有限公司 Projection screen adjustment method, apparatus, device, storage medium, and program product
CN116939354A (en) * 2022-03-30 2023-10-24 北京字跳网络技术有限公司 Camera function page switching method and device, electronic equipment and storage medium
CN115100839B (en) * 2022-07-27 2022-11-01 苏州琅日晴传媒科技有限公司 Monitoring video measured data analysis safety early warning system
CN117768772A (en) * 2022-09-16 2024-03-26 荣耀终端有限公司 Interaction method and device of camera application interface
CN115470153B (en) * 2022-11-14 2023-03-24 成都安易迅科技有限公司 Method, system and equipment for evaluating stability fluency of UI (user interface) of intelligent terminal system

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5557358A (en) * 1991-10-11 1996-09-17 Minolta Camera Kabushiki Kaisha Camera having an electronic viewfinder for displaying an object image under different photographic conditions
JP4342926B2 (en) * 2003-12-24 2009-10-14 三菱電機株式会社 Image input method and image input apparatus
JP4446787B2 (en) 2004-04-21 2010-04-07 富士フイルム株式会社 Imaging apparatus and display control method
JP2006332809A (en) 2005-05-23 2006-12-07 Fujifilm Holdings Corp Imaging apparatus
JP4483841B2 (en) * 2006-09-06 2010-06-16 カシオ計算機株式会社 Imaging device
JP2008116823A (en) 2006-11-07 2008-05-22 Nikon Corp Camera
JP5039786B2 (en) 2007-07-23 2012-10-03 パナソニック株式会社 Imaging device
JP2009246468A (en) 2008-03-28 2009-10-22 Fujifilm Corp Photographing device and control method of photographing device
JP4980982B2 (en) 2008-05-09 2012-07-18 富士フイルム株式会社 Imaging apparatus, imaging method, focus control method, and program
JP5262928B2 (en) 2009-02-13 2013-08-14 富士通株式会社 Imaging device, portable terminal device, and focusing mechanism control method
JP4870218B2 (en) * 2010-02-26 2012-02-08 オリンパス株式会社 Imaging device
US8885978B2 (en) * 2010-07-05 2014-11-11 Apple Inc. Operating a device to capture high dynamic range images
KR101700363B1 (en) * 2010-09-08 2017-01-26 삼성전자주식회사 Digital photographing apparatus and method for controlling the same
KR101674959B1 (en) 2010-11-02 2016-11-10 엘지전자 주식회사 Mobile terminal and Method for controlling photographing image thereof
KR101710631B1 (en) 2010-12-23 2017-03-08 삼성전자주식회사 Digital image photographing apparatus and method for controlling the same
JP5717453B2 (en) 2011-01-14 2015-05-13 キヤノン株式会社 IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
KR101984921B1 (en) * 2012-10-18 2019-05-31 엘지전자 주식회사 Method for operating a Mobile Terminal
US9264630B2 (en) * 2013-01-04 2016-02-16 Nokia Technologies Oy Method and apparatus for creating exposure effects using an optical image stabilizing device
JP6034740B2 (en) * 2013-04-18 2016-11-30 オリンパス株式会社 Imaging apparatus and imaging method
KR20150014290A (en) * 2013-07-29 2015-02-06 엘지전자 주식회사 Image display device and operation method of the image display device
US9712756B2 (en) 2013-08-21 2017-07-18 Canon Kabushiki Kaisha Image capturing apparatus and control method thereof
JP6234151B2 (en) * 2013-10-09 2017-11-22 キヤノン株式会社 Imaging device
CN105829945B (en) * 2013-10-18 2019-04-09 光实验室股份有限公司 For implement and/or using camera device method and apparatus
US10074158B2 (en) * 2014-07-08 2018-09-11 Qualcomm Incorporated Systems and methods for stereo depth estimation using global minimization and depth interpolation
KR102145542B1 (en) * 2014-08-14 2020-08-18 삼성전자주식회사 Image photographing apparatus, image photographing system for photographing using a plurality of image photographing apparatuses and methods for photographing image thereof
JP3194297U (en) * 2014-08-15 2014-11-13 リープ モーション, インコーポレーテッドLeap Motion, Inc. Motion sensing control device for automobile and industrial use
JP2016066978A (en) * 2014-09-26 2016-04-28 キヤノンマーケティングジャパン株式会社 Imaging device, and control method and program for the same
US9712751B2 (en) * 2015-01-22 2017-07-18 Apple Inc. Camera field of view effects based on device orientation and scene content
US9979890B2 (en) * 2015-04-23 2018-05-22 Apple Inc. Digital viewfinder user interface for multiple cameras
US9652125B2 (en) * 2015-06-18 2017-05-16 Apple Inc. Device, method, and graphical user interface for navigating media content
JP6546474B2 (en) * 2015-07-31 2019-07-17 キヤノン株式会社 Image pickup apparatus and control method thereof
US10334154B2 (en) 2015-08-31 2019-06-25 Snap Inc. Automated adjustment of digital image capture parameters
WO2017051605A1 (en) 2015-09-25 2017-03-30 富士フイルム株式会社 Image capturing system and image capture control method
KR20170123125A (en) * 2016-04-28 2017-11-07 엘지전자 주식회사 Mobile terminal and method for controlling the same
US9854156B1 (en) * 2016-06-12 2017-12-26 Apple Inc. User interface for camera effects
KR102257353B1 (en) * 2016-09-23 2021-06-01 애플 인크. Image data for enhanced user interactions
US10432874B2 (en) * 2016-11-01 2019-10-01 Snap Inc. Systems and methods for fast video capture and sensor adjustment
KR20180095331A (en) * 2017-02-17 2018-08-27 엘지전자 주식회사 Mobile terminal and method for controlling the same
CN108391053A (en) * 2018-03-16 2018-08-10 维沃移动通信有限公司 A kind of filming control method and terminal
CN108668083B (en) * 2018-07-24 2020-09-01 维沃移动通信有限公司 Photographing method and terminal

Also Published As

Publication number Publication date
JP2022528011A (en) 2022-06-07
JP2024105236A (en) 2024-08-06
JP6854049B2 (en) 2021-04-07
JP6924886B2 (en) 2021-08-25
KR20230015526A (en) 2023-01-31
KR102368385B1 (en) 2022-02-25
JP2021108463A (en) 2021-07-29
JP2022188060A (en) 2022-12-20
AU2023282230A1 (en) 2024-01-18
CN113811855A (en) 2021-12-17
JP2021051751A (en) 2021-04-01
KR20210145278A (en) 2021-12-01
JP2021040300A (en) 2021-03-11
KR102492067B1 (en) 2023-01-26
JP6929478B2 (en) 2021-09-01
CN112887586A (en) 2021-06-01
CN112887586B (en) 2022-05-10
JP7467553B2 (en) 2024-04-15
AU2022200966A1 (en) 2022-03-03
EP3966676A2 (en) 2022-03-16
AU2022200966B2 (en) 2022-03-10
JP7171947B2 (en) 2022-11-15
AU2022202377A1 (en) 2022-05-05
KR102419105B1 (en) 2022-07-12
KR20210020987A (en) 2021-02-24
CN115658198A (en) 2023-01-31
JP2021051752A (en) 2021-04-01
AU2022221466B2 (en) 2023-09-14
AU2022202377B2 (en) 2022-05-26
KR20220102664A (en) 2022-07-20

Similar Documents

Publication Publication Date Title
DK180685B1 (en) USER INTERFACES FOR RECEIVING AND HANDLING VISUAL MEDIA
EP3792738B1 (en) User interfaces for capturing and managing visual media
JP6924319B2 (en) User interface for capturing and managing visual media

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201127

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201127

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20201127

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210618

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210701

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210730

R150 Certificate of patent or registration of utility model

Ref document number: 6924319

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250