JP7467553B2 - User interface for capturing and managing visual media - Google Patents

User interface for capturing and managing visual media Download PDF

Info

Publication number
JP7467553B2
JP7467553B2 JP2022145387A JP2022145387A JP7467553B2 JP 7467553 B2 JP7467553 B2 JP 7467553B2 JP 2022145387 A JP2022145387 A JP 2022145387A JP 2022145387 A JP2022145387 A JP 2022145387A JP 7467553 B2 JP7467553 B2 JP 7467553B2
Authority
JP
Japan
Prior art keywords
electronic device
displaying
capture
user interface
media
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022145387A
Other languages
Japanese (ja)
Other versions
JP2022188060A (en
Inventor
ジョニー ビー マンザリ
リー エス ブロートン
アロク デシュパンデ
アラン シー ダイ
クレイグ エム フェデリギ
ルーカス ロバート トム ガーリング
マーサ イー ハンキー
ポール フベル
ニコラス ルピネッティ
ジョナサン マコーマック
グラント ポール
ダニエル トレント プレストン
ザ サード ウィリアム エイ ソレンティーノ
ドス サントス アンドレ ソウザ
ジェフリー エイ ブラスケット
ラスムス アール ジェンセン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US16/583,020 external-priority patent/US10645294B1/en
Priority claimed from PCT/US2020/031643 external-priority patent/WO2020227386A2/en
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2022188060A publication Critical patent/JP2022188060A/en
Priority to JP2024060293A priority Critical patent/JP2024105236A/en
Application granted granted Critical
Publication of JP7467553B2 publication Critical patent/JP7467553B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/445Program loading or initiating
    • G06F9/44521Dynamic linking or loading; Link editing at or after load time, e.g. Java class loading
    • G06F9/44526Plug-ins; Add-ons
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72439User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for image or video messaging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/684Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time
    • H04N23/6845Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time by combination of a plurality of images sequentially taken
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)
  • Telephone Function (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Stroboscope Apparatuses (AREA)
  • Exposure Control For Cameras (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Solid-Sorbent Or Filter-Aiding Compositions (AREA)
  • Investigating Or Analysing Biological Materials (AREA)

Description

関連出願の相互参照
本出願は、2019年5月6日に出願され、「USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA」と題する米国特許仮出願第62/844,110号と、2019年6月1日に出願され、「USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA」と題する米国特許仮出願第62/856,036号と、2019年9月9日に出願され、「USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA」と題する米国特許仮出願第62/897,968号と、2019年9月25日に出願され、「USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA」と題する米国特許出願第16/583,020号と、2019年9月25日に出願され、「USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA」と題する米国特許出願第16/582,595号と、2019年9月26日に出願され、「USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA」と題する米国特許出願第16/584,044号と、2019年9月26日に出願され、「USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA」と題する米国特許出願第16/584,100号と、2019年9月26日に出願され、「USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA」と題する米国特許出願第16/584,693号と、2019年9月27日に出願され、「USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA」と題する米国特許出願第16/586,314号と、2019年9月27日に出願され、「USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA」と題する米国特許出願第16/586,344号と、2019年9月26日に出願され、「USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA」と題するデンマーク特許出願第PA201970593号と、2019年9月26日に出願され、「USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA」と題するデンマーク特許出願第PA201970592号と、2019年9月26日に出願され、「USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA」と題するデンマーク特許出願第PA201970595号と、2019年9月26日に出願され、「USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA」と題するデンマーク特許出願第PA201970600号と、2019年9月26日に出願され、「USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA」と題するデンマーク特許出願第PA201970601号と、2019年9月26日に出願されたデンマーク特許出願第PA201970603号と、2019年9月27日に出願され、「USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA」と題するデンマーク特許出願第PA201970605号と、に対する優先権を主張するものである。これらの出願の内容は、その全体が参照により本明細書に組み込まれる。
CROSS-REFERENCE TO RELATED APPLICATIONS This application is a joint venture of U.S. Provisional Patent Application No. 62/844,110, filed May 6, 2019, entitled “USER INTERFACES FOR CAPTURING AND MANAGEMENT VISUAL MEDIA”, U.S. Provisional Patent Application No. 62/856,036, filed June 1, 2019, entitled “USER INTERFACES FOR CAPTURING AND MANAGEMENT VISUAL MEDIA”, and U.S. Provisional Patent Application No. 62/856,036, filed September 9, 2019, entitled “USER INTERFACES FOR CAPTURING AND MANAGEMENT VISUAL MEDIA”. No. 62/897,968, filed on September 25, 2019 and entitled "USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA", U.S. Provisional Patent Application No. 16/583,020, filed on September 25, 2019 and entitled "USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA", U.S. Provisional Patent Application No. 16/582,595, filed on September 26, 2019 and entitled "USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA", U.S. Provisional Patent Application No. 16/582,595, filed on September 26, 2019 and entitled "USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA", No. 16/584,044, filed on September 26, 2019 and entitled "USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA", U.S. Patent Application No. 16/584,100, filed on September 26, 2019 and entitled "USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA", U.S. Patent Application No. 16/584,693, filed on September 27, 2019 and entitled "USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA", U.S. Patent Application No. No. 16/586,314, filed on September 27, 2019 and entitled "USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA"; U.S. Patent Application No. 16/586,344, filed on September 26, 2019 and entitled "USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA"; Danish Patent Application No. PA201970593, filed on September 26, 2019 and entitled "USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA"; Danish Patent Application No. PA201970592, filed on September 26, 2019 and entitled "USER INTERFACES FOR CAPTURING AND MANAGEMENT VISUAL MEDIA", Danish Patent Application No. PA201970595, filed on September 26, 2019 and entitled "USER INTERFACES FOR CAPTURING AND MANAGEMENT VISUAL MEDIA", Danish Patent Application No. PA201970600, filed on September 26, 2019 and entitled "USER INTERFACES FOR CAPTURING AND MANAGEMENT VISUAL MEDIA", This application claims priority to Danish Patent Application No. PA201970601, filed on September 26, 2019, entitled "USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA," Danish Patent Application No. PA201970603, filed on September 27, 2019, entitled "USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA," the contents of which are incorporated herein by reference in their entireties.

本開示は、概して、コンピュータユーザインタフェースに関し、より詳細には視覚メディアをキャプチャ及び管理する技術に関する。 This disclosure relates generally to computer user interfaces, and more particularly to techniques for capturing and managing visual media.

スマートフォン及び他のパーソナル電子デバイスのユーザは、思い出を安全に守り、友人と共有するために、より頻繁にメディアをキャプチャし、記憶し、編集する。いくつかの既存の技術により、ユーザは画像又はビデオをキャプチャすることができた。ユーザは、例えば、メディアをキャプチャし、記憶し、編集することによって、そのようなメディアを管理することができる。 Users of smartphones and other personal electronic devices are increasingly capturing, storing, and editing media to keep memories safe and share with friends. Some existing technologies allow users to capture images or videos. Users can manage such media, for example, by capturing, storing, and editing the media.

しかしながら、電子デバイスを使用してメディアをキャプチャ及び管理するいくつかの技術は、概して面倒であり、非効率である。例えば、一部の既存の技術では、複数回のキー押圧又は打鍵を含む場合がある、複雑かつ時間のかかるユーザインタフェースが使用されている。既存の技術は、必要以上の時間を要し、ユーザの時間及びデバイスのエネルギを浪費する。後者の問題は、バッテリ動作式デバイスにおいては特に重大である。 However, some techniques for capturing and managing media using electronic devices are generally cumbersome and inefficient. For example, some existing techniques use complex and time-consuming user interfaces that may involve multiple key presses or strokes. Existing techniques take more time than necessary, wasting the user's time and the device's energy. The latter problem is particularly acute in battery-operated devices.

したがって、本技術は、メディアをキャプチャ及び管理するための、より速く、より効率的な方法及びインタフェースを電子デバイスに提供する。このような方法及びインタフェースは、メディアをキャプチャ及び管理するための他の方法を任意に補完するか、又は置き換わる。そのような方法及びインタフェースは、ユーザにかかる認識的負担を軽減し、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、そのような方法及びインタフェースは、電力を節約し、電池充電の間隔を長くする。 The present technology thus provides electronic devices with faster, more efficient methods and interfaces for capturing and managing media. Such methods and interfaces optionally complement or replace other methods for capturing and managing media. Such methods and interfaces reduce the cognitive burden on users and create a more efficient human-machine interface. For battery-operated computing devices, such methods and interfaces conserve power and extend the time between battery charges.

いくつかの例では、本技術は、ユーザが、時間効率及び入力効率が良い方法でキャプチャされたメディアを編集することを可能にし、それにより、デバイスが行う必要がある処理の量を低減することができる。いくつかの例では、本技術は、フレームレートを管理し、それにより、記憶空間を節約し、処理要件を低減する。 In some examples, the techniques allow users to edit captured media in a time- and input-efficient manner, thereby reducing the amount of processing the device needs to perform. In some examples, the techniques manage frame rates, thereby conserving storage space and reducing processing requirements.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて実行される。この方法は、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、複数のコントロールアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することと、第1の既定の条件及び第2の既定の条件が満たされていない間に、第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示することと、第1のコントロールアフォーダンスを表示することなく、かつ第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示している間に、条件の変化を検出することと、条件の変化を検出したことに応じて、第1の既定の条件が満たされているとの判定に従って、第1のコントロールアフォーダンスを表示し、第2の既定の条件が満たされているとの判定に従って、第2のコントロールアフォーダンスを表示することと、を含む。 According to some embodiments, a method is described. The method is performed in an electronic device having a display device and one or more cameras. The method includes displaying a camera user interface via the display device, the camera user interface including a camera display area including a representation of a field of view of one or more cameras and a camera control area including a plurality of control affordances; displaying the camera user interface while a first predefined condition and a second predefined condition are not satisfied, without displaying a first control affordance associated with the first predefined condition and without displaying a second control affordance associated with the second predefined condition; detecting a change in the condition while displaying the camera user interface without displaying the first control affordance and without displaying the second control affordance; and in response to detecting the change in the condition, displaying the first control affordance in accordance with a determination that the first predefined condition is satisfied and displaying the second control affordance in accordance with a determination that the second predefined condition is satisfied.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、複数のコントロールアフォーダンスを含むカメラコントロール領域と、を含み、第1の既定の条件及び第2の既定の条件が満たされていない間に、第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示し、第1のコントロールアフォーダンスを表示することなく、かつ第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示している間に、条件の変化を検出し、条件の変化を検出したことに応じて、第1の既定の条件が満たされているとの判定に従って、第1のコントロールアフォーダンスを表示し、第2の既定の条件が満たされているとの判定に従って、第2のコントロールアフォーダンスを表示する、命令を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device including a display device and one or more cameras, the one or more programs including instructions for displaying a camera user interface via the display device, the camera user interface including a camera display area including a representation of a field of view of one or more cameras and a camera control area including a plurality of control affordances, displaying the camera user interface without displaying a first control affordance associated with the first predefined condition and without displaying a second control affordance associated with the second predefined condition while a first predefined condition and a second predefined condition are not met, detecting a change in the condition while displaying the camera user interface without displaying the first control affordance and without displaying the second control affordance, and in response to detecting the change in the condition, displaying the first control affordance in accordance with a determination that the first predefined condition is met, and displaying the second control affordance in accordance with a determination that the second predefined condition is met.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、複数のコントロールアフォーダンスを含むカメラコントロール領域と、を含み、第1の既定の条件及び第2の既定の条件が満たされていない間に、第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示し、第1のコントロールアフォーダンスを表示することなく、かつ第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示している間に、条件の変化を検出し、条件の変化を検出したことに応じて、第1の既定の条件が満たされているとの判定に従って、第1のコントロールアフォーダンスを表示し、第2の既定の条件が満たされているとの判定に従って、第2のコントロールアフォーダンスを表示する、命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. The temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device including a display device and one or more cameras, the one or more programs including instructions for displaying a camera user interface via the display device, the camera user interface including a camera display area including a representation of a field of view of one or more cameras and a camera control area including a plurality of control affordances, displaying the camera user interface without displaying a first control affordance associated with the first predefined condition and without displaying a second control affordance associated with the second predefined condition while a first predefined condition and a second predefined condition are not met, detecting a change in the condition while displaying the camera user interface without displaying the first control affordance and without displaying the second control affordance, and in response to detecting the change in the condition, displaying the first control affordance in accordance with a determination that the first predefined condition is met, and displaying the second control affordance in accordance with a determination that the second predefined condition is met.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、複数のコントロールアフォーダンスを含むカメラコントロール領域と、を含み、第1の既定の条件及び第2の既定の条件が満たされていない間に、第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示し、第1のコントロールアフォーダンスを表示することなく、かつ第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示している間に、条件の変化を検出し、条件の変化を検出したことに応じて、第1の既定の条件が満たされているとの判定に従って、第1のコントロールアフォーダンスを表示し、第2の既定の条件が満たされているとの判定に従って、第2のコントロールアフォーダンスを表示する、命令を含む。 According to some embodiments, an electronic device is described. The electronic device includes a display device, one or more cameras, one or more processors, and a memory that stores one or more programs configured to be executed by the one or more processors, the one or more programs including instructions for displaying a camera user interface via the display device, the camera user interface including a camera display region including a representation of a field of view of the one or more cameras and a camera control region including a plurality of control affordances, displaying the camera user interface without displaying a first control affordance associated with the first predefined condition and without displaying a second control affordance associated with the second predefined condition while a first predefined condition and a second predefined condition are not met, detecting a change in the condition while displaying the camera user interface without displaying the first control affordance and without displaying the second control affordance, and in response to detecting the change in the condition, displaying the first control affordance in accordance with a determination that the first predefined condition is met, and displaying the second control affordance in accordance with a determination that the second predefined condition is met.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、複数のコントロールアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示する手段と、第1の既定の条件及び第2の既定の条件が満たされていない間に、第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示する手段と、第1のコントロールアフォーダンスを表示することなく、かつ第2のコントロールアフォーダンスを表示することなく、かつカメラユーザインタフェースを表示している間に、条件の変化を検出する手段と、条件の変化を検出したことに応じて、第1の既定の条件が満たされているとの判定に従って、第1のコントロールアフォーダンスを表示し、第2の既定の条件が満たされているとの判定に従って、第2のコントロールアフォーダンスを表示することと、を備える。 According to some embodiments, an electronic device is described. The electronic device includes a display device, one or more cameras, and means for displaying a camera user interface via the display device, the camera user interface including a camera display area including a representation of a field of view of the one or more cameras and a camera control area including a plurality of control affordances; means for displaying the camera user interface without displaying a first control affordance associated with the first predefined condition and without displaying a second control affordance associated with the second predefined condition while a first predefined condition and a second predefined condition are not satisfied; means for detecting a change in the condition while displaying the camera user interface without displaying the first control affordance and without displaying the second control affordance; and means for detecting a change in the condition while displaying the camera user interface, in response to detecting the change in the condition, displaying the first control affordance in accordance with a determination that the first predefined condition is satisfied and displaying the second control affordance in accordance with a determination that the second predefined condition is satisfied.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて実行される。この方法は、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の位置に複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することと、カメラユーザインタフェースを表示している間に、カメラユーザインタフェース上の第1のジェスチャを検出することと、第1のジェスチャを検出したことに応じて、カメラコントロール領域の外観を修正することであって、第1のジェスチャが第1のタイプのジェスチャであるとの判定に従って、第1の位置に1つ以上の追加のカメラモードアフォーダンスを表示することと、第1のジェスチャが第1のタイプとは異なる第2のタイプのジェスチャであるとの判定に従って、複数のカメラモードアフォーダンスを表示することを停止し、第1の位置に複数のカメラ設定アフォーダンスを表示することであって、カメラ設定アフォーダンスは、現在選択されているカメラモードの画像キャプチャを調整する設定である、複数のカメラ設定アフォーダンスを表示することと、を含む、カメラコントロール領域の外観を修正することと、を含む。 According to some embodiments, a method is described. The method is performed on an electronic device having a display device and one or more cameras. The method includes displaying a camera user interface via the display device, the camera user interface including a camera display area including a representation of a field of view of one or more cameras and a camera control area including a plurality of camera mode affordances at a first location; detecting a first gesture on the camera user interface while displaying the camera user interface; and modifying an appearance of the camera control area in response to detecting the first gesture, the camera control area including: displaying one or more additional camera mode affordances at the first location according to a determination that the first gesture is a gesture of a first type; and ceasing to display the plurality of camera mode affordances and displaying a plurality of camera settings affordances at the first location according to a determination that the first gesture is a gesture of a second type different from the first type, the camera settings affordances being settings for adjusting image capture of a currently selected camera mode.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の位置に複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含み、カメラユーザインタフェースを表示している間に、カメラユーザインタフェース上の第1のジェスチャを検出し、第1のジェスチャを検出したことに応じて、カメラコントロール領域の外観を修正する、命令を含み、カメラコントロール領域の外観を修正することは、第1のジェスチャが第1のタイプのジェスチャであるとの判定に従って、第1の位置に1つ以上の追加のカメラモードアフォーダンスを表示することと、第1のジェスチャが第1のタイプとは異なる第2のタイプのジェスチャであるとの判定に従って、複数のカメラモードアフォーダンスを表示することを停止し、第1の位置に複数のカメラ設定アフォーダンスを表示することであって、カメラ設定アフォーダンスは、現在選択されているカメラモードの画像キャプチャを調整する設定である、複数のカメラ設定アフォーダンスを表示することと、を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. A non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device having a display device and one or more cameras, the one or more programs displaying a camera user interface via the display device, the camera user interface including a camera display area including a representation of a field of view of one or more cameras and a camera control area including a plurality of camera mode affordances at a first position, and instructions for detecting a first gesture on the camera user interface while displaying the camera user interface, and modifying an appearance of the camera control area in response to detecting the first gesture, the modifying the appearance of the camera control area including: displaying one or more additional camera mode affordances at the first position in accordance with a determination that the first gesture is a gesture of a first type; and ceasing to display the plurality of camera mode affordances in accordance with a determination that the first gesture is a gesture of a second type different from the first type, and displaying a plurality of camera setting affordances at the first position, the camera setting affordances being settings for adjusting image capture of a currently selected camera mode.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の位置に複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含み、カメラユーザインタフェースを表示している間に、カメラユーザインタフェース上の第1のジェスチャを検出し、第1のジェスチャを検出したことに応じて、カメラコントロール領域の外観を修正する、命令を含み、カメラコントロール領域の外観を修正することは、第1のジェスチャが第1のタイプのジェスチャであるとの判定に従って、第1の位置に1つ以上の追加のカメラモードアフォーダンスを表示することと、第1のジェスチャが第1のタイプとは異なる第2のタイプのジェスチャであるとの判定に従って、複数のカメラモードアフォーダンスを表示することを停止し、第1の位置に複数のカメラ設定アフォーダンスを表示することであって、カメラ設定アフォーダンスは、現在選択されているカメラモードの画像キャプチャを調整する設定である、複数のカメラ設定アフォーダンスを表示することと、を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device having a display device and one or more cameras, the one or more programs displaying a camera user interface via the display device, the camera user interface including a camera display area including a representation of a field of view of one or more cameras and a camera control area including a plurality of camera mode affordances at a first position, and instructions for detecting a first gesture on the camera user interface while displaying the camera user interface, and modifying an appearance of the camera control area in response to detecting the first gesture, the modifying the appearance of the camera control area including: displaying one or more additional camera mode affordances at the first position in accordance with a determination that the first gesture is a gesture of a first type; ceasing to display the plurality of camera mode affordances in accordance with a determination that the first gesture is a gesture of a second type different from the first type, and displaying a plurality of camera setting affordances at the first position, the camera setting affordances being settings for adjusting image capture of a currently selected camera mode.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の位置に複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含み、カメラユーザインタフェースを表示している間に、カメラユーザインタフェース上の第1のジェスチャを検出し、第1のジェスチャを検出したことに応じて、カメラコントロール領域の外観を修正する、命令を含み、カメラコントロール領域の外観を修正することは、第1のジェスチャが第1のタイプのジェスチャであるとの判定に従って、第1の位置に1つ以上の追加のカメラモードアフォーダンスを表示することと、第1のジェスチャが第1のタイプとは異なる第2のタイプのジェスチャであるとの判定に従って、複数のカメラモードアフォーダンスを表示することを停止し、第1の位置に複数のカメラ設定アフォーダンスを表示することであって、カメラ設定アフォーダンスは、現在選択されているカメラモードの画像キャプチャを調整する設定である、複数のカメラ設定アフォーダンスを表示することと、を含む。 According to some embodiments, an electronic device is described. The electronic device includes a display device, one or more cameras, one or more processors, and a memory that stores one or more programs configured to be executed by the one or more processors. The one or more programs display a camera user interface via the display device, the camera user interface including a camera display area including a representation of a field of view of the one or more cameras, and a camera control area including a plurality of camera mode affordances at a first position. The one or more programs include instructions for detecting a first gesture on the camera user interface while displaying the camera user interface, and modifying an appearance of the camera control area in response to detecting the first gesture, the modifying the appearance of the camera control area including: displaying one or more additional camera mode affordances at the first position in accordance with a determination that the first gesture is a gesture of a first type; ceasing to display the plurality of camera mode affordances in accordance with a determination that the first gesture is a gesture of a second type different from the first type, and displaying a plurality of camera setting affordances at the first position, the camera setting affordances being settings for adjusting image capture of a currently selected camera mode.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の位置に複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示する手段と、カメラユーザインタフェースを表示している間に、カメラユーザインタフェース上の第1のジェスチャを検出する手段と、第1のジェスチャを検出したことに応じて、カメラコントロール領域の外観を修正する手段であって、第1のジェスチャが第1のタイプのジェスチャであるとの判定に従って、第1の位置に1つ以上の追加のカメラモードアフォーダンスを表示することと、第1のジェスチャが第1のタイプとは異なる第2のタイプのジェスチャであるとの判定に従って、複数のカメラモードアフォーダンスを表示することを停止し、第1の位置に複数のカメラ設定アフォーダンスを表示することであって、カメラ設定アフォーダンスは、現在選択されているカメラモードの画像キャプチャを調整する設定である、複数のカメラ設定アフォーダンスを表示することと、を含む、カメラコントロール領域の外観を修正する手段と、を備える。 According to some embodiments, an electronic device is described. The electronic device includes a display device, one or more cameras, and means for displaying a camera user interface via the display device, the camera user interface including a camera display region including a representation of a field of view of the one or more cameras and a camera control region including a plurality of camera mode affordances at a first location; means for detecting a first gesture on the camera user interface while displaying the camera user interface; and means for modifying an appearance of the camera control region in response to detecting the first gesture, the means for modifying an appearance of the camera control region including: displaying one or more additional camera mode affordances at the first location according to a determination that the first gesture is a gesture of a first type; and ceasing to display the plurality of camera mode affordances and displaying a plurality of camera setting affordances at the first location according to a determination that the first gesture is a gesture of a second type different from the first type, the camera setting affordances being settings for adjusting image capture of a currently selected camera mode.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて実行される。この方法は、カメラユーザインタフェースを表示する要求を受信することと、カメラユーザインタフェースを表示する要求を受信したことに応じて、かつそれぞれの基準が満たされていないとの判定に従って、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースは、1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、1つ以上のカメラの視野の第2の部分の表現を含む第2の領域であって、1つ以上のカメラの視野の第2の部分は、第1の部分と視覚的に区別される、第2の領域と、を含む、カメラユーザインタフェースを表示することと、カメラユーザインタフェースが表示されている間に、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出することと、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出したことに応じて、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツと、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、1つ以上のカメラでキャプチャすることと、メディアアイテムをキャプチャした後に、メディアアイテムを表示する要求を受信することとし、メディアアイテムを表示する要求を受信したことに応じて、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの少なくとも一部分の表現を表示することなく、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツの第1の表現を表示することと、を含む。 According to some embodiments, a method is described. The method is executed on an electronic device having a display device and one or more cameras. The method includes receiving a request to display a camera user interface; in response to receiving the request to display the camera user interface and following a determination that a respective criterion is not met, displaying, via the display device, the camera user interface including a first region including a representation of a first portion of a field of view of the one or more cameras and a second region including a representation of a second portion of the field of view of the one or more cameras, the second portion of the field of view of the one or more cameras being visually distinct from the first portion; and, while the camera user interface is displayed, receiving a request to capture media with the one or more cameras. and, in response to detecting an input corresponding to a request to capture media with the one or more cameras, capturing a media item with the one or more cameras, the media item including visual content corresponding to a first portion of a field of view of the one or more cameras and visual content corresponding to a second portion of the field of view of the one or more cameras; and, after capturing the media item, receiving a request to display the media item, and, in response to receiving the request to display the media item, displaying a first representation of the visual content corresponding to the first portion of the field of view of the one or more cameras without displaying a representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、カメラユーザインタフェースを表示する要求を受信し、カメラユーザインタフェースを表示する要求を受信したことに応じて、かつそれぞれの基準が満たされていないとの判定に従って、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースは、1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、1つ以上のカメラの視野の第2の部分の表現を含む第2の領域であって、1つ以上のカメラの視野の第2の部分は、第1の部分と視覚的に区別される、第2の領域と、を含み、カメラユーザインタフェースが表示されている間に、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出し、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出したことに応じて、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツと、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、1つ以上のカメラでキャプチャし、メディアアイテムをキャプチャした後に、メディアアイテムを表示する要求を受信し、メディアアイテムを表示する要求を受信したことに応じて、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの少なくとも一部分の表現を表示することなく、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツの第1の表現を表示する、命令を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs receiving a request to display a camera user interface, and displaying the camera user interface via the display device in response to receiving the request to display the camera user interface and in accordance with a determination that a respective criterion is not met, the camera user interface including a first region including a representation of a first portion of a field of view of the one or more cameras and a second region including a representation of a second portion of a field of view of the one or more cameras, the second portion of a field of view of the one or more cameras being visually distinct from the first portion, and the camera user interface. The method includes instructions for detecting an input corresponding to a request to capture media with one or more cameras while the interface is being displayed, capturing a media item with the one or more cameras, the media item including visual content corresponding to a first portion of a field of view of the one or more cameras and visual content corresponding to a second portion of the field of view of the one or more cameras, in response to detecting the input corresponding to the request to capture media with the one or more cameras, receiving a request to display the media item after capturing the media item, and displaying a first representation of the visual content corresponding to the first portion of the field of view of the one or more cameras without displaying a representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras, in response to receiving the request to display the media item.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、カメラユーザインタフェースを表示する要求を受信し、カメラユーザインタフェースを表示する要求を受信したことに応じて、かつそれぞれの基準が満たされていないとの判定に従って、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースは、1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、1つ以上のカメラの視野の第2の部分の表現を含む第2の領域であって、1つ以上のカメラの視野の第2の部分は、第1の部分と視覚的に区別される、第2の領域と、を含み、カメラユーザインタフェースが表示されている間に、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出し、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出したことに応じて、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツと、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、1つ以上のカメラでキャプチャし、メディアアイテムをキャプチャした後に、メディアアイテムを表示する要求を受信し、メディアアイテムを表示する要求を受信したことに応じて、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの少なくとも一部分の表現を表示することなく、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツの第1の表現を表示する、命令を含む。 According to some embodiments, a temporary computer readable storage medium is described. The temporary computer readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device including a display device and one or more cameras, the one or more programs receiving a request to display a camera user interface, and displaying, via the display device, the camera user interface in response to receiving the request to display the camera user interface and in accordance with a determination that a respective criterion is not met, the camera user interface including a first region including a representation of a first portion of a field of view of the one or more cameras and a second region including a representation of a second portion of the field of view of the one or more cameras, the second portion of the field of view of the one or more cameras being visually distinct from the first portion, and the camera user interface The method includes instructions for detecting an input corresponding to a request to capture media with one or more cameras while the source is being displayed, capturing a media item with one or more cameras, the media item including visual content corresponding to a first portion of a field of view of the one or more cameras and visual content corresponding to a second portion of the field of view of the one or more cameras, in response to detecting the input corresponding to the request to capture media with the one or more cameras, receiving a request to display the media item after capturing the media item, and displaying a first representation of the visual content corresponding to the first portion of the field of view of the one or more cameras without displaying a representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras, in response to receiving the request to display the media item.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、カメラユーザインタフェースを表示する要求を受信し、カメラユーザインタフェースを表示する要求を受信したことに応じて、かつそれぞれの基準が満たされていないとの判定に従って、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースは、1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、1つ以上のカメラの視野の第2の部分の表現を含む第2の領域であって、1つ以上のカメラの視野の第2の部分は、第1の部分と視覚的に区別される、第2の領域と、を含み、カメラユーザインタフェースが表示されている間に、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出し、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出したことに応じて、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツと、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、1つ以上のカメラでキャプチャし、メディアアイテムをキャプチャした後に、メディアアイテムを表示する要求を受信し、メディアアイテムを表示する要求を受信したことに応じて、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの少なくとも一部分の表現を表示することなく、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツの第1の表現を表示する、命令を含む。 According to some embodiments, an electronic device is described. The electronic device includes a display device, one or more cameras, one or more processors, and a memory storing one or more programs configured to be executed by the one or more processors, the one or more programs receiving a request to display a camera user interface, and displaying, via the display device, the camera user interface in response to receiving the request to display the camera user interface and in accordance with a determination that a respective criterion is not met, the camera user interface including a first region including a representation of a first portion of a field of view of the one or more cameras and a second region including a representation of a second portion of the field of view of the one or more cameras, the second portion of the field of view of the one or more cameras being visually distinct from the first portion, and The method includes instructions for detecting an input corresponding to a request to capture media with one or more cameras while the interface is displayed, capturing a media item with one or more cameras, the media item including visual content corresponding to a first portion of a field of view of the one or more cameras and visual content corresponding to a second portion of the field of view of the one or more cameras, in response to detecting the input corresponding to the request to capture media with the one or more cameras, receiving a request to display the media item after capturing the media item, and displaying a first representation of the visual content corresponding to the first portion of the field of view of the one or more cameras without displaying a representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras, in response to receiving the request to display the media item.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、カメラユーザインタフェースを表示する要求を受信する手段と、カメラユーザインタフェースを表示する要求を受信したことに応じて、かつそれぞれの基準が満たされていないとの判定に従って、表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、カメラユーザインタフェースは、1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、1つ以上のカメラの視野の第2の部分の表現を含む第2の領域であって、1つ以上のカメラの視野の第2の部分は、第1の部分と視覚的に区別される、第2の領域と、を含む、カメラユーザインタフェースを表示する手段と、カメラユーザインタフェースが表示されている間に、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出する手段と、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出したことに応じて、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツと、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、1つ以上のカメラでキャプチャする手段と、メディアアイテムをキャプチャした後に、メディアアイテムを表示する要求を受信する手段と、メディアアイテムを表示する要求を受信したことに応じて、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの少なくとも一部分の表現を表示することなく、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツの第1の表現を表示する手段と、を備える。 According to some embodiments, an electronic device is described that includes a display device, one or more cameras, a means for receiving a request to display a camera user interface, and a means for displaying, in response to receiving the request to display the camera user interface and following a determination that a respective criterion is not met, via the display device, the camera user interface including a first region including a representation of a first portion of the field of view of the one or more cameras and a second region including a representation of a second portion of the field of view of the one or more cameras, the second portion of the field of view of the one or more cameras being visually distinct from the first portion, and a means for displaying a media with the one or more cameras while the camera user interface is being displayed. means for detecting an input corresponding to a request to capture media with the one or more cameras; means for capturing a media item with the one or more cameras in response to detecting the input corresponding to a request to capture media with the one or more cameras, the media item including visual content corresponding to a first portion of the field of view of the one or more cameras and visual content corresponding to a second portion of the field of view of the one or more cameras; means for receiving a request to display the media item after capturing the media item; and means for displaying a first representation of the visual content corresponding to the first portion of the field of view of the one or more cameras without displaying a representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras in response to receiving the request to display the media item.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて実行される。この方法は、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示することと、カメラユーザインタフェースを表示している間に、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出することと、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出したことに応じて、1つ以上のカメラの視野に対応するメディアをキャプチャすることと、キャプチャされたメディアの表現を表示することと、キャプチャされたメディアの表現を表示している間に、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出することと、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出したことに応じて、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも第1の部分を表示することを停止することと、を含む。 According to some embodiments, a method is described. The method is performed in an electronic device having a display device and one or more cameras. The method includes displaying a camera user interface via the display device, the camera user interface including a camera display area including a representation of a field of view of the one or more cameras; detecting a request to capture media corresponding to the field of view of the one or more cameras while displaying the camera user interface; capturing media corresponding to the field of view of the one or more cameras in response to detecting the request to capture media corresponding to the field of view of the one or more cameras; displaying the representation of the captured media; detecting that the representation of the captured media has been displayed for a predetermined period while displaying the representation of the captured media; and ceasing to display at least a first portion of the representation of the captured media while maintaining the display of the camera user interface in response to detecting that the representation of the captured media has been displayed for a predetermined period.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含み、カメラユーザインタフェースを表示している間に、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出し、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出したことに応じて、1つ以上のカメラの視野に対応するメディアをキャプチャし、キャプチャされたメディアの表現を表示し、キャプチャされたメディアの表現を表示している間に、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出し、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出したことに応じて、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも第1の部分を表示することを停止する、命令を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device including a display device and one or more cameras, the one or more programs including instructions for displaying a camera user interface via the display device, the camera user interface including a camera display area including a representation of a field of view of the one or more cameras, detecting a request to capture media corresponding to the field of view of the one or more cameras while displaying the camera user interface, capturing media corresponding to the field of view of the one or more cameras in response to detecting the request to capture media corresponding to the field of view of the one or more cameras and displaying the representation of the captured media, detecting that the representation of the captured media has been displayed for a predetermined period while displaying the representation of the captured media, and ceasing to display at least a first portion of the representation of the captured media while maintaining the display of the camera user interface in response to detecting that the representation of the captured media has been displayed for a predetermined period.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含み、カメラユーザインタフェースを表示している間に、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出し、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出したことに応じて、1つ以上のカメラの視野に対応するメディアをキャプチャし、キャプチャされたメディアの表現を表示し、キャプチャされたメディアの表現を表示している間に、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出し、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出したことに応じて、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも第1の部分を表示することを停止する、命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. The temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device including a display device and one or more cameras, the one or more programs including instructions for displaying a camera user interface via the display device, the camera user interface including a camera display area including a representation of a field of view of the one or more cameras, detecting a request to capture media corresponding to the field of view of the one or more cameras while displaying the camera user interface, capturing media corresponding to the field of view of the one or more cameras in response to detecting the request to capture media corresponding to the field of view of the one or more cameras and displaying the representation of the captured media, detecting that the representation of the captured media has been displayed for a predetermined period while displaying the representation of the captured media, and ceasing to display at least a first portion of the representation of the captured media while maintaining the display of the camera user interface in response to detecting that the representation of the captured media has been displayed for a predetermined period.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含み、カメラユーザインタフェースを表示している間に、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出し、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出したことに応じて、1つ以上のカメラの視野に対応するメディアをキャプチャし、キャプチャされたメディアの表現を表示し、キャプチャされたメディアの表現を表示している間に、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出し、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出したことに応じて、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも第1の部分を表示することを停止する、命令を含む。 According to some embodiments, an electronic device is described. The electronic device includes a display device, one or more cameras, one or more processors, and a memory that stores one or more programs configured to be executed by the one or more processors, the one or more programs including instructions for displaying a camera user interface via the display device, the camera user interface including a camera display area including a representation of a field of view of the one or more cameras, detecting a request to capture media corresponding to the field of view of the one or more cameras while displaying the camera user interface, capturing media corresponding to the field of view of the one or more cameras in response to detecting the request to capture media corresponding to the field of view of the one or more cameras, displaying the representation of the captured media, detecting that the representation of the captured media has been displayed for a predetermined period while displaying the representation of the captured media, and ceasing to display at least a first portion of the representation of the captured media while maintaining the display of the camera user interface in response to detecting that the representation of the captured media has been displayed for a predetermined period.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示する手段と、カメラユーザインタフェースを表示している間に、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出する手段と、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出したことに応じて、1つ以上のカメラの視野に対応するメディアをキャプチャし、キャプチャされたメディアの表現を表示する手段と、キャプチャされたメディアの表現を表示している間に、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出する手段と、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出したことに応じて、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも第1の部分を表示することを停止する手段と、を備える。 According to some embodiments, an electronic device is described that includes a display device, one or more cameras, and means for displaying a camera user interface via the display device, the camera user interface including a camera display area including a representation of a field of view of the one or more cameras, means for detecting a request to capture media corresponding to the field of view of the one or more cameras while displaying the camera user interface, means for capturing media corresponding to the field of view of the one or more cameras and displaying the representation of the captured media in response to detecting the request to capture media corresponding to the field of view of the one or more cameras, means for detecting, while displaying the representation of the captured media, that the representation of the captured media has been displayed for a predetermined period of time, and means for ceasing to display at least a first portion of the representation of the captured media while maintaining the display of the camera user interface in response to detecting that the representation of the captured media has been displayed for a predetermined period of time.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて実行される。この方法は、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示することと、メディアをキャプチャする要求を受信したことに応じて、第1のアスペクト比でメディアをキャプチャするように電子デバイスが構成されている間に、1つ以上のカメラの視野の表現上のそれぞれの位置での第1の接触を含む第1の入力を検出することと、第1の入力を検出したことに応じて、1組のアスペクト比変化基準が満たされているとの判定に従って、メディアをキャプチャする要求に応じて、第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように電子デバイスを構成することであって、1組のアスペクト比変化基準は、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応じてキャプチャされるメディアの境界部の少なくとも一部分を示すカメラディスプレイ領域の既定の部分に対応する第1の位置で第1の接触を維持し、続いて、第1の位置とは異なる第2の位置への第1の接触の移動を検出することを第1の入力が含むときに満たされる基準を含む、電子デバイスを構成することと、を含む。 According to some embodiments, a method is described. The method is performed on an electronic device having a display device and one or more cameras. The method includes displaying a camera user interface via a display device, the camera user interface including a camera display area including a representation of a field of view of one or more cameras; detecting a first input including a first contact at a respective location on the representation of the field of view of the one or more cameras while the electronic device is configured to capture media in a first aspect ratio in response to receiving a request to capture media; and configuring the electronic device to capture media in a second aspect ratio different from the first aspect ratio in response to detecting the first input according to a determination that a set of aspect ratio change criteria is satisfied in response to the request to capture media, the set of aspect ratio change criteria including criteria satisfied when the first input includes maintaining the first contact at a first position corresponding to a predetermined portion of the camera display area indicative of at least a portion of a boundary of media to be captured in response to the request to capture media for at least a threshold amount of time, and subsequently detecting a movement of the first contact to a second position different from the first position.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含み、メディアをキャプチャする要求を受信したことに応じて、第1のアスペクト比でメディアをキャプチャするように電子デバイスが構成されている間に、1つ以上のカメラの視野の表現上のそれぞれの位置での第1の接触を含む第1の入力を検出し、第1の入力を検出したことに応じて、1組のアスペクト比変化基準が満たされているとの判定に従って、メディアをキャプチャする要求に応じて、第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように電子デバイスを構成し、1組のアスペクト比変化基準は、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応じてキャプチャされるメディアの境界部の少なくとも一部分を示すカメラディスプレイ領域の既定の部分に対応する第1の位置で第1の接触を維持し、続いて、第1の位置とは異なる第2の位置への第1の接触の移動を検出することを第1の入力が含むときに満たされる基準を含む、命令を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. A non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device having a display device and one or more cameras, the one or more programs including instructions for displaying a camera user interface via the display device, the camera user interface including a camera display area including a representation of a field of view of the one or more cameras, detecting a first input including a first contact at a respective location on the representation of the field of view of the one or more cameras while the electronic device is configured to capture media in a first aspect ratio in response to receiving a request to capture media, and configuring the electronic device to capture media in a second aspect ratio different from the first aspect ratio in response to detecting the first input according to a determination that a set of aspect ratio change criteria is satisfied, the set of aspect ratio change criteria including criteria satisfied when the first input includes maintaining the first contact at a first position corresponding to a predetermined portion of the camera display area indicative of at least a portion of a boundary of the media to be captured in response to the request to capture media for at least a threshold amount of time, and subsequently detecting a movement of the first contact to a second position different from the first position.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含み、メディアをキャプチャする要求を受信したことに応じて、第1のアスペクト比でメディアをキャプチャするように電子デバイスが構成されている間に、1つ以上のカメラの視野の表現上のそれぞれの位置での第1の接触を含む第1の入力を検出し、第1の入力を検出したことに応じて、1組のアスペクト比変化基準が満たされているとの判定に従って、メディアをキャプチャする要求に応じて、第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように電子デバイスを構成し、1組のアスペクト比変化基準は、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応じてキャプチャされるメディアの境界部の少なくとも一部分を示すカメラディスプレイ領域の既定の部分に対応する第1の位置で第1の接触を維持し、続いて、第1の位置とは異なる第2の位置への第1の接触の移動を検出することを第1の入力が含むときに満たされる基準を含む、命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device having a display device and one or more cameras, the one or more programs including instructions for displaying a camera user interface via the display device, the camera user interface including a camera display area including a representation of a field of view of the one or more cameras, detecting a first input including a first contact at a respective location on the representation of the field of view of the one or more cameras while the electronic device is configured to capture media in a first aspect ratio in response to receiving a request to capture media, and configuring the electronic device to capture media in a second aspect ratio different from the first aspect ratio in response to detecting the first input according to a determination that a set of aspect ratio change criteria is satisfied, the set of aspect ratio change criteria including criteria satisfied when the first input includes maintaining the first contact at a first position corresponding to a predetermined portion of the camera display area indicative of at least a portion of a boundary of the media to be captured in response to the request to capture media for at least a threshold amount of time, and subsequently detecting a movement of the first contact to a second position different from the first position.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含み、メディアをキャプチャする要求を受信したことに応じて、第1のアスペクト比でメディアをキャプチャするように電子デバイスが構成されている間に、1つ以上のカメラの視野の表現上のそれぞれの位置での第1の接触を含む第1の入力を検出し、第1の入力を検出したことに応じて、1組のアスペクト比変化基準が満たされているとの判定に従って、メディアをキャプチャする要求に応じて、第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように電子デバイスを構成し、1組のアスペクト比変化基準は、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応じてキャプチャされるメディアの境界部の少なくとも一部分を示すカメラディスプレイ領域の既定の部分に対応する第1の位置で第1の接触を維持し、続いて、第1の位置とは異なる第2の位置への第1の接触の移動を検出することを第1の入力が含むときに満たされる基準を含む、命令を含む。 According to some embodiments, an electronic device is described. The electronic device includes a display device, one or more cameras, one or more processors, and a memory storing one or more programs configured to be executed by the one or more processors, the one or more programs including instructions for displaying a camera user interface via the display device, the camera user interface including a camera display area including a representation of a field of view of the one or more cameras, detecting a first input including a first contact at a respective location on the representation of the field of view of the one or more cameras while the electronic device is configured to capture media in response to receiving a request to capture media, the first input including a first contact at a respective location on the representation of the field of view of the one or more cameras, and configuring the electronic device to capture media in response to the request to capture media in response to detecting the first input, in accordance with a determination that a set of aspect ratio change criteria is satisfied, the set of aspect ratio change criteria including criteria satisfied when the first input includes maintaining the first contact at a first location corresponding to a predetermined portion of the camera display area indicative of at least a portion of a boundary of the media to be captured in response to the request to capture media for at least a threshold amount of time, and subsequently detecting a movement of the first contact to a second location different from the first location.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示する手段と、メディアをキャプチャする要求を受信したことに応じて、第1のアスペクト比でメディアをキャプチャするように電子デバイスが構成されている間に、1つ以上のカメラの視野の表現上のそれぞれの位置での第1の接触を含む第1の入力を検出する手段と、第1の入力を検出したことに応じて、1組のアスペクト比変化基準が満たされているとの判定に従って、メディアをキャプチャする要求に応じて、第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように電子デバイスを構成する手段であって、1組のアスペクト比変化基準は、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応じてキャプチャされるメディアの境界部の少なくとも一部分を示すカメラディスプレイ領域の既定の部分に対応する第1の位置で第1の接触を維持し、続いて、第1の位置とは異なる第2の位置への第1の接触の移動を検出することを第1の入力が含むときに満たされる基準を含む、電子デバイスを構成する手段と、を備える。 According to some embodiments, an electronic device is described. The electronic device includes a display device, one or more cameras, and means for displaying a camera user interface via the display device, the camera user interface including a camera display area including a representation of a field of view of the one or more cameras; means for detecting a first input including a first contact at a respective location on the representation of the field of view of the one or more cameras while the electronic device is configured to capture media in a first aspect ratio in response to receiving a request to capture media; and means for configuring the electronic device to capture media in a second aspect ratio different from the first aspect ratio in response to detecting the first input according to a determination that a set of aspect ratio change criteria is satisfied in response to the request to capture media, the set of aspect ratio change criteria including criteria satisfied when the first input includes maintaining the first contact at a first position corresponding to a predetermined portion of the camera display area indicative of at least a portion of a boundary of media to be captured in response to the request to capture media for at least a threshold amount of time, and subsequently detecting a movement of the first contact to a second position different from the first position.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて実行される。この方法は、電子デバイスが第1の向きにある間に、表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示することと、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出することと、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出したことに応じて、ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているとの判定に従って、第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示することと、を含む。 According to some embodiments, a method is described. The method is performed in an electronic device having a display device and one or more cameras. The method includes displaying, via the display device while the electronic device is in a first orientation, a first camera user interface that captures media in a first camera orientation at a first zoom level; detecting a change in orientation of the electronic device from the first orientation to a second orientation; and, in response to detecting a change in orientation of the electronic device from the first orientation to the second orientation, automatically and without intervening user input, displaying a second camera user interface that captures media in a second camera orientation at a second zoom level different from the first zoom level in accordance with a determination that a set of auto-zoom criteria is satisfied.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、電子デバイスが第1の向きにある間に、表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示し、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出し、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出したことに応じて、ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているとの判定に従って、第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示する、命令を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device having a display device and one or more cameras, the one or more programs including instructions for displaying, via the display device while the electronic device is in a first orientation, a first camera user interface that captures media in a first camera orientation at a first zoom level, detecting a change in orientation of the electronic device from the first orientation to a second orientation, and, in response to detecting a change in orientation of the electronic device from the first orientation to the second orientation, automatically without intervening user input and pursuant to a determination that a set of auto-zoom criteria is satisfied, displaying a second camera user interface that captures media in a second camera orientation at a second zoom level different from the first zoom level.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、電子デバイスが第1の向きにある間に、表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示し、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出し、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出したことに応じて、ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているとの判定に従って、第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示する、命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. The temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device having a display device and one or more cameras, the one or more programs including instructions for displaying, via the display device while the electronic device is in a first orientation, a first camera user interface that captures media in a first camera orientation at a first zoom level, detecting a change in orientation of the electronic device from the first orientation to a second orientation, and, in response to detecting a change in orientation of the electronic device from the first orientation to the second orientation, automatically without intervening user input and pursuant to a determination that a set of auto-zoom criteria is satisfied, displaying a second camera user interface that captures media in a second camera orientation at a second zoom level different from the first zoom level.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、電子デバイスが第1の向きにある間に、表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示し、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出し、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出したことに応じて、ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているとの判定に従って、第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示する、命令を含む。 According to some embodiments, an electronic device is described. The electronic device includes a display device, one or more cameras, one or more processors, and a memory storing one or more programs configured to be executed by the one or more processors, the one or more programs including instructions for displaying, via the display device, a first camera user interface that captures media in a first camera orientation at a first zoom level while the electronic device is in a first orientation, detecting a change in orientation of the electronic device from the first orientation to a second orientation, and, in response to detecting a change in orientation of the electronic device from the first orientation to the second orientation, automatically, without intervening user input, displaying a second camera user interface that captures media in a second camera orientation at a second zoom level different from the first zoom level in accordance with a determination that a set of auto-zoom criteria is satisfied.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、電子デバイスが第1の向きにある間に、表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示する手段と、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出する手段と、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出したことに応じて、ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているとの判定に従って、第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示する手段と、を備える。 According to some embodiments, an electronic device is described that includes a display device, one or more cameras, and means for displaying, via the display device while the electronic device is in a first orientation, a first camera user interface that captures media in a first camera orientation at a first zoom level, means for detecting a change in orientation of the electronic device from the first orientation to a second orientation, and means for displaying, in response to detecting a change in orientation of the electronic device from the first orientation to the second orientation, a second camera user interface that captures media in a second camera orientation at a second zoom level different from the first zoom level, automatically without user input and in accordance with a determination that a set of auto-zoom criteria is satisfied.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて実行される。この方法は、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、メディアキャプチャユーザインタフェースを表示している間に、1つ以上のカメラを介して、1つ以上のカメラの視野内の変化を検出することと、1つ以上のカメラの視野内の変化を検出したことに応じて、かつ可変フレームレート基準が満たされているとの判定に従って、1つ以上のカメラの視野内の検出された変化が移動基準を満たすとの判定に従って、第1のフレームレートで1つ以上のカメラの視野内の検出された変化に基づいて、1つ以上のカメラの視野の表現を更新することと、1つ以上のカメラの視野内の検出された変化が移動基準を満たさないとの判定に従って、第1のフレームレートよりも低い第2のフレームレートで1つ以上のカメラの視野内の検出された変化に基づいて、1つ以上のカメラの視野の表現を更新することと、を含む。 According to some embodiments, a method is described. The method is performed in an electronic device having a display device and one or more cameras. The method includes displaying, via the display device, a media capture user interface including displaying a representation of a field of view of the one or more cameras; detecting, via the one or more cameras while displaying the media capture user interface, a change in the field of view of the one or more cameras; in response to detecting the change in the field of view of the one or more cameras and in accordance with a determination that the variable frame rate criterion is met, updating the representation of the field of view of the one or more cameras based on the detected change in the field of view of the one or more cameras at a first frame rate in accordance with a determination that the detected change in the field of view of the one or more cameras meets the movement criterion; and updating the representation of the field of view of the one or more cameras based on the detected change in the field of view of the one or more cameras at a second frame rate lower than the first frame rate in accordance with a determination that the detected change in the field of view of the one or more cameras does not meet the movement criterion.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示し、メディアキャプチャユーザインタフェースを表示している間に、1つ以上のカメラを介して、1つ以上のカメラの視野内の変化を検出し、1つ以上のカメラの視野内の変化を検出したことに応じて、かつ可変フレームレート基準が満たされているとの判定に従って、1つ以上のカメラの視野内の検出された変化が移動基準を満たすとの判定に従って、第1のフレームレートで1つ以上のカメラの視野内の検出された変化に基づいて、1つ以上のカメラの視野の表現を更新し、1つ以上のカメラの視野内の検出された変化が移動基準を満たさないとの判定に従って、第1のフレームレートよりも低い第2のフレームレートで1つ以上のカメラの視野内の検出された変化に基づいて、1つ以上のカメラの視野の表現を更新する、命令を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device including a display device and one or more cameras, the one or more programs including instructions for displaying a media capture user interface via the display device, including displaying a representation of the field of view of the one or more cameras, detecting a change in the field of view of the one or more cameras via the one or more cameras while displaying the media capture user interface, updating the representation of the field of view of the one or more cameras based on the detected change in the field of view of the one or more cameras at a first frame rate in response to detecting the change in the field of view of the one or more cameras and in accordance with a determination that the variable frame rate criterion is met, in accordance with a determination that the detected change in the field of view of the one or more cameras meets the movement criterion, and updating the representation of the field of view of the one or more cameras based on the detected change in the field of view of the one or more cameras at a second frame rate lower than the first frame rate in accordance with a determination that the detected change in the field of view of the one or more cameras does not meet the movement criterion.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示し、メディアキャプチャユーザインタフェースを表示している間に、1つ以上のカメラを介して、1つ以上のカメラの視野内の変化を検出し、1つ以上のカメラの視野内の変化を検出したことに応じて、かつ可変フレームレート基準が満たされているとの判定に従って、1つ以上のカメラの視野内の検出された変化が移動基準を満たすとの判定に従って、第1のフレームレートで1つ以上のカメラの視野内の検出された変化に基づいて、1つ以上のカメラの視野の表現を更新し、1つ以上のカメラの視野内の検出された変化が移動基準を満たさないとの判定に従って、第1のフレームレートよりも低い第2のフレームレートで1つ以上のカメラの視野内の検出された変化に基づいて、1つ以上のカメラの視野の表現を更新する、命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. The temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device including a display device and one or more cameras, the one or more programs including instructions for displaying a media capture user interface via the display device, including displaying a representation of the field of view of the one or more cameras, detecting a change in the field of view of the one or more cameras via the one or more cameras while displaying the media capture user interface, updating the representation of the field of view of the one or more cameras based on the detected change in the field of view of the one or more cameras at a first frame rate in response to detecting the change in the field of view of the one or more cameras and in accordance with a determination that the variable frame rate criterion is met, in accordance with a determination that the detected change in the field of view of the one or more cameras meets the movement criterion, and updating the representation of the field of view of the one or more cameras based on the detected change in the field of view of the one or more cameras at a second frame rate lower than the first frame rate in accordance with a determination that the detected change in the field of view of the one or more cameras does not meet the movement criterion.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示し、メディアキャプチャユーザインタフェースを表示している間に、1つ以上のカメラを介して、1つ以上のカメラの視野内の変化を検出し、1つ以上のカメラの視野内の変化を検出したことに応じて、かつ可変フレームレート基準が満たされているとの判定に従って、1つ以上のカメラの視野内の検出された変化が移動基準を満たすとの判定に従って、第1のフレームレートで1つ以上のカメラの視野内の検出された変化に基づいて、1つ以上のカメラの視野の表現を更新し、1つ以上のカメラの視野内の検出された変化が移動基準を満たさないとの判定に従って、第1のフレームレートよりも低い第2のフレームレートで1つ以上のカメラの視野内の検出された変化に基づいて、1つ以上のカメラの視野の表現を更新する、命令を含む。 According to some embodiments, an electronic device is described. The electronic device includes a display device, one or more cameras, one or more processors, and a memory that stores one or more programs configured to be executed by the one or more processors, the one or more programs including instructions for displaying, via the display device, a media capture user interface including displaying a representation of a field of view of the one or more cameras, detecting, via the one or more cameras while displaying the media capture user interface, a change in the field of view of the one or more cameras, in response to detecting the change in the field of view of the one or more cameras and in accordance with a determination that the variable frame rate criterion is satisfied, updating the representation of the field of view of the one or more cameras based on the detected change in the field of view of the one or more cameras at a first frame rate in accordance with a determination that the detected change in the field of view of the one or more cameras does not satisfy the movement criterion, and updating the representation of the field of view of the one or more cameras based on the detected change in the field of view of the one or more cameras at a second frame rate lower than the first frame rate in accordance with a determination that the detected change in the field of view of the one or more cameras does not satisfy the movement criterion.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示する手段と、メディアキャプチャユーザインタフェースを表示している間に、1つ以上のカメラを介して、1つ以上のカメラの視野内の変化を検出する手段と、1つ以上のカメラの視野内の変化を検出したことに応じて、かつ可変フレームレート基準が満たされているとの判定に従って、1つ以上のカメラの視野内の検出された変化が移動基準を満たすとの判定に従って、第1のフレームレートで1つ以上のカメラの視野内の検出された変化に基づいて、1つ以上のカメラの視野の表現を更新し、1つ以上のカメラの視野内の検出された変化が移動基準を満たさないとの判定に従って、第1のフレームレートよりも低い第2のフレームレートで1つ以上のカメラの視野内の検出された変化に基づいて、1つ以上のカメラの視野の表現を更新する、手段と、を備える。 According to some embodiments, an electronic device is described. The electronic device includes a display device, one or more cameras, and means for displaying a media capture user interface via the display device, the media capture user interface including displaying a representation of the field of view of the one or more cameras, means for detecting a change in the field of view of the one or more cameras via the one or more cameras while displaying the media capture user interface, and means for updating the representation of the field of view of the one or more cameras based on the detected change in the field of view of the one or more cameras at a first frame rate in response to detecting the change in the field of view of the one or more cameras and in accordance with a determination that the variable frame rate criterion is met, in accordance with a determination that the detected change in the field of view of the one or more cameras meets the movement criterion, and updating the representation of the field of view of the one or more cameras based on the detected change in the field of view of the one or more cameras at a second frame rate lower than the first frame rate in accordance with a determination that the detected change in the field of view of the one or more cameras does not meet the movement criterion.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて実行される。この方法は、カメラユーザインタフェースを表示する要求を受信することと、カメラユーザインタフェースを表示する要求を受信したことに応じて、表示デバイスを介して、カメラユーザインタフェースを表示することであって、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することと、1つ以上のカメラの視野内の周辺光がそれぞれの閾値を下回るときに満たされる条件を含む低光条件が満たされたとの判定に従って、1つ以上のカメラの視野の表現と同時に、メディアをキャプチャする要求に応じてメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、低光条件が満たされなかったとの判定に従って、キャプチャ持続時間を調整するコントロールの表示をやめることと、を含む、カメラユーザインタフェースを表示することと、を含む。 According to some embodiments, a method is described. The method is performed in an electronic device having a display device and one or more cameras. The method includes receiving a request to display a camera user interface; and, in response to receiving the request to display the camera user interface, displaying the camera user interface via the display device, the camera user interface including displaying a representation of a field of view of the one or more cameras via the display device; displaying a control for adjusting a capture duration for capturing media in response to the request to capture media simultaneously with the representation of the field of view of the one or more cameras in accordance with a determination that a low light condition is met, including a condition that is met when ambient light in the field of view of the one or more cameras falls below a respective threshold; and ceasing to display the control for adjusting the capture duration in accordance with a determination that the low light condition is not met.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、カメラユーザインタフェースを表示する要求を受信し、カメラユーザインタフェースを表示する要求を受信したことに応じて、表示デバイスを介して、カメラユーザインタフェースを表示する、命令を含み、カメラユーザインタフェースを表示することは、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することと、1つ以上のカメラの視野内の周辺光がそれぞれの閾値を下回るときに満たされる条件を含む低光条件が満たされたとの判定に従って、1つ以上のカメラの視野の表現と同時に、メディアをキャプチャする要求に応じてメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、低光条件が満たされなかったとの判定に従って、キャプチャ持続時間を調整するコントロールの表示をやめることと、を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device including a display device and one or more cameras, the one or more programs including instructions for receiving a request to display a camera user interface, and displaying the camera user interface via the display device in response to receiving the request to display the camera user interface, the displaying including displaying a representation of a field of view of the one or more cameras via the display device, displaying a control for adjusting a capture duration for capturing media in response to the request to capture media concurrently with the representation of the field of view of the one or more cameras in accordance with a determination that a low light condition is met, including a condition that is met when ambient light in the field of view of the one or more cameras falls below a respective threshold, and ceasing to display the control for adjusting the capture duration in accordance with a determination that the low light condition is not met.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、カメラユーザインタフェースを表示する要求を受信し、カメラユーザインタフェースを表示する要求を受信したことに応じて、表示デバイスを介して、カメラユーザインタフェースを表示する、命令を含み、カメラユーザインタフェースを表示することは、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することと、1つ以上のカメラの視野内の周辺光がそれぞれの閾値を下回るときに満たされる条件を含む低光条件が満たされたとの判定に従って、1つ以上のカメラの視野の表現と同時に、メディアをキャプチャする要求に応じてメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、低光条件が満たされなかったとの判定に従って、キャプチャ持続時間を調整するコントロールの表示をやめることと、を含む。 According to some embodiments, a temporary computer-readable storage medium is described. The temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device including a display device and one or more cameras, the one or more programs including instructions for receiving a request to display a camera user interface, and displaying the camera user interface via the display device in response to receiving the request to display the camera user interface, the displaying including displaying a representation of a field of view of the one or more cameras via the display device, displaying a control for adjusting a capture duration for capturing media in response to the request to capture media concurrently with the representation of the field of view of the one or more cameras in accordance with a determination that a low light condition is met, including a condition that is met when ambient light in the field of view of the one or more cameras falls below a respective threshold, and ceasing to display the control for adjusting the capture duration in accordance with a determination that the low light condition is not met.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、カメラユーザインタフェースを表示する要求を受信し、カメラユーザインタフェースを表示する要求を受信したことに応じて、表示デバイスを介して、カメラユーザインタフェースを表示する、命令を含み、カメラユーザインタフェースを表示することは、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することと、1つ以上のカメラの視野内の周辺光がそれぞれの閾値を下回るときに満たされる条件を含む低光条件が満たされたとの判定に従って、1つ以上のカメラの視野の表現と同時に、メディアをキャプチャする要求に応じてメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、低光条件が満たされなかったとの判定に従って、キャプチャ持続時間を調整するコントロールの表示をやめることと、を含む。 According to some embodiments, an electronic device is described. The electronic device includes a display device, one or more cameras, one or more processors, and a memory storing one or more programs configured to be executed by the one or more processors, the one or more programs including instructions for receiving a request to display a camera user interface, and displaying the camera user interface via the display device in response to receiving the request to display the camera user interface, the displaying including displaying a representation of a field of view of the one or more cameras via the display device, displaying a control for adjusting a capture duration for capturing media in response to the request to capture media concurrently with the representation of the field of view of the one or more cameras in accordance with a determination that a low light condition is met, including a condition that is met when ambient light in the field of view of the one or more cameras falls below a respective threshold, and ceasing to display the control for adjusting the capture duration in accordance with a determination that the low light condition is not met.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、カメラユーザインタフェースを表示する要求を受信する手段と、カメラユーザインタフェースを表示する要求を受信したことに応じて、表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することと、1つ以上のカメラの視野内の周辺光がそれぞれの閾値を下回るときに満たされる条件を含む低光条件が満たされたとの判定に従って、1つ以上のカメラの視野の表現と同時に、メディアをキャプチャする要求に応じてメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、低光条件が満たされなかったとの判定に従って、キャプチャ持続時間を調整するコントロールの表示をやめることと、を含む、カメラユーザインタフェースを表示する手段と、を備える。 According to some embodiments, an electronic device is described. The electronic device includes a display device, one or more cameras, and means for receiving a request to display a camera user interface; and means for displaying the camera user interface via the display device in response to receiving the request to display the camera user interface, the means including displaying a representation of a field of view of the one or more cameras via the display device; displaying a control for adjusting a capture duration for capturing media in response to the request to capture media simultaneously with the representation of the field of view of the one or more cameras in accordance with a determination that a low light condition is met, including a condition that is met when ambient light in the field of view of the one or more cameras falls below a respective threshold; and ceasing to display the control for adjusting the capture duration in accordance with a determination that the low light condition is not met.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて実行される。この方法は、表示デバイスを介して、カメラユーザインタフェースを表示することと、カメラユーザインタフェースを表示している間に、電子デバイスの1つ以上のセンサを介して、1つ以上のカメラの視野内の光量を検出することと、1つ以上のカメラの視野内の光量を検出したことに応じて、1つ以上のカメラの視野内の光量が、1つ以上のカメラの視野内の光量が所定の閾値を下回るときに満たされる基準を含む、低光環境基準を満たすとの判定に従って、カメラユーザインタフェース内に、フラッシュ動作の状態を示すフラッシュ状態インジケータと、低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、を同時に表示することと、1つ以上のカメラの視野内の光量が低光環境基準を満たしていないとの判定に従って、カメラユーザインタフェース内の低光キャプチャ状態インジケータの表示をやめることと、を含む。 According to some embodiments, a method is described. The method is performed in an electronic device having a display device and one or more cameras. The method includes displaying a camera user interface via the display device; detecting an amount of light in a field of view of the one or more cameras via one or more sensors of the electronic device while displaying the camera user interface; in response to detecting the amount of light in the field of view of the one or more cameras, simultaneously displaying, in the camera user interface, a flash status indicator indicating a status of a flash operation and a low light capture status indicator indicating a status of a low light capture mode, pursuant to a determination that the amount of light in the field of view of the one or more cameras satisfies a low light environment criterion, the criterion being met when the amount of light in the field of view of the one or more cameras is below a predetermined threshold; and ceasing to display the low light capture status indicator in the camera user interface, pursuant to a determination that the amount of light in the field of view of the one or more cameras does not satisfy the low light environment criterion.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースを表示している間に、電子デバイスの1つ以上のセンサを介して、1つ以上のカメラの視野内の光量を検出し、1つ以上のカメラの視野内の光量を検出したことに応じて、1つ以上のカメラの視野内の光量が、1つ以上のカメラの視野内の光量が所定の閾値を下回るときに満たされる基準を含む、低光環境基準を満たすとの判定に従って、カメラユーザインタフェース内に、フラッシュ動作の状態を示すフラッシュ状態インジケータと、低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、を同時に表示し、1つ以上のカメラの視野内の光量が低光環境基準を満たしていないとの判定に従って、カメラユーザインタフェース内の低光キャプチャ状態インジケータの表示をやめる、命令を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device including a display device and one or more cameras, the one or more programs including instructions for displaying a camera user interface via the display device, detecting an amount of light in a field of view of one or more cameras via one or more sensors of the electronic device while displaying the camera user interface, and in response to detecting the amount of light in the field of view of the one or more cameras, simultaneously displaying, in the camera user interface, a flash status indicator indicating a state of a flash operation and a low-light capture status indicator indicating a state of a low-light capture mode, in accordance with a determination that the amount of light in the field of view of the one or more cameras satisfies a low-light environment criterion, including a criterion that is met when the amount of light in the field of view of the one or more cameras falls below a predetermined threshold, and ceasing to display the low-light capture status indicator in the camera user interface in accordance with a determination that the amount of light in the field of view of the one or more cameras does not satisfy the low-light environment criterion.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースを表示している間に、電子デバイスの1つ以上のセンサを介して、1つ以上のカメラの視野内の光量を検出し、1つ以上のカメラの視野内の光量を検出したことに応じて、1つ以上のカメラの視野内の光量が、1つ以上のカメラの視野内の光量が所定の閾値を下回るときに満たされる基準を含む、低光環境基準を満たすとの判定に従って、カメラユーザインタフェース内に、フラッシュ動作の状態を示すフラッシュ状態インジケータと、低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、を同時に表示し、1つ以上のカメラの視野内の光量が低光環境基準を満たしていないとの判定に従って、カメラユーザインタフェース内の低光キャプチャ状態インジケータの表示をやめる、命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. The temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device including a display device and one or more cameras, the one or more programs including instructions for displaying a camera user interface via the display device, detecting an amount of light in a field of view of one or more cameras via one or more sensors of the electronic device while displaying the camera user interface, and in response to detecting the amount of light in the field of view of the one or more cameras, simultaneously displaying, in the camera user interface, a flash status indicator indicating a state of a flash operation and a low-light capture status indicator indicating a state of a low-light capture mode, in accordance with a determination that the amount of light in the field of view of the one or more cameras satisfies a low-light environment criterion, including a criterion that is met when the amount of light in the field of view of the one or more cameras falls below a predetermined threshold, and ceasing to display the low-light capture status indicator in the camera user interface in accordance with a determination that the amount of light in the field of view of the one or more cameras does not satisfy the low-light environment criterion.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースを表示している間に、電子デバイスの1つ以上のセンサを介して、1つ以上のカメラの視野内の光量を検出し、1つ以上のカメラの視野内の光量を検出したことに応じて、1つ以上のカメラの視野内の光量が、1つ以上のカメラの視野内の光量が所定の閾値を下回るときに満たされる基準を含む、低光環境基準を満たすとの判定に従って、カメラユーザインタフェース内に、フラッシュ動作の状態を示すフラッシュ状態インジケータと、低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、を同時に表示し、1つ以上のカメラの視野内の光量が低光環境基準を満たしていないとの判定に従って、カメラユーザインタフェース内の低光キャプチャ状態インジケータの表示をやめる、命令を含む。 According to some embodiments, an electronic device is described. The electronic device includes a display device, one or more cameras, one or more processors, and a memory that stores one or more programs configured to be executed by the one or more processors, the one or more programs including instructions for displaying a camera user interface via the display device, detecting an amount of light in a field of view of one or more cameras via one or more sensors of the electronic device while displaying the camera user interface, and in response to detecting the amount of light in the field of view of the one or more cameras, simultaneously displaying, in the camera user interface, a flash status indicator indicating a status of a flash operation and a low-light capture status indicator indicating a status of a low-light capture mode, in accordance with a determination that the amount of light in the field of view of the one or more cameras satisfies a low-light environment criterion, the criterion being met when the amount of light in the field of view of the one or more cameras falls below a predetermined threshold, and ceasing to display the low-light capture status indicator in the camera user interface in accordance with a determination that the amount of light in the field of view of the one or more cameras does not satisfy the low-light environment criterion.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、表示デバイスを介して、カメラユーザインタフェースを表示する手段と、カメラユーザインタフェースを表示している間に、電子デバイスの1つ以上のセンサを介して、1つ以上のカメラの視野内の光量を検出する手段と、1つ以上のカメラの視野内の光量を検出したことに応じて、1つ以上のカメラの視野内の光量が、1つ以上のカメラの視野内の光量が所定の閾値を下回るときに満たされる基準を含む、低光環境基準を満たすとの判定に従って、カメラユーザインタフェース内に、フラッシュ動作の状態を示すフラッシュ状態インジケータと、低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、を同時に表示し、1つ以上のカメラの視野内の光量が低光環境基準を満たしていないとの判定に従って、カメラユーザインタフェース内の低光キャプチャ状態インジケータの表示をやめる、手段と、を備える。 According to some embodiments, an electronic device is described. The electronic device includes a display device, one or more cameras, and means for displaying a camera user interface via the display device; means for detecting an amount of light in a field of view of the one or more cameras via one or more sensors of the electronic device while displaying the camera user interface; and means for simultaneously displaying, in response to detecting the amount of light in the field of view of the one or more cameras, a flash status indicator indicating a status of a flash operation and a low-light capture status indicator indicating a status of a low-light capture mode in the camera user interface in accordance with a determination that the amount of light in the field of view of the one or more cameras satisfies a low-light environment criterion, the criterion being met when the amount of light in the field of view of the one or more cameras falls below a predetermined threshold; and means for ceasing to display the low-light capture status indicator in the camera user interface in accordance with a determination that the amount of light in the field of view of the one or more cameras does not satisfy the low-light environment criterion.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイスを有する電子デバイスにおいて実行される。この方法は、表示デバイス上に、メディア編集ユーザインタフェースを表示することであって、メディア編集ユーザインタフェースは、視覚メディアの表現と、視覚メディアの表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、視覚メディアの表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、を含む、メディア編集ユーザインタフェースを表示することと、メディア編集ユーザインタフェースを表示している間に、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出することと、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出したことに応じて、表示デバイス上に、メディア編集ユーザインタフェース内のそれぞれの位置に、第1の編集可能パラメータを調整する調整可能なコントロールを表示することと、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、かつ第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出することと、第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出したことに応じて、第1のジェスチャに従って第1の編集可能パラメータの現在値を調整することと、表示デバイス上に、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出することと、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出したことに応じて、メディア編集ユーザインタフェース内のそれぞれの位置に、第2の編集可能パラメータを調整する調整可能なコントロールを表示することと、第2の編集可能パラメータを調整する調整可能なコントロールを表示している間に、かつ第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出することと、第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出したことに応じて、第2のジェスチャに従って第2の編集可能パラメータの現在値を調整することと、を含む。 According to some embodiments, a method is described. The method is performed on an electronic device having a display device. The method includes displaying, on the display device, a media editing user interface, the media editing user interface including a representation of a visual media, a first affordance corresponding to a first editable parameter for editing the representation of the visual media, and a second affordance corresponding to a second editable parameter for editing the representation of the visual media; detecting, while displaying the media editing user interface, a first user input corresponding to a selection of the first affordance; in response to detecting the first user input corresponding to a selection of the first affordance, displaying, on the display device, an adjustable control for adjusting the first editable parameter at a respective location within the media editing user interface; detecting, while displaying the adjustable control for adjusting the first editable parameter and while the first editable parameter is selected, a first gesture directed at the adjustable control for adjusting the first editable parameter; and detecting, while the first editable parameter is selected, a first gesture directed at the adjustable control for adjusting the first editable parameter. In response to detecting a first gesture directed toward an adjustable control for adjusting the first editable parameter, adjusting a current value of the first editable parameter in accordance with the first gesture; detecting a second user input corresponding to a selection of a second affordance while displaying the adjustable control for adjusting the first editable parameter on the display device; in response to detecting the second user input corresponding to a selection of the second affordance, displaying an adjustable control for adjusting the second editable parameter at a respective location within the media editing user interface; detecting a second gesture directed toward the adjustable control for adjusting the second editable parameter while displaying the adjustable control for adjusting the second editable parameter and while the second editable parameter is selected; and in response to detecting the second gesture directed toward the adjustable control for adjusting the second editable parameter while the second editable parameter is selected, adjusting a current value of the second editable parameter in accordance with the second gesture.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイス上に、メディア編集ユーザインタフェースを表示し、メディア編集ユーザインタフェースは、視覚メディアの表現と、視覚メディアの表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、視覚メディアの表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、を含み、メディア編集ユーザインタフェースを表示している間に、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出し、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出したことに応じて、表示デバイス上に、メディア編集ユーザインタフェース内のそれぞれの位置に、第1の編集可能パラメータを調整する調整可能なコントロールを表示し、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、かつ第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出し、第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出したことに応じて、第1のジェスチャに従って第1の編集可能パラメータの現在値を調整し、表示デバイス上に、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出し、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出したことに応じて、メディア編集ユーザインタフェース内のそれぞれの位置に、第2の編集可能パラメータを調整する調整可能なコントロールを表示し、第2の編集可能パラメータを調整する調整可能なコントロールを表示している間に、かつ第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出し、第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出したことに応じて、第2のジェスチャに従って第2の編集可能パラメータの現在値を調整する、命令を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device having a display device, the one or more programs displaying, on the display device, a media editing user interface, the media editing user interface including a representation of visual media, a first affordance corresponding to a first editable parameter for editing the representation of the visual media, and a second affordance corresponding to a second editable parameter for editing the representation of the visual media, detecting a first user input corresponding to a selection of the first affordance while displaying the media editing user interface, displaying, on the display device, an adjustable control for adjusting the first editable parameter at a respective location within the media editing user interface in response to detecting the first user input corresponding to the selection of the first affordance, detecting a first gesture directed toward the adjustable control for adjusting the first editable parameter while displaying the adjustable control for adjusting the first editable parameter and while the first editable parameter is selected, and detecting a second gesture directed toward the adjustable control for adjusting the first editable parameter while displaying the adjustable control for adjusting the first editable parameter. The method includes instructions for adjusting a current value of the first editable parameter in accordance with the first gesture in response to detecting a first gesture directed toward an adjustable control for adjusting the first editable parameter while the first editable parameter is selected; detecting a second user input corresponding to a selection of a second affordance while displaying the adjustable control for adjusting the first editable parameter on the display device; displaying an adjustable control for adjusting the second editable parameter at a respective location within the media editing user interface in response to detecting the second user input corresponding to the selection of the second affordance; detecting a second gesture directed toward the adjustable control for adjusting the second editable parameter while displaying the adjustable control for adjusting the second editable parameter and while the second editable parameter is selected; and adjusting a current value of the second editable parameter in accordance with the second gesture in response to detecting a second gesture directed toward the adjustable control for adjusting the second editable parameter while the second editable parameter is selected.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイス上に、メディア編集ユーザインタフェースを表示し、メディア編集ユーザインタフェースは、視覚メディアの表現と、視覚メディアの表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、視覚メディアの表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、を含み、メディア編集ユーザインタフェースを表示している間に、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出し、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出したことに応じて、表示デバイス上に、メディア編集ユーザインタフェース内のそれぞれの位置に、第1の編集可能パラメータを調整する調整可能なコントロールを表示し、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、かつ第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出し、第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出したことに応じて、第1のジェスチャに従って第1の編集可能パラメータの現在値を調整し、表示デバイス上に、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出し、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出したことに応じて、メディア編集ユーザインタフェース内のそれぞれの位置に、第2の編集可能パラメータを調整する調整可能なコントロールを表示し、第2の編集可能パラメータを調整する調整可能なコントロールを表示している間に、かつ第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出し、第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出したことに応じて、第2のジェスチャに従って第2の編集可能パラメータの現在値を調整する、命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. The temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device having a display device, the one or more programs displaying, on the display device, a media editing user interface, the media editing user interface including a representation of visual media, a first affordance corresponding to a first editable parameter for editing the representation of the visual media, and a second affordance corresponding to a second editable parameter for editing the representation of the visual media, detecting a first user input corresponding to a selection of the first affordance while displaying the media editing user interface, displaying, on the display device, adjustable controls for adjusting the first editable parameter at respective positions within the media editing user interface in response to detecting the first user input corresponding to the selection of the first affordance, detecting a first gesture directed toward the adjustable control for adjusting the first editable parameter while displaying the adjustable control for adjusting the first editable parameter and while the first editable parameter is selected, and detecting a second gesture directed toward the adjustable control for adjusting the first editable parameter while displaying the adjustable control for adjusting the first editable parameter. The method includes instructions for adjusting a current value of the first editable parameter in accordance with the first gesture in response to detecting a first gesture directed toward an adjustable control for adjusting the first editable parameter while the first editable parameter is selected; detecting a second user input corresponding to a selection of a second affordance while displaying the adjustable control for adjusting the first editable parameter on the display device; displaying an adjustable control for adjusting the second editable parameter at a respective location within the media editing user interface in response to detecting the second user input corresponding to the selection of the second affordance; detecting a second gesture directed toward the adjustable control for adjusting the second editable parameter while displaying the adjustable control for adjusting the second editable parameter and while the second editable parameter is selected; and adjusting a current value of the second editable parameter in accordance with the second gesture in response to detecting a second gesture directed toward the adjustable control for adjusting the second editable parameter while the second editable parameter is selected.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイス上に、メディア編集ユーザインタフェースを表示することであって、メディア編集ユーザインタフェースは、視覚メディアの表現と、視覚メディアの表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、視覚メディアの表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、を含む、メディア編集ユーザインタフェースを表示することと、メディア編集ユーザインタフェースを表示している間に、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出することと、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出したことに応じて、表示デバイス上に、メディア編集ユーザインタフェース内のそれぞれの位置に、第1の編集可能パラメータを調整する調整可能なコントロールを表示することと、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、かつ第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出することと、第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出したことに応じて、第1のジェスチャに従って第1の編集可能パラメータの現在値を調整することと、表示デバイス上に、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出することと、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出したことに応じて、メディア編集ユーザインタフェース内のそれぞれの位置に、第2の編集可能パラメータを調整する調整可能なコントロールを表示することと、第2の編集可能パラメータを調整する調整可能なコントロールを表示している間に、かつ第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出することと、第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出したことに応じて、第2のジェスチャに従って第2の編集可能パラメータの現在値を調整することと、を含む。 According to some embodiments, an electronic device is described that includes: displaying, on a display device, a media editing user interface, the media editing user interface including a representation of a visual media, a first affordance corresponding to a first editable parameter for editing the representation of the visual media, and a second affordance corresponding to a second editable parameter for editing the representation of the visual media; detecting, while displaying the media editing user interface, a first user input corresponding to a selection of the first affordance; in response to detecting the first user input corresponding to a selection of the first affordance, displaying, on the display device, an adjustable control for adjusting the first editable parameter at a respective location within the media editing user interface; detecting, while displaying the adjustable control for adjusting the first editable parameter and while the first editable parameter is selected, a first gesture directed toward the adjustable control for adjusting the first editable parameter; and detecting, while the first editable parameter is selected, a first gesture directed toward the adjustable control for adjusting the first editable parameter. In response to detecting a first gesture directed toward an adjustable control for adjusting the first editable parameter, adjusting a current value of the first editable parameter in accordance with the first gesture; detecting a second user input corresponding to a selection of a second affordance while displaying the adjustable control for adjusting the first editable parameter on the display device; in response to detecting the second user input corresponding to a selection of the second affordance, displaying an adjustable control for adjusting the second editable parameter at a respective location within the media editing user interface; detecting a second gesture directed toward the adjustable control for adjusting the second editable parameter while displaying the adjustable control for adjusting the second editable parameter and while the second editable parameter is selected; and in response to detecting the second gesture directed toward the adjustable control for adjusting the second editable parameter while the second editable parameter is selected, adjusting a current value of the second editable parameter in accordance with the second gesture.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、表示デバイス上に、メディア編集ユーザインタフェースを表示する手段であって、メディア編集ユーザインタフェースは、視覚メディアの表現と、視覚メディアの表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、視覚メディアの表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、を含む、メディア編集ユーザインタフェースを表示する手段と、メディア編集ユーザインタフェースを表示している間に、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出する手段と、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出したことに応じて、表示デバイス上に、メディア編集ユーザインタフェース内のそれぞれの位置に、第1の編集可能パラメータを調整する調整可能なコントロールを表示する手段と、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、かつ第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出する手段と、第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出したことに応じて、第1のジェスチャに従って第1の編集可能パラメータの現在値を調整する手段と、表示デバイス上に、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出する手段と、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出したことに応じて、メディア編集ユーザインタフェース内のそれぞれの位置に、第2の編集可能パラメータを調整する調整可能なコントロールを表示する手段と、第2の編集可能パラメータを調整する調整可能なコントロールを表示している間に、かつ第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出する手段と、第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出したことに応じて、第2のジェスチャに従って第2の編集可能パラメータの現在値を調整する手段と、を備える。 According to some embodiments, an electronic device is described. The electronic device includes a display device; and means for displaying, on the display device, a media editing user interface, the media editing user interface including a representation of a visual media, a first affordance corresponding to a first editable parameter for editing the representation of the visual media, and a second affordance corresponding to a second editable parameter for editing the representation of the visual media; means for detecting, while displaying the media editing user interface, a first user input corresponding to a selection of the first affordance; and means for displaying, on the display device, an adjustable control for adjusting the first editable parameter at a respective location within the media editing user interface in response to detecting the first user input corresponding to a selection of the first affordance; and means for detecting, while displaying the adjustable control for adjusting the first editable parameter and while the first editable parameter is selected, a first gesture directed toward the adjustable control for adjusting the first editable parameter; and means for detecting, while the first editable parameter is selected, a first gesture directed toward the adjustable control for adjusting the first editable parameter. The present invention includes a means for adjusting a current value of the first editable parameter in accordance with the first gesture in response to detecting a first gesture directed to an adjustable control for adjusting the first editable parameter; a means for detecting a second user input corresponding to a selection of a second affordance while displaying the adjustable control for adjusting the first editable parameter on the display device; a means for displaying an adjustable control for adjusting the second editable parameter at a respective position within the media editing user interface in response to detecting the second user input corresponding to the selection of the second affordance; a means for detecting a second gesture directed to the adjustable control for adjusting the second editable parameter while displaying the adjustable control for adjusting the second editable parameter and while the second editable parameter is selected; and a means for adjusting a current value of the second editable parameter in accordance with the second gesture in response to detecting a second gesture directed to the adjustable control for adjusting the second editable parameter while the second editable parameter is selected.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイスを有する電子デバイスにおいて実行される。この方法は、表示デバイス上に、第1のユーザインタフェースを表示することであって、第1の視覚メディアの第1の表現と、第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、を同時に表示することを含む、第1のユーザインタフェースを表示することと、表示デバイス上に、第1のユーザインタフェースを表示している間に、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出することと、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出したことに応じて、表示デバイス上に、ジェスチャの大きさに基づいて選択された遠近歪に対するそれぞれの調整量で第1の視覚メディアの第2の表現を表示することと、を含む。 According to some embodiments, a method is described. The method is performed on an electronic device having a display device. The method includes displaying, on the display device, a first user interface including simultaneously displaying a first representation of the first visual media and an adjustable control including an indication of a current adjustment to a perspective distortion of the first visual media; detecting, while displaying the first user interface on the display device, user input including a gesture directed at the adjustable control; and, in response to detecting the user input including the gesture directed at the adjustable control, displaying, on the display device, a second representation of the first visual media with a respective adjustment to the perspective distortion selected based on a magnitude of the gesture.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイス上に、第1のユーザインタフェースを表示し、第1の視覚メディアの第1の表現と、第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、を同時に表示することを含み、表示デバイス上に、第1のユーザインタフェースを表示している間に、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出し、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出したことに応じて、表示デバイス上に、ジェスチャの大きさに基づいて選択された遠近歪に対するそれぞれの調整量で第1の視覚メディアの第2の表現を表示する、命令を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device having a display device, the one or more programs including instructions for displaying, on the display device, a first user interface, simultaneously displaying a first representation of the first visual media and an adjustable control including an indication of a current amount of adjustment to a perspective distortion of the first visual media, detecting, on the display device, a user input including a gesture directed at the adjustable control while displaying the first user interface, and, in response to detecting the user input including the gesture directed at the adjustable control, displaying, on the display device, a second representation of the first visual media with a respective amount of adjustment to the perspective distortion selected based on a magnitude of the gesture.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイス上に、第1のユーザインタフェースを表示し、第1の視覚メディアの第1の表現と、第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、を同時に表示することを含み、表示デバイス上に、第1のユーザインタフェースを表示している間に、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出し、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出したことに応じて、表示デバイス上に、ジェスチャの大きさに基づいて選択された遠近歪に対するそれぞれの調整量で第1の視覚メディアの第2の表現を表示する、命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. The temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device having a display device, the one or more programs including instructions for displaying, on the display device, a first user interface, simultaneously displaying a first representation of the first visual media and an adjustable control including an indication of a current amount of adjustment to a perspective distortion of the first visual media, detecting, on the display device, a user input including a gesture directed at the adjustable control while displaying the first user interface, and, in response to detecting the user input including the gesture directed at the adjustable control, displaying, on the display device, a second representation of the first visual media with a respective amount of adjustment to the perspective distortion selected based on a magnitude of the gesture.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、表示デバイス上に、第1のユーザインタフェースを表示し、第1の視覚メディアの第1の表現と、第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、を同時に表示することを含み、表示デバイス上に、第1のユーザインタフェースを表示している間に、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出し、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出したことに応じて、表示デバイス上に、ジェスチャの大きさに基づいて選択された遠近歪に対するそれぞれの調整量で第1の視覚メディアの第2の表現を表示する、命令を含む。 According to some embodiments, an electronic device is described. The electronic device includes a display device, one or more processors, and a memory storing one or more programs configured to be executed by the one or more processors, the one or more programs including instructions for displaying, on the display device, a first user interface, simultaneously displaying a first representation of the first visual media and an adjustable control including an indication of a current adjustment to a perspective distortion of the first visual media, detecting, on the display device, a user input including a gesture directed at the adjustable control while displaying the first user interface, and, in response to detecting the user input including the gesture directed at the adjustable control, displaying, on the display device, a second representation of the first visual media with a respective adjustment to the perspective distortion selected based on a magnitude of the gesture.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、表示デバイス上に、第1のユーザインタフェースを表示する手段であって、第1の視覚メディアの第1の表現と、第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、を同時に表示することを含む、第1のユーザインタフェースを表示する手段と、表示デバイス上に、第1のユーザインタフェースを表示している間に、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出する手段と、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出したことに応じて、表示デバイス上に、ジェスチャの大きさに基づいて選択された遠近歪に対するそれぞれの調整量で第1の視覚メディアの第2の表現を表示する手段と、を備える。 According to some embodiments, an electronic device is described that includes a display device; means for displaying a first user interface on the display device, the first user interface including simultaneously displaying a first representation of the first visual media and an adjustable control including an indication of a current adjustment to a perspective distortion of the first visual media; means for detecting user input including a gesture directed at the adjustable control while displaying the first user interface on the display device; and means for displaying a second representation of the first visual media on the display device with a respective adjustment to the perspective distortion selected based on a magnitude of the gesture, in response to detecting user input including a gesture directed at the adjustable control.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイスを有する電子デバイスにおいて実行される。この方法は、表示デバイスを介して、メディアキャプチャユーザインタフェースを表示することであって、1つ以上のカメラの視野の表現を表示することを含む、メディアキャプチャユーザインタフェースを表示することと、低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することであって、1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイスを構成することと、1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、コントロールが第1のキャプチャ持続時間よりも長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイスを構成することと、を含む、キャプチャ持続時間を調整するコントロールを表示することと、を含む。 According to some embodiments, a method is described. The method is performed in an electronic device having a display device. The method includes displaying, via the display device, a media capture user interface, the media capture user interface including displaying a representation of a field of view of one or more cameras; displaying a control for adjusting a capture duration for capturing media while a low light camera mode is active, the control including displaying an indication that the control is set to a first capture duration in accordance with a determination that a first set of capture duration criteria is met; configuring the electronic device to capture a first plurality of images for the first capture duration in response to a single request to capture images corresponding to the field of view of one or more cameras; displaying an indication that the control is set to a second capture duration longer than the first capture duration in accordance with a determination that a second set of capture duration criteria different from the first set of capture duration criteria is met; and configuring the electronic device to capture a second plurality of images for the second capture duration in response to a single request to capture images corresponding to the field of view of one or more cameras.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、1つ以上のプログラムは、1つ以上のカメラの視野の表現を表示することを含む、表示デバイスを介して、メディアキャプチャユーザインタフェースを表示し、低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示する命令を含み、コントロールを表示することは、1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイスを構成することと、1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、コントロールが第1のキャプチャ持続時間よりも長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイスを構成することと、を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device having a display device, the one or more programs including instructions for displaying a media capture user interface via the display device, including displaying a representation of a field of view of one or more cameras, and displaying a control for adjusting a capture duration for capturing media while a low-light camera mode is active, the displaying of the control including displaying an indication that the control is set to a first capture duration in response to a determination that a first set of capture duration criteria is met; configuring the electronic device to capture a first plurality of images for the first capture duration in response to a single request to capture images corresponding to the field of view of the one or more cameras; displaying an indication that the control is set to a second capture duration longer than the first capture duration in response to a determination that a second set of capture duration criteria different from the first set of capture duration criteria is met; and configuring the electronic device to capture a second plurality of images for the second capture duration in response to a single request to capture images corresponding to the field of view of the one or more cameras.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、1つ以上のプログラムは、1つ以上のカメラの視野の表現を表示することを含む、表示デバイスを介して、メディアキャプチャユーザインタフェースを表示し、低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示する命令を含み、コントロールを表示することは、1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイスを構成することと、1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、コントロールが第1のキャプチャ持続時間よりも長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイスを構成することと、を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device having a display device, the one or more programs including instructions for displaying a media capture user interface via the display device, including displaying a representation of a field of view of one or more cameras, and displaying a control for adjusting a capture duration for capturing media while a low-light camera mode is active, the displaying of the control including displaying an indication that the control is set to a first capture duration in accordance with a determination that a first set of capture duration criteria is met, configuring the electronic device to capture a first plurality of images for the first capture duration in response to a single request to capture images corresponding to the field of view of the one or more cameras, displaying an indication that the control is set to a second capture duration longer than the first capture duration in response to a determination that a second set of capture duration criteria different from the first set of capture duration criteria is met, and configuring the electronic device to capture a second plurality of images for the second capture duration in response to a single request to capture images corresponding to the field of view of the one or more cameras.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムは、1つ以上のカメラの視野の表現を表示することを含む、表示デバイスを介して、メディアキャプチャユーザインタフェースを表示し、低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示する命令を含み、コントロールを表示することは、1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイスを構成することと、1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、コントロールが第1のキャプチャ持続時間よりも長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイスを構成することと、を含む。 According to some embodiments, an electronic device is described. The electronic device includes one or more processors and a memory storing one or more programs configured to be executed by the one or more processors, the one or more programs including instructions for displaying a media capture user interface via a display device, the one or more programs including displaying a representation of a field of view of one or more cameras, and displaying a control for adjusting a capture duration for capturing media while a low light camera mode is active, the displaying the control including displaying an indication that the control is set to a first capture duration in accordance with a determination that a first set of capture duration criteria is met, configuring the electronic device to capture a first plurality of images for the first capture duration in response to a single request to capture images corresponding to the field of view of the one or more cameras, displaying an indication that the control is set to a second capture duration longer than the first capture duration in accordance with a determination that a second set of capture duration criteria different from the first set of capture duration criteria is met, and configuring the electronic device to capture a second plurality of images for the second capture duration in response to a single request to capture images corresponding to the field of view of the one or more cameras.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、表示デバイスを介して、メディアキャプチャユーザインタフェースを表示する手段であって、1つ以上のカメラの視野の表現を表示することを含む、メディアキャプチャユーザインタフェースを表示する手段と、低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示する手段であって、1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイスを構成することと、1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、コントロールが第1のキャプチャ持続時間よりも長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイスを構成することと、を含む、キャプチャ持続時間を調整するコントロールを表示する手段と、を含む。 According to some embodiments, an electronic device is described. The electronic device includes a display device, and means for displaying a media capture user interface via the display device, the media capture user interface including displaying a representation of a field of view of one or more cameras, and means for displaying a control for adjusting a capture duration for capturing media while a low light camera mode is active, the control including displaying an indication that the control is set to a first capture duration in accordance with a determination that a first set of capture duration criteria is met, configuring the electronic device to capture a first plurality of images for the first capture duration in response to a single request to capture images corresponding to the field of view of one or more cameras, displaying an indication that the control is set to a second capture duration longer than the first capture duration in accordance with a determination that a second set of capture duration criteria different from the first set of capture duration criteria is met, and configuring the electronic device to capture a second plurality of images for the second capture duration in response to a single request to capture images corresponding to the field of view of one or more cameras.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて実行される。この方法は、表示デバイスを介して、1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示することと、表示デバイスを介して、メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信することと、メディアをキャプチャする要求を受信したことに応じて、1つ以上のカメラを介して、メディアのキャプチャを開始することと、1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、低光モードがアクティブであるときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、表示デバイスを介して、メディアのキャプチャが開始されたときの電子デバイスのポーズと、メディアのキャプチャを開始した後の第1の時間における電子デバイスのポーズとの間の差の視覚インジケーションを表示することと、を含む。 According to some embodiments, a method is described. The method is performed on an electronic device having a display device and one or more cameras. The method includes displaying, via the display device, a media capture user interface including a representation of a field of view of the one or more cameras; receiving, while displaying, via the display device, a request to capture media; in response to receiving the request to capture media, initiating capture of media via the one or more cameras; and, in accordance with a determination that a set of guidance criteria is met at a first time after initiating capture of media via the one or more cameras, the set of guidance criteria including criteria that are met when a low light mode is active, displaying, via the display device, a visual indication of a difference between a pose of the electronic device when capture of media is initiated and a pose of the electronic device at a first time after initiating capture of media.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示し、表示デバイスを介して、メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信し、メディアをキャプチャする要求を受信したことに応じて、1つ以上のカメラを介して、メディアのキャプチャを開始し、1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、低光モードがアクティブであるときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、表示デバイスを介して、メディアのキャプチャが開始されたときの電子デバイスのポーズと、メディアのキャプチャを開始した後の第1の時間における電子デバイスのポーズとの間の差の視覚インジケーションを表示する、命令を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device having a display device, the one or more programs including instructions for displaying, via the display device, a media capture user interface including a representation of a field of view of one or more cameras; receiving, while displaying, via the display device, a request to capture media; in response to receiving the request to capture media, initiating capture of media via the one or more cameras; and, pursuant to a determination that a set of guidance criteria is met at a first time after initiating capture of media via the one or more cameras, including criteria that are met when a low light mode is active, displaying, via the display device, a visual indication of a difference between a pose of the electronic device when capture of media was initiated and a pose of the electronic device at a first time after initiating capture of media.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示し、表示デバイスを介して、メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信するし、メディアをキャプチャする要求を受信したことに応じて、1つ以上のカメラを介して、メディアのキャプチャを開始し、1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、低光モードがアクティブであるときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、表示デバイスを介して、メディアのキャプチャが開始されたときの電子デバイスのポーズと、メディアのキャプチャを開始した後の第1の時間における電子デバイスのポーズとの間の差の視覚インジケーションを表示する、命令を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device having a display device, the one or more programs including instructions for displaying, via the display device, a media capture user interface including a representation of a field of view of one or more cameras, receiving, while displaying, via the display device, a request to capture media, in response to receiving the request to capture media, initiating capture of media via the one or more cameras, and displaying, via the display device, a visual indication of a difference between a pose of the electronic device when capture of media was initiated and a pose of the electronic device at a first time after initiating capture of media in accordance with a determination that a set of guidance criteria is satisfied, the set of guidance criteria including criteria satisfied when a low light mode is active, at a first time after initiating capture of media via the one or more cameras.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、表示デバイスを介して、1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示し、表示デバイスを介して、メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信し、メディアをキャプチャする要求を受信したことに応じて、1つ以上のカメラを介して、メディアのキャプチャを開始し、1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、低光モードがアクティブであるときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、表示デバイスを介して、メディアのキャプチャが開始されたときの電子デバイスのポーズと、メディアのキャプチャを開始した後の第1の時間における電子デバイスのポーズとの間の差の視覚インジケーションを表示する、命令を含む。 According to some embodiments, an electronic device is described. The electronic device includes a display device, one or more processors, and a memory that stores one or more programs configured to be executed by the one or more processors, the one or more programs including instructions for displaying, via the display device, a media capture user interface including a representation of a field of view of one or more cameras, receiving, while displaying, via the display device, a request to capture media, in response to receiving the request to capture media, initiating capture of media via the one or more cameras, and displaying, via the display device, a visual indication of a difference between a pose of the electronic device when capture of media was initiated and a pose of the electronic device at a first time after initiating capture of media in accordance with a determination that a set of guidance criteria is satisfied, the set of guidance criteria including criteria satisfied when a low light mode is active, at a first time after initiating capture of media via the one or more cameras.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、表示デバイスを介して、1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示する手段と、表示デバイスを介して、メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信する手段と、メディアをキャプチャする要求を受信したことに応じて、1つ以上のカメラを介して、メディアのキャプチャを開始する手段と、1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、低光モードがアクティブであるときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、表示デバイスを介して、メディアのキャプチャが開始されたときの電子デバイスのポーズと、メディアのキャプチャを開始した後の第1の時間における電子デバイスのポーズとの間の差の視覚インジケーションを表示する手段と、を含む。 According to some embodiments, an electronic device is described that includes a display device, means for displaying, via the display device, a media capture user interface including a representation of a field of view of one or more cameras, means for receiving, while displaying, via the display device, a request to capture media, means for initiating capture of media via the one or more cameras in response to receiving the request to capture media, and means for displaying, via the display device, a visual indication of a difference between a pose of the electronic device when capture of media was initiated and a pose of the electronic device at a first time after initiating capture of media pursuant to a determination that a set of guidance criteria is satisfied at a first time after initiating capture of media via the one or more cameras, the set of guidance criteria including criteria satisfied when a low light mode is active.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて実行される。この方法は、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースは、1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、第1の領域の外側にあり、第1の領域と視覚的に区別される第2の領域と、を含み、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第1の距離であるときに満たされる基準を含む、1組の第1のそれぞれの基準が満たされているとの判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することと、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第2の距離であるときに満たされる基準を含む、1組の第2のそれぞれの基準が満たされているとの判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することをやめることと、を含む、カメラユーザインタフェースを表示することを含む。 According to some embodiments, a method is described. The method is performed in an electronic device having a display device and one or more cameras. The method includes displaying a camera user interface via the display device, the camera user interface including a first region including a first representation of a first portion of a field of view of the one or more cameras and a second region outside the first region and visually distinct from the first region, the camera user interface including displaying the second portion of the field of view of the one or more cameras in a first visual appearance in the second region in accordance with a determination that a first set of respective criteria is satisfied, the criteria including criteria that are satisfied when a first respective object in the field of view of the one or more cameras is a first distance from the one or more cameras, and ceasing to display the second portion of the field of view of the one or more cameras in the first visual appearance in the second region in accordance with a determination that a second set of respective criteria is satisfied, the criteria including criteria that are satisfied when a first respective object in the field of view of the one or more cameras is a second distance from the one or more cameras.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースであって、カメラユーザインタフェースは、1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、第1の領域の外側にあり、第1の領域と視覚的に区別される第2の領域とを含み、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第1の距離であるときに満たされる基準を含む、1組の第1のそれぞれの基準が満たされているとの判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することと、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第2の距離であるときに満たされる基準を含む、1組の第2のそれぞれの基準が満たされているとの判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することをやめることと、を含む、カメラユーザインタフェースを表示する命令を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device having a display device, the one or more programs including instructions for displaying, via the display device, a camera user interface, the camera user interface including a first region including a first representation of a first portion of a field of view of one or more cameras and a second region outside the first region and visually distinct from the first region, the camera user interface including displaying the second portion of the field of view of the one or more cameras in a first visual appearance in the second region in accordance with a determination that a first set of respective criteria is satisfied, the criteria including criteria that are satisfied when a first respective object in the field of view of the one or more cameras is a first distance from the one or more cameras, and ceasing to display the second portion of the field of view of the one or more cameras in a first visual appearance in the second region in accordance with a determination that a second set of respective criteria is satisfied, the criteria including criteria that are satisfied when a first respective object in the field of view of the one or more cameras is a second distance from the one or more cameras.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースであって、カメラユーザインタフェースは、1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、第1の領域の外側にあり、第1の領域と視覚的に区別される第2の領域と、を含み、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第1の距離であるときに満たされる基準を含む、1組の第1のそれぞれの基準が満たされているとの判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することと、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第2の距離であるときに満たされる基準を含む、1組の第2のそれぞれの基準が満たされているとの判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することをやめることと、を含む、カメラユーザインタフェースを表示する命令を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device having a display device, the one or more programs including instructions for displaying, via the display device, a camera user interface, the camera user interface including a first region including a first representation of a first portion of a field of view of one or more cameras and a second region outside the first region and visually distinct from the first region, the camera user interface including displaying the second portion of the field of view of the one or more cameras in a first visual appearance in the second region in accordance with a determination that a first set of respective criteria is satisfied, the criteria including criteria that are satisfied when a first respective object in the field of view of the one or more cameras is a first distance from the one or more cameras, and ceasing to display the second portion of the field of view of the one or more cameras in a first visual appearance in the second region in accordance with a determination that a second set of respective criteria is satisfied, the criteria including criteria that are satisfied when a first respective object in the field of view of the one or more cameras is a second distance from the one or more cameras.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースであって、カメラユーザインタフェースは、1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、第1の領域の外側にあり、第1の領域と視覚的に区別される第2の領域と、を含み、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第1の距離であるときに満たされる基準を含む、1組の第1のそれぞれの基準が満たされているとの判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することと、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第2の距離であるときに満たされる基準を含む、1組の第2のそれぞれの基準が満たされているとの判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することをやめることと、を含む、カメラユーザインタフェースを表示する命令を含む。 According to some embodiments, an electronic device is described. The electronic device includes a display device, one or more processors, and a memory that stores one or more programs configured to be executed by the one or more processors, the one or more programs including instructions for displaying, via the display device, a camera user interface, the camera user interface including a first region including a first representation of a first portion of a field of view of one or more cameras, and a second region outside the first region and visually distinct from the first region, the camera user interface including displaying the second portion of the field of view of the one or more cameras in a first visual appearance in the second region in accordance with a determination that a first set of respective criteria is satisfied, the criteria including criteria that are satisfied when a first respective object in the field of view of the one or more cameras is a first distance from the one or more cameras, and ceasing to display the second portion of the field of view of the one or more cameras in a first visual appearance in the second region in accordance with a determination that a second set of respective criteria is satisfied, the criteria including criteria that are satisfied when a first respective object in the field of view of the one or more cameras is a second distance from the one or more cameras.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、カメラユーザインタフェースは、1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、第1の領域の外側にあり、第1の領域と視覚的に区別される第2の領域と、を含み、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第1の距離であるときに満たされる基準を含む、1組の第1のそれぞれの基準が満たされているとの判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することと、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第2の距離であるときに満たされる基準を含む、1組の第2のそれぞれの基準が満たされているとの判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することをやめることと、を含む、カメラユーザインタフェースを表示する手段と、を含む。 According to some embodiments, an electronic device is described. The electronic device includes a display device, one or more cameras, and means for displaying a camera user interface via the display device, the camera user interface including a first region including a first representation of a first portion of a field of view of the one or more cameras and a second region outside the first region and visually distinct from the first region, the means for displaying the camera user interface including displaying the second portion of the field of view of the one or more cameras in a first visual appearance in the second region in accordance with a determination that a first set of respective criteria is satisfied, the criteria including criteria that are satisfied when a first respective object in the field of view of the one or more cameras is a first distance from the one or more cameras, and ceasing to display the second portion of the field of view of the one or more cameras in a first visual appearance in the second region in accordance with a determination that a second set of respective criteria is satisfied, the criteria including criteria that are satisfied when a first respective object in the field of view of the one or more cameras is a second distance from the one or more cameras.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイスと、視野を有する第1のカメラと、第1のカメラの視野よりも広い視野を有する第2のカメラとを有する電子デバイスにおいて実行される。この方法は、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示することであって、カメラユーザインタフェースは、第1のズームレベルでの第1のカメラの視野の第1の部分の表現を含む第1の領域と、第1のズームレベルでの第2のカメラの視野の第1の部分の表現を含む第2の領域と、を含む、カメラユーザインタフェースを表示することを含む。この方法は、また、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示している間に、1つ以上のカメラの視野の一部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信することと、1つ以上のカメラの視野の一部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信したことに応じて、第1の領域において、第2のズームレベルで、第1のカメラの視野の第1の部分の少なくともサブセットを除外する第1のカメラの視野の第2の部分の表現を表示することと、第2の領域において、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットの表現を表示することなく、第2の領域において、第2のズームレベルで、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットと重なり合う第2のカメラの視野の第2の部分の表現を表示することと、を含む。 According to some embodiments, a method is described. The method is performed on an electronic device having a display device, a first camera having a field of view, and a second camera having a field of view wider than the field of view of the first camera. The method includes displaying, via the display device, a camera user interface including a representation of at least a portion of the field of view of one or more cameras displayed at a first zoom level, the camera user interface including a first region including a representation of a first portion of the field of view of the first camera at the first zoom level and a second region including a representation of the first portion of the field of view of the second camera at the first zoom level. The method also includes receiving, via the display device, a first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to a second zoom level while displaying a camera user interface including a representation of at least a portion of the field of view of the one or more cameras displayed at a first zoom level; and, in response to receiving the first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to the second zoom level, displaying, in the first region, a representation of a second portion of the field of view of the first camera at the second zoom level that excludes at least a subset of the first portion of the field of view of the first camera; and displaying, in the second region, a representation of a second portion of the field of view of the second camera that overlaps with the subset of the portion of the field of view of the first camera that is excluded from the second portion of the field of view of the first camera at the second zoom level without displaying, in the second region, a representation of the subset of the portion of the field of view of the first camera that is excluded from the second portion of the field of view of the first camera.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイスと、視野を有する第1のカメラと、第1のカメラの視野よりも広い視野を有する第2のカメラと、を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示し、カメラユーザインタフェースは、第1のズームレベルでの第1のカメラの視野の第1の部分の表現を含む第1の領域と、第1のズームレベルでの第2のカメラの視野の第1の部分の表現を含む第2の領域と、を含む、命令を含む。非一時的コンピュータ可読記憶媒体は、また、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示している間に、1つ以上のカメラの視野の一部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信することと、1つ以上のカメラの視野の一部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信したことに応じて、第1の領域において、第2のズームレベルで、第1のカメラの視野の第1の部分の少なくともサブセットを除外する第1のカメラの視野の第2の部分の表現を表示することと、第2の領域において、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットの表現を表示することなく、第2の領域において、第2のズームレベルで、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットと重なり合う第2のカメラの視野の第2の部分の表現を表示することと、を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device including a display device, a first camera having a field of view, and a second camera having a field of view wider than the field of view of the first camera, the one or more programs displaying, via the display device, a camera user interface including a representation of at least a portion of the field of view of the one or more cameras displayed at a first zoom level, the camera user interface including a first region including a representation of a first portion of the field of view of the first camera at the first zoom level, and a second region including a representation of the first portion of the field of view of the second camera at the first zoom level. The non-transitory computer-readable storage medium also includes receiving, via the display device, a first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to a second zoom level while displaying a camera user interface including a representation of at least a portion of the field of view of the one or more cameras displayed at a first zoom level; and, in response to receiving the first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to the second zoom level, displaying, in the first region, a representation of a second portion of the field of view of the first camera at the second zoom level that excludes at least a subset of the first portion of the field of view of the first camera; and displaying, in the second region, a representation of a second portion of the field of view of the second camera that overlaps with the subset of the portion of the field of view of the first camera that is excluded from the second portion of the field of view of the first camera at the second zoom level without displaying, in the second region, a representation of the subset of the portion of the field of view of the first camera that is excluded from the second portion of the field of view of the first camera.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイスと、視野を有する第1のカメラと、第1のカメラの視野よりも広い視野を有する第2のカメラと、を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示し、カメラユーザインタフェースは、第1のズームレベルでの第1のカメラの視野の第1の部分の表現を含む第1の領域と、第1のズームレベルでの第2のカメラの視野の第1の部分の表現を含む第2の領域と、を含む、命令を含む。非一時的コンピュータ可読記憶媒体は、また、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示している間に、1つ以上のカメラの視野の一部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信することと、1つ以上のカメラの視野の一部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信したことに応じて、第1の領域において、第2のズームレベルで、第1のカメラの視野の第1の部分の少なくともサブセットを除外する第1のカメラの視野の第2の部分の表現を表示することと、第2の領域において、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットの表現を表示することなく、第2の領域において、第2のズームレベルで、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットと重なり合う第2のカメラの視野の第2の部分の表現を表示することと、を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device including a display device, a first camera having a field of view, and a second camera having a field of view wider than the field of view of the first camera, the one or more programs displaying, via the display device, a camera user interface including a representation of at least a portion of the field of view of the one or more cameras displayed at a first zoom level, the camera user interface including a first region including a representation of a first portion of the field of view of the first camera at the first zoom level, and a second region including a representation of the first portion of the field of view of the second camera at the first zoom level. The non-transitory computer-readable storage medium also includes receiving, via the display device, a first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to a second zoom level while displaying a camera user interface including a representation of at least a portion of the field of view of the one or more cameras displayed at a first zoom level; and, in response to receiving the first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to the second zoom level, displaying, in the first region, a representation of a second portion of the field of view of the first camera at the second zoom level that excludes at least a subset of the first portion of the field of view of the first camera; and displaying, in the second region, a representation of a second portion of the field of view of the second camera that overlaps with the subset of the portion of the field of view of the first camera that is excluded from the second portion of the field of view of the first camera at the second zoom level without displaying, in the second region, a representation of the subset of the portion of the field of view of the first camera that is excluded from the second portion of the field of view of the first camera.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、視野を有する第1のカメラと、第1のカメラの視野よりも広い視野を有する第2のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムは、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示し、カメラユーザインタフェースは、第1のズームレベルでの第1のカメラの視野の第1の部分の表現を含む第1の領域と、第1のズームレベルでの第2のカメラの視野の第1の部分の表現を含む第2の領域と、を含む、命令を含む。この電子デバイスは、また、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示している間に、1つ以上のカメラの視野の一部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信することと、1つ以上のカメラの視野の一部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信したことに応じて、第1の領域において、第2のズームレベルで、第1のカメラの視野の第1の部分の少なくともサブセットを除外する第1のカメラの視野の第2の部分の表現を表示することと、第2の領域において、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットの表現を表示することなく、第2の領域において、第2のズームレベルで、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットと重なり合う第2のカメラの視野の第2の部分の表現を表示することと、を含む。 According to some embodiments, an electronic device is described. The electronic device includes a display device, a first camera having a field of view, a second camera having a field of view wider than the field of view of the first camera, one or more processors, and a memory storing one or more programs configured to be executed by the one or more processors, the one or more programs including instructions for displaying, via the display device, a camera user interface including a representation of at least a portion of the field of view of the one or more cameras displayed at a first zoom level, the camera user interface including a first region including a representation of a first portion of the field of view of the first camera at the first zoom level, and a second region including a representation of the first portion of the field of view of the second camera at the first zoom level. The electronic device also includes receiving, via the display device, a first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to a second zoom level while displaying the camera user interface including a representation of at least a portion of the field of view of the one or more cameras displayed at a first zoom level; and, in response to receiving the first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to the second zoom level, displaying, in the first region, a representation of a second portion of the field of view of the first camera at the second zoom level that excludes at least a subset of the first portion of the field of view of the first camera; and displaying, in the second region, a representation of a second portion of the field of view of the second camera that overlaps with the subset of the portion of the field of view of the first camera that is excluded from the second portion of the field of view of the first camera at the second zoom level without displaying, in the second region, a representation of the subset of the portion of the field of view of the first camera that is excluded from the second portion of the field of view of the first camera.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、視野を有する第1のカメラと、第1のカメラの視野よりも広い視野を有する第2のカメラと、1つ以上のカメラと、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示する手段であって、カメラユーザインタフェースは、第1のズームレベルでの第1のカメラの視野の第1の部分の表現を含む第1の領域と、第1のズームレベルでの第2のカメラの視野の第1の部分の表現を含む第2の領域と、を含む、カメラユーザインタフェースを表示する手段と、を含む。この電子デバイスは、また、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示している間に、1つ以上のカメラの視野の一部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信する手段と、1つ以上のカメラの視野の一部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信したことに応じて、第1の領域において、第2のズームレベルで、第1のカメラの視野の第1の部分の少なくともサブセットを除外する第1のカメラの視野の第2の部分の表現を表示し、第2の領域において、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットの表現を表示することなく、第2の領域において、第2のズームレベルで、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットと重なり合う第2のカメラの視野の第2の部分の表現を表示する、手段と、を含む。 According to some embodiments, an electronic device is described that includes a display device, a first camera having a field of view, a second camera having a field of view wider than the field of view of the first camera, and a means for displaying, via the display device, a camera user interface including a representation of at least a portion of the field of view of the one or more cameras displayed at a first zoom level, the camera user interface including a first region including a representation of a first portion of the field of view of the first camera at the first zoom level, and a second region including a representation of the first portion of the field of view of the second camera at the first zoom level. The electronic device also includes means for receiving, via the display device, a first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to a second zoom level while displaying a camera user interface including a representation of at least a portion of the field of view of the one or more cameras displayed at a first zoom level; and means for, in response to receiving the first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to the second zoom level, displaying, in the first region, a representation of a second portion of the field of view of the first camera at the second zoom level that excludes at least a subset of the first portion of the field of view of the first camera, and displaying, in the second region, a representation of a second portion of the field of view of the second camera that overlaps with the subset of the portion of the field of view of the first camera that is excluded from the second portion of the field of view of the first camera, without displaying, in the second region, a representation of the subset of the portion of the field of view of the first camera that is excluded from the second portion of the field of view of the first camera.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスで実行される。この方法は、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースを表示することであって、カメラユーザインタフェースは、複数のズームアフォーダンスを含み、複数のズームアフォーダンスは、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、カメラユーザインタフェースを表示することを含む。この方法は、また、複数のズームアフォーダンスを表示している間に、複数のズームアフォーダンスのうちの1つに向けられた第1のジェスチャを受信することと、第1のジェスチャを受信したことに応じて、第1のジェスチャが第1のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第2のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示することと、第1のジェスチャが第2のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第1のズームレベル及び第2のズームレベルとは異なる第3のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示することと、を含む。 According to some embodiments, a method is described. The method is performed on an electronic device having a display device and one or more cameras. The method includes displaying, via the display device, a camera user interface including a first representation of at least a portion of a field of view of the one or more cameras displayed at a first zoom level, the camera user interface including a plurality of zoom affordances, the plurality of zoom affordances including a first zoom affordance and a second zoom affordance. The method also includes, while displaying the plurality of zoom affordances, receiving a first gesture directed toward one of the plurality of zoom affordances; in response to receiving the first gesture, displaying a second representation of at least a portion of a field of view of the one or more cameras at a second zoom level in accordance with a determination that the first gesture is a gesture directed toward the first zoom affordance; and displaying a third representation of at least a portion of a field of view of the one or more cameras at a third zoom level different from the first zoom level and the second zoom level in accordance with a determination that the first gesture is a gesture directed toward the second zoom affordance.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースを表示し、カメラユーザインタフェースは、複数のズームアフォーダンスを含み、複数のズームアフォーダンスが、第1のズームアフォーダンス及び第2のズームアフォーダンスを含み、複数のズームアフォーダンスを表示している間に、複数のズームアフォーダンスのうちの1つに向けられた第1のジェスチャを受信し、第1のジェスチャを受信したことに応じて、第1のジェスチャが第1のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第2のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示し、第1のジェスチャが第2のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第1のズームレベル及び第2のズームレベルとは異なる第3のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示する、命令を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. A non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device having a display device and one or more cameras, the one or more programs displaying a camera user interface via the display device including a first representation of at least a portion of a field of view of the one or more cameras displayed at a first zoom level, the camera user interface including a plurality of zoom affordances, the plurality of zoom affordances including a first zoom affordance and a second zoom affordance, while displaying the plurality of zoom affordances, receiving a first gesture directed at one of the plurality of zoom affordances, and in response to receiving the first gesture, displaying a second representation of at least a portion of the field of view of the one or more cameras at a second zoom level in accordance with a determination that the first gesture is a gesture directed at the first zoom affordance, and displaying a third representation of at least a portion of the field of view of the one or more cameras at a third zoom level different from the first zoom level and the second zoom level in accordance with a determination that the first gesture is a gesture directed at the second zoom affordance.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースを表示し、カメラユーザインタフェースが、複数のズームアフォーダンスを含み、複数のズームアフォーダンスが、第1のズームアフォーダンス及び第2のズームアフォーダンスを含み、複数のズームアフォーダンスを表示している間に、複数のズームアフォーダンスのうちの1つに向けられた第1のジェスチャを受信し、第1のジェスチャを受信したことに応じて、第1のジェスチャが第1のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第2のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示し、第1のジェスチャが第2のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第1のズームレベル及び第2のズームレベルとは異なる第3のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示する、命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device having a display device and one or more cameras, the one or more programs including instructions for displaying a camera user interface via the display device, the camera user interface including a first representation of at least a portion of a field of view of the one or more cameras displayed at a first zoom level, the camera user interface including a plurality of zoom affordances, the plurality of zoom affordances including a first zoom affordance and a second zoom affordance, receiving a first gesture directed at one of the plurality of zoom affordances while displaying the plurality of zoom affordances, and in response to receiving the first gesture, displaying a second representation of at least a portion of the field of view of the one or more cameras at a second zoom level in accordance with a determination that the first gesture is a gesture directed at the first zoom affordance, and displaying a third representation of at least a portion of the field of view of the one or more cameras at a third zoom level different from the first zoom level and the second zoom level in accordance with a determination that the first gesture is a gesture directed at the second zoom affordance.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムは、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースを表示し、カメラユーザインタフェース、複数のズームアフォーダンスを含み、複数のズームアフォーダンスは、第1のズームアフォーダンス及び第2のズームアフォーダンスを含み、複数のズームアフォーダンスを表示している間に、複数のズームアフォーダンスのうちの1つに向けられた第1のジェスチャを受信し、第1のジェスチャを受信したことに応じて、第1のジェスチャが第1のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第2のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示し、第1のジェスチャが第2のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第1のズームレベル及び第2のズームレベルとは異なる第3のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示する、命令を含む。 According to some embodiments, an electronic device is described. The electronic device includes a display device, one or more cameras, one or more processors, and a memory that stores one or more programs configured to be executed by the one or more processors. The one or more programs include instructions for displaying a camera user interface via the display device, the camera user interface including a first representation of at least a portion of a field of view of the one or more cameras displayed at a first zoom level, the camera user interface including a plurality of zoom affordances, the plurality of zoom affordances including a first zoom affordance and a second zoom affordance, receiving a first gesture directed at one of the plurality of zoom affordances while displaying the plurality of zoom affordances, and in response to receiving the first gesture, displaying a second representation of at least a portion of the field of view of the one or more cameras at a second zoom level in accordance with a determination that the first gesture is a gesture directed at the first zoom affordance, and displaying a third representation of at least a portion of the field of view of the one or more cameras at a third zoom level different from the first zoom level and the second zoom level in accordance with a determination that the first gesture is a gesture directed at the second zoom affordance.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースを表示する手段であって、カメラユーザインタフェースは、複数のズームアフォーダンスを含み、複数のズームアフォーダンスは、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、カメラユーザインタフェースを表示する手段と、複数のズームアフォーダンスを表示している間に、複数のズームアフォーダンスのうちの1つに向けられた第1のジェスチャを受信する手段と、第1のジェスチャを受信したことに応じて、第1のジェスチャが第1のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第2のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示し、第1のジェスチャが第2のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第1のズームレベル及び第2のズームレベルとは異なる第3のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示する、手段と、を含む。 According to some embodiments, an electronic device is described. The electronic device includes a display device, one or more cameras, and means for displaying a camera user interface via the display device, the camera user interface including a first representation of at least a portion of a field of view of the one or more cameras displayed at a first zoom level, the camera user interface including a plurality of zoom affordances, the plurality of zoom affordances including a first zoom affordance and a second zoom affordance; means for receiving a first gesture directed at one of the plurality of zoom affordances while displaying the plurality of zoom affordances; and means for, in response to receiving the first gesture, displaying a second representation of at least a portion of a field of view of the one or more cameras at a second zoom level in accordance with a determination that the first gesture is a gesture directed at the first zoom affordance, and displaying a third representation of at least a portion of a field of view of the one or more cameras at a third zoom level different from the first zoom level and the second zoom level in accordance with a determination that the first gesture is a gesture directed at the second zoom affordance.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて実行される。この方法は、表示デバイスを介して、カメラユーザインタフェースを表示することを含み、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の位置に1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む。この方法は、また、1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示している間に、カメラユーザインタフェースに向けられた第1のジェスチャを検出することと、カメラユーザインタフェースに向けられた第1のジェスチャを検出したことに応じて、第1の位置に第1の1組のカメラ設定アフォーダンスを表示することであって、第1の1組のカメラ設定アフォーダンスは、第1のカメラモードの画像キャプチャを調整する設定である、第1の1組のカメラ設定アフォーダンスを表示することと、第1の位置にカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示することを停止することと、を含む。この方法は、また、第1の位置に第1の1組のカメラ設定アフォーダンスを表示している間に、かつ第1のカメラモードでメディアをキャプチャするように電子デバイスが構成されている間に、カメラユーザインタフェースに向けられた第2のジェスチャを受信することと、カメラユーザインタフェースに向けられた第2のジェスチャを受信したことに応じて、第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように電子デバイスを構成することと、第1の位置に1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示することなく、第1の位置に第2の1組のカメラ設定アフォーダンスを表示することと、を含む。 According to some embodiments, a method is described. The method is performed on an electronic device having a display device and one or more cameras. The method includes displaying a camera user interface via the display device, the camera user interface including a camera display area including a representation of a field of view of the one or more cameras and a camera control area including a first plurality of camera mode affordances indicating different operational modes of the one or more cameras at a first location. The method also includes detecting a first gesture directed at the camera user interface while displaying the first plurality of camera mode affordances indicating different operational modes of the one or more cameras, and in response to detecting the first gesture directed at the camera user interface, displaying a first set of camera setting affordances at the first location, the first set of camera setting affordances being settings for adjusting image capture of the first camera mode, and ceasing displaying the first plurality of camera mode affordances indicating different operational modes of the camera at the first location. The method also includes receiving a second gesture directed at the camera user interface while displaying the first set of camera settings affordances at the first location and while the electronic device is configured to capture media in the first camera mode; configuring the electronic device to capture media in a second camera mode different from the first camera mode in response to receiving the second gesture directed at the camera user interface; and displaying the second set of camera settings affordances at the first location without displaying the first plurality of camera mode affordances indicating different operational modes of the one or more cameras at the first location.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の位置に1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、命令を含む。非一時的コンピュータ可読記憶媒体は、また、1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示している間に、カメラユーザインタフェースに向けられた第1のジェスチャを検出することと、カメラユーザインタフェースに向けられた第1のジェスチャを検出したことに応じて、第1の位置に第1の1組のカメラ設定アフォーダンスを表示することであって、第1の1組のカメラ設定アフォーダンスは、第1のカメラモードの画像キャプチャを調整する設定である、第1の1組のカメラ設定アフォーダンスを表示することと、第1の位置にカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示することを停止することと、を含む。非一時的コンピュータ可読記憶媒体は、また、第1の位置に第1の1組のカメラ設定アフォーダンスを表示している間に、かつ第1のカメラモードでメディアをキャプチャするように電子デバイスが構成されている間に、カメラユーザインタフェースに向けられた第2のジェスチャを受信することと、カメラユーザインタフェースに向けられた第2のジェスチャを受信したことに応じて、第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように電子デバイスを構成することと、第1の位置に1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示することなく、第1の位置に第2の1組のカメラ設定アフォーダンスを表示することと、を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device having a display device and one or more cameras, the one or more programs including instructions for displaying, via the display device, a camera user interface, the camera user interface including a camera display area including a representation of a field of view of the one or more cameras, and a camera control area including a first plurality of camera mode affordances indicating different operational modes of the one or more cameras at a first position. The non-transitory computer-readable storage medium also includes detecting a first gesture directed toward the camera user interface while displaying a first plurality of camera mode affordances indicating different operational modes of the one or more cameras, and in response to detecting the first gesture directed toward the camera user interface, displaying a first set of camera settings affordances at a first location, the first set of camera settings affordances being settings that adjust image capture for the first camera mode, and ceasing displaying the first plurality of camera mode affordances indicating the different operational modes of the camera at the first location. The non-transitory computer-readable storage medium also includes receiving a second gesture directed at the camera user interface while displaying the first set of camera setting affordances at the first location and while the electronic device is configured to capture media in the first camera mode; configuring the electronic device to capture media in a second camera mode different from the first camera mode in response to receiving the second gesture directed at the camera user interface; and displaying the second set of camera setting affordances at the first location without displaying the first plurality of camera mode affordances indicating different operational modes of the one or more cameras at the first location.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の位置に1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、命令を含む。非一時的コンピュータ可読記憶媒体は、また、1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示している間に、カメラユーザインタフェースに向けられた第1のジェスチャを検出することと、カメラユーザインタフェースに向けられた第1のジェスチャを検出したことに応じて、第1の位置に第1の1組のカメラ設定アフォーダンスを表示することであって、第1の1組のカメラ設定アフォーダンスは、第1のカメラモードの画像キャプチャを調整する設定である、第1の1組のカメラ設定アフォーダンスを表示することと、第1の位置にカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示することを停止することと、を含む。非一時的コンピュータ可読記憶媒体は、また、第1の位置に第1の1組のカメラ設定アフォーダンスを表示している間に、かつ第1のカメラモードでメディアをキャプチャするように電子デバイスが構成されている間に、カメラユーザインタフェースに向けられた第2のジェスチャを受信することと、カメラユーザインタフェースに向けられた第2のジェスチャを受信したことに応じて、第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように電子デバイスを構成することと、第1の位置に1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示することなく、第1の位置に第2の1組のカメラ設定アフォーダンスを表示することと、を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device having a display device and one or more cameras, the one or more programs including instructions for displaying, via the display device, a camera user interface, the camera user interface including a camera display area including a representation of a field of view of the one or more cameras, and a camera control area including a first plurality of camera mode affordances indicating different operational modes of the one or more cameras at a first position. The non-transitory computer-readable storage medium also includes detecting a first gesture directed toward the camera user interface while displaying a first plurality of camera mode affordances indicating different operational modes of the one or more cameras, and in response to detecting the first gesture directed toward the camera user interface, displaying a first set of camera settings affordances at a first location, the first set of camera settings affordances being settings that adjust image capture for the first camera mode, and ceasing displaying the first plurality of camera mode affordances indicating the different operational modes of the camera at the first location. The non-transitory computer-readable storage medium also includes receiving a second gesture directed at the camera user interface while displaying the first set of camera setting affordances at the first location and while the electronic device is configured to capture media in the first camera mode; configuring the electronic device to capture media in a second camera mode different from the first camera mode in response to receiving the second gesture directed at the camera user interface; and displaying the second set of camera setting affordances at the first location without displaying the first plurality of camera mode affordances indicating different operational modes of the one or more cameras at the first location.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の位置に1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、命令を含む。この電子デバイスは、また、1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示している間に、カメラユーザインタフェースに向けられた第1のジェスチャを検出することと、カメラユーザインタフェースに向けられた第1のジェスチャを検出したことに応じて、第1の位置に第1の1組のカメラ設定アフォーダンスを表示することであって、第1の1組のカメラ設定アフォーダンスは、第1のカメラモードの画像キャプチャを調整する設定である、第1の1組のカメラ設定アフォーダンスを表示することと、第1の位置にカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示することを停止することと、を含む。この電子デバイスは、また、第1の位置に第1の1組のカメラ設定アフォーダンスを表示している間に、かつ第1のカメラモードでメディアをキャプチャするように電子デバイスが構成されている間に、カメラユーザインタフェースに向けられた第2のジェスチャを受信することと、カメラユーザインタフェースに向けられた第2のジェスチャを受信したことに応じて、第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように電子デバイスを構成することと、第1の位置に1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示することなく、第1の位置に第2の1組のカメラ設定アフォーダンスを表示することと、を含む。 According to some embodiments, an electronic device is described. The electronic device includes a display device, one or more cameras, one or more processors, and a memory that stores one or more programs configured to be executed by the one or more processors, the one or more programs including instructions for displaying, via the display device, a camera user interface, the camera user interface including a camera display area including a representation of a field of view of the one or more cameras, and a camera control area including a first plurality of camera mode affordances indicating different operational modes of the one or more cameras at a first position. The electronic device also includes detecting a first gesture directed toward the camera user interface while displaying a first plurality of camera mode affordances indicating different operational modes of the one or more cameras, and in response to detecting the first gesture directed toward the camera user interface, displaying a first set of camera settings affordances at a first location, the first set of camera settings affordances being settings that adjust image capture for the first camera mode, and ceasing displaying the first plurality of camera mode affordances indicating the different operational modes of the camera at the first location. The electronic device also includes receiving a second gesture directed at the camera user interface while displaying the first set of camera setting affordances at the first location and while the electronic device is configured to capture media in the first camera mode; configuring the electronic device to capture media in a second camera mode different from the first camera mode in response to receiving the second gesture directed at the camera user interface; and displaying the second set of camera setting affordances at the first location without displaying the first plurality of camera mode affordances indicating different operational modes of the one or more cameras at the first location.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の位置に1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示する手段を含む。この電子デバイスは、また、1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示している間に、カメラユーザインタフェースに向けられた第1のジェスチャを検出する手段と、カメラユーザインタフェースに向けられた第1のジェスチャを検出したことに応じて、第1の位置に第1の1組のカメラ設定アフォーダンスを表示し、第1の1組のカメラ設定アフォーダンスは、第1のカメラモードの画像キャプチャを調整する設定であり、第1の位置にカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示することを停止する、手段と、を含む。この電子デバイスは、また、第1の位置に第1の1組のカメラ設定アフォーダンスを表示している間に、かつ第1のカメラモードでメディアをキャプチャするように電子デバイスが構成されている間に、カメラユーザインタフェースに向けられた第2のジェスチャを受信する手段と、カメラユーザインタフェースに向けられた第2のジェスチャを受信したことに応じて、第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように電子デバイスを構成し、第1の位置に1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示することなく、第1の位置に第2の1組のカメラ設定アフォーダンスを表示する、手段と、を含む。 According to some embodiments, an electronic device is described. The electronic device includes a display device, one or more cameras, and means for displaying a camera user interface via the display device, the camera user interface including a camera display area including a representation of a field of view of the one or more cameras and a camera control area including a first plurality of camera mode affordances indicating different operational modes of the one or more cameras at a first location. The electronic device also includes means for detecting a first gesture directed at the camera user interface while displaying the first plurality of camera mode affordances indicating different operational modes of the one or more cameras, and means for displaying a first set of camera setting affordances at the first location in response to detecting the first gesture directed at the camera user interface, the first set of camera setting affordances being settings for adjusting image capture of the first camera mode, and ceasing to display the first plurality of camera mode affordances indicating different operational modes of the camera at the first location. The electronic device also includes means for receiving a second gesture directed at the camera user interface while displaying the first set of camera setting affordances at the first location and while the electronic device is configured to capture media in the first camera mode, and means for configuring the electronic device to capture media in a second camera mode different from the first camera mode in response to receiving the second gesture directed at the camera user interface and displaying the second set of camera setting affordances at the first location without displaying the first plurality of camera mode affordances indicating different operational modes of the one or more cameras at the first location.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを備える電子デバイスにおいて実行される。この方法は、1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び1つ以上のカメラの視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信することと、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応じて、自動メディア補正基準が満たされているとの判定に従って、表示デバイスを介して、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現を表示することと、自動メディア補正基準が満たされていないとの判定に従って、表示デバイスを介して、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現を表示することと、を含む。 According to some embodiments, a method is described. The method is executed on an electronic device that includes a display device and one or more cameras. The method includes receiving a request to display a representation of a previously captured media item that includes first content from a first portion of a field of view of the one or more cameras and second content from a second portion of the field of view of the one or more cameras; in response to receiving the request to display the representation of the previously captured media item, displaying, via the display device, a representation of the previously captured media item that includes a combination of the first content and the second content in accordance with a determination that the automatic media correction criteria are met; and, in accordance with a determination that the automatic media correction criteria are not met, displaying, via the display device, a representation of the previously captured media item that includes the first content and does not include the second content.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び1つ以上のカメラの視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信し、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応じて、自動メディア補正基準が満たされているとの判定に従って、表示デバイスを介して、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現を表示し、自動メディア補正基準が満たされていないとの判定に従って、表示デバイスを介して、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現を表示する、命令を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device including a display device and one or more cameras, the one or more programs including instructions for receiving a request to display a representation of a previously captured media item including a first content from a first portion of a field of view of the one or more cameras and a second content from a second portion of the field of view of the one or more cameras, displaying, via the display device, a representation of the previously captured media item including a combination of the first content and the second content in response to receiving the request to display the representation of the previously captured media item in accordance with a determination that an automatic media correction criterion is met, and displaying, via the display device, a representation of the previously captured media item including the first content and not including the second content in accordance with a determination that the automatic media correction criterion is not met.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び1つ以上のカメラの視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信し、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応じて、自動メディア補正基準が満たされているとの判定に従って、表示デバイスを介して、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現を表示し、自動メディア補正基準が満たされていないとの判定に従って、表示デバイスを介して、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現を表示する、命令を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device including a display device and one or more cameras, the one or more programs including instructions for receiving a request to display a representation of a previously captured media item including a first content from a first portion of a field of view of the one or more cameras and a second content from a second portion of the field of view of the one or more cameras, displaying, via the display device, a representation of the previously captured media item including a combination of the first content and the second content in response to receiving the request to display the representation of the previously captured media item in accordance with a determination that an automatic media correction criterion is met, and displaying, via the display device, a representation of the previously captured media item including the first content and not including the second content in accordance with a determination that the automatic media correction criterion is not met.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムは、1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び1つ以上のカメラの視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信し、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応じて、自動メディア補正基準が満たされているとの判定に従って、表示デバイスを介して、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現を表示し、自動メディア補正基準が満たされていないとの判定に従って、表示デバイスを介して、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現を表示する、命令を含む。 According to some embodiments, an electronic device is described. The electronic device includes a display device, one or more cameras, one or more processors, and a memory that stores one or more programs configured to be executed by the one or more processors, the one or more programs including instructions for receiving a request to display a representation of a previously captured media item that includes first content from a first portion of a field of view of the one or more cameras and second content from a second portion of the field of view of the one or more cameras, displaying, via the display device, a representation of the previously captured media item that includes a combination of the first content and the second content in response to receiving the request to display the representation of the previously captured media item in accordance with a determination that an automatic media correction criterion is met, and displaying, via the display device, a representation of the previously captured media item that includes the first content and does not include the second content in accordance with a determination that the automatic media correction criterion is not met.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、表示デバイスを介して、1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示する手段と、表示デバイスを介して、メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信する手段と、メディアをキャプチャする要求を受信したことに応じて、1つ以上のカメラを介して、メディアのキャプチャを開始する手段と、1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、電子デバイスの移動を検出する手段と、メディアのキャプチャを開始した後の第1の時間における電子デバイスの移動を検出したことに応じて、電子デバイスの検出された移動が移動閾値を上回るときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、表示デバイスを介して、メディアのキャプチャが開始されたときの電子デバイスのポーズと電子デバイスの現在のポーズとの間の1つ以上の差の視覚インジケーションを表示し、1組のガイダンス基準が満たされていない検出された移動との判定に従って、表示デバイスを介して、メディアのキャプチャが開始されたときの電子デバイスのポーズと電子デバイスの現在のポーズとの間の1つ以上の差の視覚インジケーションの表示をやめる、手段と、を含む。 According to some embodiments, an electronic device is described that includes a display device, one or more cameras, and means for displaying, via the display device, a media capture user interface including a representation of a field of view of the one or more cameras; means for receiving, while displaying, via the display device, a request to capture media; means for initiating, via the one or more cameras, media capture in response to receiving the request to capture media; means for detecting, via the one or more cameras, a movement of the electronic device at a first time after initiating media capture; and means for displaying, via the display device, a visual indication of one or more differences between a pose of the electronic device when media capture was initiated and a current pose of the electronic device in response to detecting, via the one or more cameras, a movement of the electronic device at a first time after initiating media capture in response to a determination that a set of guidance criteria is met, the set of guidance criteria including criteria met when the detected movement of the electronic device exceeds a movement threshold, and ceasing to display, via the display device, a visual indication of one or more differences between a pose of the electronic device when media capture was initiated and a current pose of the electronic device in response to a determination that the detected movement of the set of guidance criteria is not met.

いくつかの実施形態によれば、方法が記載される。この方法は、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信する、1つ以上のカメラを有するコンピュータシステムにおいて実行される。この方法は、第1のズームレベルでメディアをキャプチャするためのカメラプレビューを有するカメラユーザインタフェースを表示することであって、カメラユーザインタフェースは、ズームレベルを変更するための選択可能ユーザインタフェースオブジェクトを含む、カメラユーザインタフェースを表示することと、カメラユーザインタフェースを表示している間に、選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出することと、選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出したことに応じて、利用可能な光が閾値を下回るとの判定に従って、ズームレベルを第2のズームレベルに変更し、低光キャプチャモードを有効化することと、利用可能な光が閾値を上回るとの判定に従って、低光キャプチャモードを有効化することなく、ズームレベルを変更することと、を含む。 According to some embodiments, a method is described. The method is performed in a computer system having one or more cameras in communication with one or more display devices and one or more input devices. The method includes displaying a camera user interface having a camera preview for capturing media at a first zoom level, the camera user interface including a selectable user interface object for changing the zoom level; detecting an input corresponding to a selection of the selectable user interface object while displaying the camera user interface; in response to detecting the input corresponding to a selection of the selectable user interface object, changing the zoom level to a second zoom level and enabling a low-light capture mode in accordance with a determination that the available light is below a threshold; and changing the zoom level without enabling the low-light capture mode in accordance with a determination that the available light is above the threshold.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、1つ以上のカメラを有するコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、コンピュータシステムは、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信し、1つ以上のプログラムは、第1のズームレベルでメディアをキャプチャするためのカメラプレビューを有するカメラユーザインタフェースを表示し、カメラユーザインタフェースが、ズームレベルを変更するための選択可能ユーザインタフェースオブジェクトを含み、カメラユーザインタフェースを表示している間に、選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出し、選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出したことに応じて、利用可能な光が閾値を下回るとの判定に従って、ズームレベルを第2のズームレベルに変更し、低光キャプチャモードを有効化し、利用可能な光が閾値を上回るとの判定に従って、低光キャプチャモードを有効化することなく、ズームレベルを変更する、命令を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a computer system having one or more cameras, the computer system in communication with one or more display devices and one or more input devices, the one or more programs including instructions for displaying a camera user interface having a camera preview for capturing media at a first zoom level, the camera user interface including a selectable user interface object for changing the zoom level, detecting an input corresponding to a selection of the selectable user interface object while displaying the camera user interface, and in response to detecting the input corresponding to the selection of the selectable user interface object, changing the zoom level to a second zoom level in accordance with a determination that the available light is below a threshold, enabling a low-light capture mode, and changing the zoom level without enabling the low-light capture mode in accordance with a determination that the available light is above the threshold.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、1つ以上のカメラを有するコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、コンピュータシステムは、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信し、1つ以上のプログラムは、第1のズームレベルでメディアをキャプチャするためのカメラプレビューを有するカメラユーザインタフェースを表示し、カメラユーザインタフェースが、ズームレベルを変更するための選択可能ユーザインタフェースオブジェクトを含み、カメラユーザインタフェースを表示している間に、選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出し、選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出したことに応じて、利用可能な光が閾値を下回るとの判定に従って、ズームレベルを第2のズームレベルに変更し、低光キャプチャモードを有効化し、利用可能な光が閾値を上回るとの判定に従って、低光キャプチャモードを有効化することなく、ズームレベルを変更する、命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. The temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a computer system having one or more cameras, the computer system in communication with one or more display devices and one or more input devices, the one or more programs including instructions for displaying a camera user interface having a camera preview for capturing media at a first zoom level, the camera user interface including a selectable user interface object for changing the zoom level, detecting an input corresponding to a selection of the selectable user interface object while displaying the camera user interface, and in response to detecting the input corresponding to the selection of the selectable user interface object, changing the zoom level to a second zoom level in accordance with a determination that the available light is below a threshold, enabling a low-light capture mode, and changing the zoom level without enabling the low-light capture mode in accordance with a determination that the available light is above the threshold.

いくつかの実施形態によれば、コンピュータシステムが記載される。このコンピュータシステムは、1つ以上のカメラであって、コンピュータシステムは、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信する、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムは、第1のズームレベルでメディアをキャプチャするためのカメラプレビューを有するカメラユーザインタフェースを表示し、カメラユーザインタフェースは、ズームレベルを変更するための選択可能ユーザインタフェースオブジェクトを含み、カメラユーザインタフェースを表示している間に、選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出し、選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出したことに応じて、利用可能な光が閾値を下回るとの判定に従って、ズームレベルを第2のズームレベルに変更し、低光キャプチャモードを有効化し、利用可能な光が閾値を上回るとの判定に従って、低光キャプチャモードを有効化することなく、ズームレベルを変更する、命令を含む。 According to some embodiments, a computer system is described. The computer system includes one or more cameras, the computer system includes one or more cameras in communication with one or more display devices and one or more input devices, one or more processors, and a memory storing one or more programs configured to be executed by the one or more processors, the one or more programs include instructions for displaying a camera user interface having a camera preview for capturing media at a first zoom level, the camera user interface including a selectable user interface object for changing the zoom level, detecting an input corresponding to a selection of the selectable user interface object while displaying the camera user interface, and in response to detecting the input corresponding to the selection of the selectable user interface object, changing the zoom level to a second zoom level in accordance with a determination that the available light is below a threshold, enabling a low-light capture mode, and changing the zoom level without enabling the low-light capture mode in accordance with a determination that the available light is above the threshold.

いくつかの実施形態によれば、コンピュータシステムが記載される。このコンピュータシステムは、1つ以上のカメラであって、コンピュータシステムは、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信する、1つ以上のカメラと、第1のズームレベルでメディアをキャプチャするためのカメラプレビューを有するカメラユーザインタフェースを表示する手段であって、カメラユーザインタフェースは、ズームレベルを変更するための選択可能ユーザインタフェースオブジェクトを含む、カメラユーザインタフェースを表示する手段と、カメラユーザインタフェースを表示している間に、選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出する手段と、選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出したことに応じて、利用可能な光が閾値を下回るとの判定に従って、ズームレベルを第2のズームレベルに変更する手段と、低光キャプチャモードを有効化する手段と、利用可能な光が閾値を上回るとの判定に従って、低光キャプチャモードを有効化することなく、ズームレベルを変更することと、を含む。 According to some embodiments, a computer system is described that includes one or more cameras, the computer system in communication with one or more display devices and one or more input devices; means for displaying a camera user interface having a camera preview for capturing media at a first zoom level, the camera user interface including a selectable user interface object for changing the zoom level; means for detecting an input corresponding to a selection of the selectable user interface object while displaying the camera user interface; means for changing the zoom level to a second zoom level in response to detecting the input corresponding to a selection of the selectable user interface object, in accordance with a determination that the available light is below a threshold; means for enabling a low-light capture mode; and means for changing the zoom level without enabling the low-light capture mode in accordance with a determination that the available light is above the threshold.

これらの機能を実行する実行可能な命令は、任意選択的に、1つ以上のプロセッサによって実行されるように構成された非一時的コンピュータ可読記憶媒体又は他のコンピュータプログラム製品内に含まれる。これらの機能を実行する実行可能な命令は、任意選択的に、1つ以上のプロセッサによって実行されるように構成された一時的コンピュータ可読記憶媒体又は他のコンピュータプログラム製品内に含まれる。 Executable instructions to perform these functions are optionally included in a non-transitory computer-readable storage medium or other computer program product configured to be executed by one or more processors. Executable instructions to perform these functions are optionally included in a transitory computer-readable storage medium or other computer program product configured to be executed by one or more processors.

このため、メディアをキャプチャ及び管理するための、より速く、より効率的な方法及びインタフェースがデバイスに提供され、それにより、このようなデバイスの有効性、効率、及びユーザ満足度が増す。このような方法及びインタフェースは、メディアをキャプチャ及び管理するための他の方法を補完するか、又は置き換えることができる。 This provides devices with faster, more efficient methods and interfaces for capturing and managing media, thereby increasing the effectiveness, efficiency, and user satisfaction of such devices. Such methods and interfaces may complement or replace other methods for capturing and managing media.

説明される様々な実施形態をより良く理解するため、以下の図面と併せて、以下の「発明を実施するための形態」が参照されるべきであり、類似の参照番号は、以下の図の全てを通じて、対応する部分を指す。 For a better understanding of the various embodiments described, reference should be made to the following Detailed Description in conjunction with the following drawings, in which like reference numerals refer to corresponding parts throughout:

いくつかの実施形態による、タッチ感知ディスプレイを有するポータブル多機能デバイスを示すブロック図である。1 is a block diagram illustrating a portable multifunction device having a touch-sensitive display in accordance with some embodiments. いくつかの実施形態による、イベント処理のための例示的な構成要素を示すブロック図である。FIG. 2 is a block diagram illustrating example components for event processing, according to some embodiments. いくつかの実施形態による、タッチスクリーンを有するポータブル多機能デバイスを示す。1 illustrates a portable multifunction device having a touch screen according to some embodiments. いくつかの実施形態による、ディスプレイ及びタッチ感知面を備える例示的な多機能デバイスのブロック図である。1 is a block diagram of an exemplary multifunction device with a display and a touch-sensitive surface in accordance with some embodiments. いくつかの実施形態による、ポータブル多機能デバイス上のアプリケーションのメニューの例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for a menu of applications on a portable multifunction device according to some embodiments. いくつかの実施形態による、ディスプレイとは別個のタッチ感知面を有する多機能デバイスの例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface of a multifunction device having a touch-sensitive surface that is separate from the display in accordance with some embodiments. いくつかの実施形態による、パーソナル電子デバイスを示す。1 illustrates a personal electronic device according to some embodiments. いくつかの実施形態による、パーソナル電子デバイスを示すブロック図である。FIG. 1 is a block diagram illustrating a personal electronic device according to some embodiments. いくつかの実施形態による、タッチ感知ディスプレイ及び強度センサを有するパーソナル電子デバイスの例示的な構成要素を示す。1 illustrates example components of a personal electronic device having a touch-sensitive display and intensity sensor according to some embodiments. いくつかの実施形態による、タッチ感知ディスプレイ及び強度センサを有するパーソナル電子デバイスの例示的な構成要素を示す。1 illustrates example components of a personal electronic device having a touch-sensitive display and intensity sensor according to some embodiments. いくつかの実施形態による、パーソナル電子デバイスの例示的な構成要素及びユーザインタフェースを示す。1 illustrates example components and a user interface of a personal electronic device, according to some embodiments. いくつかの実施形態による、パーソナル電子デバイスの例示的な構成要素及びユーザインタフェースを示す。1 illustrates example components and a user interface of a personal electronic device, according to some embodiments. いくつかの実施形態による、パーソナル電子デバイスの例示的な構成要素及びユーザインタフェースを示す。1 illustrates example components and a user interface of a personal electronic device, according to some embodiments. いくつかの実施形態による、パーソナル電子デバイスの例示的な構成要素及びユーザインタフェースを示す。1 illustrates example components and a user interface of a personal electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for accessing media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for accessing media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for accessing media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for accessing media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for accessing media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for accessing media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for accessing media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for accessing media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for accessing media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for accessing media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for accessing media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for accessing media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for accessing media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for accessing media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for accessing media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for accessing media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for accessing media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for accessing media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for accessing media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for accessing media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for accessing media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for accessing media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for accessing media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for accessing media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for accessing media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for displaying media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for displaying media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for displaying media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for displaying media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for displaying media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for displaying media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for displaying media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for displaying media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for displaying media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for displaying media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for displaying media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for displaying media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for displaying media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for displaying media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for displaying media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for displaying media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for displaying media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for displaying media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for displaying media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for displaying media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for displaying media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for displaying media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for displaying media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for displaying media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for displaying media controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してカメラ視野を表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for displaying a camera view using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してカメラ視野を表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for displaying a camera view using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してカメラ視野を表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for displaying a camera view using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してカメラ視野を表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for displaying a camera view using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してカメラ視野を表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for displaying a camera view using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してカメラ視野を表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for displaying a camera view using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してカメラ視野を表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for displaying a camera view using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してカメラ視野を表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for displaying a camera view using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してカメラ視野を表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for displaying a camera view using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してカメラ視野を表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for displaying a camera view using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してカメラ視野を表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for displaying a camera view using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してカメラ視野を表示するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for displaying a camera view using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してカメラ視野を表示するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for displaying a camera view using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してカメラ視野を表示するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for displaying a camera view using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアアイテムにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for accessing media items using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアアイテムにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for accessing media items using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアアイテムにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for accessing media items using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアアイテムにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for accessing media items using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアアイテムにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for accessing media items using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアアイテムにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for accessing media items using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアアイテムにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for accessing media items using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアアイテムにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for accessing media items using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアアイテムにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for accessing media items using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアアイテムにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for accessing media items using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアアイテムにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for accessing media items using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアアイテムにアクセスするための方法を示すフロー図である。1 is a flow diagram illustrating a method for accessing media items using an electronic device according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアアイテムにアクセスするための方法を示すフロー図である。1 is a flow diagram illustrating a method for accessing media items using an electronic device according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for modifying media items using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for modifying media items using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for modifying media items using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for modifying media items using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for modifying media items using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for modifying media items using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for modifying media items using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for modifying media items using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for modifying media items using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for modifying media items using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for modifying media items using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for modifying media items using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for modifying media items using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for modifying media items using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for modifying media items using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for modifying media items using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for modifying media items using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for modifying media items using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for modifying media items using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for modifying media items using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for modifying media items using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for modifying a media item using an electronic device according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for modifying a media item using an electronic device according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for modifying a media item using an electronic device according to some embodiments. いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for changing zoom levels using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for changing zoom levels using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for changing zoom levels using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for changing zoom levels using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for changing zoom levels using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for changing zoom levels using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for changing zoom levels using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for changing zoom levels using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for changing zoom levels using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for changing zoom levels using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for changing zoom levels using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for changing zoom levels using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for changing zoom levels using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for changing zoom levels using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for changing zoom levels using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for changing zoom levels using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for changing zoom levels using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for changing a zoom level using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for changing a zoom level using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates example techniques and example user interfaces for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してフレームレートを変更するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for modifying a frame rate using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してフレームレートを変更するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for modifying a frame rate using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用して光条件に対応するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for responding to lighting conditions using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用して光条件に対応するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for responding to lighting conditions using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用して光条件に対応するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for responding to lighting conditions using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してカメラインジケーションを提供するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for providing a camera indication using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してカメラインジケーションを提供するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for providing a camera indication using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してカメラインジケーションを提供するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for providing a camera indication using an electronic device, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for editing media captured using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for editing media captured using an electronic device, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for editing captured media, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for editing media captured using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for editing media captured using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for managing media using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアを管理するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for managing media using an electronic device, according to some embodiments. メディアをキャプチャしている間にガイダンスを提供するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for providing guidance while capturing media. メディアをキャプチャしている間にガイダンスを提供するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for providing guidance while capturing media. いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. いくつかの実施形態による、電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための例示的なユーザインタフェースを示す。1 illustrates an example user interface for displaying a camera user interface at various zoom levels using different cameras of an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための例示的なユーザインタフェースを示す。1 illustrates an example user interface for displaying a camera user interface at various zoom levels using different cameras of an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための例示的なユーザインタフェースを示す。1 illustrates an example user interface for displaying a camera user interface at various zoom levels using different cameras of an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための例示的なユーザインタフェースを示す。1 illustrates an example user interface for displaying a camera user interface at various zoom levels using different cameras of an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための例示的なユーザインタフェースを示す。1 illustrates an example user interface for displaying a camera user interface at various zoom levels using different cameras of an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための例示的なユーザインタフェースを示す。1 illustrates an example user interface for displaying a camera user interface at various zoom levels using different cameras of an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための例示的なユーザインタフェースを示す。1 illustrates an example user interface for displaying a camera user interface at various zoom levels using different cameras of an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための例示的なユーザインタフェースを示す。1 illustrates an example user interface for displaying a camera user interface at various zoom levels using different cameras of an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための例示的なユーザインタフェースを示す。1 illustrates an example user interface for displaying a camera user interface at various zoom levels using different cameras of an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for displaying a camera user interface at various zoom levels using different cameras of an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for displaying a camera user interface at various zoom levels using different cameras of an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for displaying a camera user interface at various zoom levels using different cameras of an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for changing a zoom level using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for changing a zoom level using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for changing a zoom level using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for changing a zoom level using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for changing a zoom level using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for changing a zoom level using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for changing a zoom level using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for changing a zoom level using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for changing a zoom level using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for changing a zoom level using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for changing a zoom level using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for changing a zoom level using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for changing a zoom level using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for changing a zoom level using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for changing a zoom level using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for changing a zoom level using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for changing a zoom level using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for changing a zoom level using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for changing a zoom level using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアキャプチャコントロールにアクセスするための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for accessing media capture controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアキャプチャコントロールにアクセスするための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for accessing media capture controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアキャプチャコントロールにアクセスするための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for accessing media capture controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアキャプチャコントロールにアクセスするための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for accessing media capture controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアキャプチャコントロールにアクセスするための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for accessing media capture controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアキャプチャコントロールにアクセスするための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for accessing media capture controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアキャプチャコントロールにアクセスするための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for accessing media capture controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアキャプチャコントロールにアクセスするための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for accessing media capture controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアキャプチャコントロールにアクセスするための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for accessing media capture controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアキャプチャコントロールにアクセスするための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for accessing media capture controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してメディアキャプチャコントロールにアクセスするための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for accessing media capture controls using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for automatically adjusting media captured using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for automatically adjusting media captured using an electronic device, according to some embodiments. いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for automatically adjusting media captured using an electronic device, according to some embodiments. メディアをキャプチャしている間にガイダンスを提供するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for providing guidance while capturing media. メディアをキャプチャしている間にガイダンスを提供するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for providing guidance while capturing media. メディアをキャプチャしている間にガイダンスを提供するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for providing guidance while capturing media. メディアをキャプチャしている間にガイダンスを提供するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for providing guidance while capturing media. メディアをキャプチャしている間にガイダンスを提供するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for providing guidance while capturing media. メディアをキャプチャしている間にガイダンスを提供するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for providing guidance while capturing media. メディアをキャプチャしている間にガイダンスを提供するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for providing guidance while capturing media. メディアをキャプチャしている間にガイダンスを提供するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for providing guidance while capturing media. メディアをキャプチャしている間にガイダンスを提供するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for providing guidance while capturing media. メディアをキャプチャしている間にガイダンスを提供するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for providing guidance while capturing media. メディアをキャプチャしている間にガイダンスを提供するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for providing guidance while capturing media. メディアをキャプチャしている間にガイダンスを提供するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for providing guidance while capturing media. メディアをキャプチャしている間にガイダンスを提供するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for providing guidance while capturing media. メディアをキャプチャしている間にガイダンスを提供するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for providing guidance while capturing media. メディアをキャプチャしている間にガイダンスを提供するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for providing guidance while capturing media. メディアをキャプチャしている間にガイダンスを提供するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for providing guidance while capturing media. メディアをキャプチャしている間にガイダンスを提供するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for providing guidance while capturing media. メディアをキャプチャしている間にガイダンスを提供するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for providing guidance while capturing media. メディアをキャプチャしている間にガイダンスを提供するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for providing guidance while capturing media. 1組の条件に基づいてメディアキャプチャモードを自動的に管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for automatically managing media capture modes based on a set of conditions. 1組の条件に基づいてメディアキャプチャモードを自動的に管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for automatically managing media capture modes based on a set of conditions. 1組の条件に基づいてメディアキャプチャモードを自動的に管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for automatically managing media capture modes based on a set of conditions. 1組の条件に基づいてメディアキャプチャモードを自動的に管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for automatically managing media capture modes based on a set of conditions. 1組の条件に基づいてメディアキャプチャモードを自動的に管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for automatically managing media capture modes based on a set of conditions. 1組の条件に基づいてメディアキャプチャモードを自動的に管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for automatically managing media capture modes based on a set of conditions. 1組の条件に基づいてメディアキャプチャモードを自動的に管理するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for automatically managing media capture modes based on a set of conditions. 1組の条件に基づいてメディアキャプチャモードを自動的に管理するための方法を示すフロー図である。FIG. 1 is a flow diagram illustrating a method for automatically managing media capture modes based on a set of conditions.

以下の説明は、例示的な方法、パラメータなどについて記載する。しかしながら、そのような説明は、本開示の範囲に対する限定として意図されるものではなく、代わりに例示的な実施形態の説明として提供されることを認識されたい。 The following description describes example methods, parameters, and the like. It should be recognized, however, that such description is not intended as a limitation on the scope of the present disclosure, but is instead provided as a description of example embodiments.

メディアをキャプチャ及び管理する効率的な方法及びインタフェースを提供する電子デバイスが必要とされている。このような技術は、メディアを管理するユーザの認識的負担を軽減し、それにより、生産性を高めることができる。更に、このような技法は、普通なら冗長なユーザ入力に浪費されるプロセッサ及び電池の電力を低減させることができる。 There is a need for electronic devices that provide efficient methods and interfaces for capturing and managing media. Such technology can reduce the cognitive burden on users of managing media, thereby increasing productivity. Furthermore, such techniques can reduce processor and battery power that is otherwise wasted on redundant user input.

以下に、図1A~図1B、図2、図3、図4A~図4B、及び図5A~図5Hは、イベント通知を管理する技法を実行するための例示的なデバイスの説明を提供する。 Below, Figures 1A-1B, 2, 3, 4A-4B, and 5A-5H provide a description of an example device for performing techniques for managing event notifications.

図6A~図6Vは、いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。図7A~図7Cは、いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための方法を示すフロー図である。図6A~図6Vのユーザインタフェースは、図7A~図7Cのプロセスを含む後述のプロセスを示すために使用される。 FIGS. 6A-6V illustrate example techniques and example user interfaces for accessing media controls using an electronic device, according to some embodiments. FIGS. 7A-7C are flow diagrams illustrating methods for accessing media controls using an electronic device, according to some embodiments. The user interfaces of FIGS. 6A-6V are used to illustrate processes described below, including the processes of FIGS. 7A-7C.

図8A~図8Vは、いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。図9A~図9Cは、いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための方法を示すフロー図である。図8A~図8Vのユーザインタフェースは、図9A~図9Cのプロセスを含む後述のプロセスを示すために使用される。 FIGS. 8A-8V illustrate example techniques and example user interfaces for displaying media controls using an electronic device, according to some embodiments. FIGS. 9A-9C are flow diagrams illustrating methods for displaying media controls using an electronic device, according to some embodiments. The user interfaces of FIGS. 8A-8V are used to illustrate processes described below, including the processes of FIGS. 9A-9C.

図10A~図10Kは、いくつかの実施形態による、電子デバイスを使用してカメラ視野を表示するための例示的な技術及び例示的なユーザインタフェースを示す。図11A~図11Cは、いくつかの実施形態による、電子デバイスを使用してカメラ視野を表示するための方法を示すフロー図である。図10A~図10Kのユーザインタフェースは、図11A~図11Cのプロセスを含む後述のプロセスを示すために使用される。 10A-10K illustrate an example technique and an example user interface for displaying a camera view using an electronic device, according to some embodiments. 11A-11C are flow diagrams illustrating a method for displaying a camera view using an electronic device, according to some embodiments. The user interfaces of 10A-10K are used to illustrate processes described below, including the processes of 11A-11C.

図12A~図12Kは、いくつかの実施形態による、電子デバイスを使用してメディアアイテムにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。図13A~図13Bは、いくつかの実施形態による、電子デバイスを使用してメディアアイテムにアクセスするための方法を示すフロー図である。図12A~図12Kのユーザインタフェースは、図13A~図13Bのプロセスを含む後述のプロセスを示すために使用される。 12A-12K illustrate example techniques and example user interfaces for accessing media items using an electronic device, according to some embodiments. 13A-13B are flow diagrams illustrating methods for accessing media items using an electronic device, according to some embodiments. The user interfaces of 12A-12K are used to illustrate processes described below, including the processes of 13A-13B.

図14A~図14Uは、いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。図15A~図15Cは、いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための方法を示すフロー図である。図14A~図14Uのユーザインタフェースは、図15A~図15Cのプロセスを含む後述のプロセスを示すために使用される。 FIGS. 14A-14U illustrate example techniques and example user interfaces for modifying a media item using an electronic device, according to some embodiments. FIGS. 15A-15C are flow diagrams illustrating methods for modifying a media item using an electronic device, according to some embodiments. The user interfaces of FIGS. 14A-14U are used to illustrate processes described below, including the processes of FIGS. 15A-15C.

図16A~図16Qは、いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。図17A~図17Bは、いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための方法を示すフロー図である。図16A~図16Qのユーザインタフェースは、図17A~図17Bのプロセスを含む後述のプロセスを示すために使用される。 16A-16Q illustrate an example technique and an example user interface for changing the zoom level using an electronic device, according to some embodiments. 17A-17B are flow diagrams illustrating a method for changing the zoom level using an electronic device, according to some embodiments. The user interfaces of 16A-16Q are used to illustrate processes described below, including the process of 17A-17B.

図18A~図18Xは、いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。図19A~図19Bは、いくつかの実施形態による、電子デバイスを使用してフレームレートを変更するための方法を示すフロー図である。図20A~図20Cは、いくつかの実施形態による、電子デバイスを使用して光条件に対応するための方法を示すフロー図である。図21A~図21Cは、いくつかの実施形態による、電子デバイスを使用してカメラインジケーションを提供するための方法を示すフロー図である。図18A~図18Xのユーザインタフェースは、図19A~図19B、図20A~図20C、及び図21A~図21Cのプロセスを含む後述のプロセスを示すために使用される。 18A-18X illustrate an example technique and an example user interface for managing media using an electronic device, according to some embodiments. 19A-19B are flow diagrams illustrating a method for changing a frame rate using an electronic device, according to some embodiments. 20A-20C are flow diagrams illustrating a method for responding to lighting conditions using an electronic device, according to some embodiments. 21A-21C are flow diagrams illustrating a method for providing a camera indication using an electronic device, according to some embodiments. The user interfaces of 18A-18X are used to illustrate processes described below, including the processes of 19A-19B, 20A-20C, and 21A-21C.

図22A~図22AMは、いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。図23A~図23Bは、いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。図22A~図22AMのユーザインタフェースは、図23A~図23Bのプロセスを含む後述のプロセスを示すために使用される。 22A-22AM show exemplary user interfaces for editing captured media, according to some embodiments. 23A-23B are flow diagrams illustrating methods for editing captured media using an electronic device, according to some embodiments. The user interfaces of 22A-22AM are used to illustrate processes described below, including the processes of 23A-23B.

図24A~図24ABは、いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。図25A~図25Bは、いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。図24A~図24ABのユーザインタフェースは、図25A~図25Bのプロセスを含む後述のプロセスを示すために使用される。 24A-24AB show example user interfaces for editing captured media, according to some embodiments. 25A-25B are flow diagrams illustrating methods for editing captured media using an electronic device, according to some embodiments. The user interfaces of 24A-24AB are used to illustrate processes described below, including the processes of 25A-25B.

図26A~図26Uは、いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。図27A~図27Cは、いくつかの実施形態による、電子デバイスを使用してメディアを管理するための方法を示すフロー図である。図28A~図28Bは、メディアをキャプチャしている間にガイダンスを提供するための方法を示すフロー図である。図26A~図26Uのユーザインタフェースは、図27A~図27C及び図28A~図28Bのプロセスを含む後述のプロセスを示すために使用される。 26A-26U illustrate example user interfaces for managing media using an electronic device, according to some embodiments. 27A-27C are flow diagrams illustrating methods for managing media using an electronic device, according to some embodiments. 28A-28B are flow diagrams illustrating methods for providing guidance while capturing media. The user interfaces of 26A-26U are used to illustrate processes described below, including the processes of 27A-27C and 28A-28B.

図29A~図29Pは、いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。図30A~図30Cは、いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための方法を示すフロー図である。図29A~図29Pのユーザインタフェースは、図30A~図30Cのプロセスを含む後述のプロセスを示すために使用される。 29A-29P show example user interfaces for managing controlled capture of media using an electronic device with multiple cameras, according to some embodiments. FIGS. 30A-30C are flow diagrams illustrating methods for managing controlled capture of media using an electronic device with multiple cameras, according to some embodiments. The user interfaces of FIGS. 29A-29P are used to illustrate processes described below, including the processes of FIGS. 30A-30C.

図31A~図31Iは、いくつかの実施形態による、電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための例示的なユーザインタフェースを示す。図32A~図32Cは、いくつかの実施形態による、電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための方法を示すフロー図である。図31A~図31Iのユーザインタフェースは、図32A~図32Cのプロセスを含む後述のプロセスを示すために使用される。 31A-31I show example user interfaces for displaying a camera user interface at various zoom levels using different cameras of an electronic device, according to some embodiments. FIGs. 32A-32C are flow diagrams illustrating methods for displaying a camera user interface at various zoom levels using different cameras of an electronic device, according to some embodiments. The user interfaces of FIGs. 31A-31I are used to illustrate processes described below, including the processes of FIGs. 32A-32C.

図33A~図33Qは、いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。図34A~図34Bは、いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための方法を示すフロー図である。図33A~図33Qのユーザインタフェースは、図34A~図34Bのプロセスを含む後述のプロセスを示すために使用される。 FIGS. 33A-33Q show example user interfaces for changing zoom levels using an electronic device, according to some embodiments. FIGS. 34A-34B are flow diagrams illustrating methods for changing zoom levels using an electronic device, according to some embodiments. The user interfaces of FIGS. 33A-33Q are used to illustrate processes described below, including the processes of FIGS. 34A-34B.

図35A~図35Iは、いくつかの実施形態による、電子デバイスを使用してメディアキャプチャコントロールにアクセスするための例示的なユーザインタフェースを示す。図36A~図36Bは、いくつかの実施形態による、電子デバイスを使用してメディアキャプチャコントロールにアクセスするための方法を示すフロー図である。図35A~図35Iのユーザインタフェースは、図36A~図36Bのプロセスを含む後述のプロセスを示すために使用される。 FIGS. 35A-35I show example user interfaces for accessing media capture controls using an electronic device, according to some embodiments. FIGS. 36A-36B are flow diagrams illustrating methods for accessing media capture controls using an electronic device, according to some embodiments. The user interfaces of FIGS. 35A-35I are used to illustrate processes described below, including the processes of FIGS. 36A-36B.

図37A~図37AAは、いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。図38A~図38Cは、いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための方法を示すフロー図である。図37A~図37AAのユーザインタフェースは、図38A~図38Cのプロセスを含む後述のプロセスを示すために使用される。 FIGS. 37A-37AA show example user interfaces for automatically adjusting media captured using an electronic device, according to some embodiments. FIGS. 38A-38C are flow diagrams illustrating methods for automatically adjusting media captured using an electronic device, according to some embodiments. The user interfaces of FIGS. 37A-37AA are used to illustrate processes described below, including the processes of FIGS. 38A-38C.

図39A~図39Qは、いくつかの実施形態による、電子デバイスを使用してメディアをキャプチャしている間にガイダンスを提供するための例示的なユーザインタフェースを示す。図40A~図40Bは、いくつかの実施形態による、電子デバイスを使用してメディアをキャプチャしている間にガイダンスを提供するための方法を示すフロー図である。図39A~図39Qのユーザインタフェースは、図40A~図40Bのプロセスを含む後述のプロセスを示すために使用される。 FIGS. 39A-39Q show example user interfaces for providing guidance while capturing media using an electronic device, according to some embodiments. FIGS. 40A-40B are flow diagrams illustrating methods for providing guidance while capturing media using an electronic device, according to some embodiments. The user interfaces of FIGS. 39A-39Q are used to illustrate processes described below, including the processes of FIGS. 40A-40B.

図41A~図41Fは、いくつかの実施形態による、電子デバイスを使用して1組の条件に基づいてメディアキャプチャモードを自動的に管理するための例示的なユーザインタフェースを示す。図42A~図42Bは、いくつかの実施形態による、電子デバイスを使用して1組の条件に基づいてメディアキャプチャモードを自動的に管理するための方法を示すフロー図である。図41A~図41Fのユーザインタフェースは、図42A~図42Bのプロセスを含む後述のプロセスを示すために使用される。 FIGS. 41A-41F show example user interfaces for automatically managing a media capture mode based on a set of conditions using an electronic device, according to some embodiments. FIGS. 42A-42B are flow diagrams illustrating a method for automatically managing a media capture mode based on a set of conditions using an electronic device, according to some embodiments. The user interfaces of FIGS. 41A-41F are used to illustrate processes described below, including the processes of FIGS. 42A-42B.

以下の説明では、様々な要素について説明するために、「第1の」、「第2の」などの用語を使用するが、これらの要素は、それらの用語によって限定されるべきではない。これらの用語は、ある要素を別の要素と区別するためにのみ使用される。例えば、記載する様々な実施形態の範囲から逸脱することなく、第1のタッチを第2のタッチと呼ぶこともでき、同様に第2のタッチを第1のタッチと呼ぶこともできる。第1のタッチ及び第2のタッチはどちらもタッチであるが、これらは同じタッチではない。 In the following description, terms such as "first" and "second" are used to describe various elements, but these elements should not be limited by these terms. These terms are used only to distinguish one element from another. For example, a first touch can be called a second touch, and a second touch can be called a first touch, without departing from the scope of the various embodiments described. Although a first touch and a second touch are both touches, they are not the same touch.

本明細書に記載する様々な実施形態の説明で使用される術語は、特定の実施形態を説明することのみを目的とし、限定的であることは意図されていない。記載する様々な実施形態の説明及び添付の特許請求の範囲では、単数形の「a(1つ、一)」、「an(1つ、一)」、及び「the(その、この)」は、文脈上別途明白に記載しない限り、複数形も同様に含むことが意図される。また、本明細書で使用されるとき、用語「及び/又は」は、関連する列挙されたアイテムのうちの1つ以上のいずれか及び全ての考えられる組み合わせを指し、かつこれを含むことを理解されたい。用語「includes(含む)」、「including(含む)」、「comprises(含む、備える)」、及び/又は「comprising(含む、備える)」は、本明細書で使用する場合、述べられた特徴、整数、ステップ、動作、要素、及び/又は構成要素の存在を指定するが、1つ以上の他の特徴、整数、ステップ、動作、要素、構成要素、及び/又はそれらのグループの存在又は追加を除外しないことが更に理解されるであろう。 The terminology used in the description of the various embodiments described herein is for the purpose of describing particular embodiments only and is not intended to be limiting. In the description of the various embodiments described and in the appended claims, the singular forms "a," "an," and "the" are intended to include the plural forms as well, unless the context clearly dictates otherwise. It should also be understood that as used herein, the term "and/or" refers to and includes any and all possible combinations of one or more of the associated listed items. It will be further understood that the terms "includes," "including," "comprises," and/or "comprising," as used herein, specify the presence of stated features, integers, steps, operations, elements, and/or components, but do not exclude the presence or addition of one or more other features, integers, steps, operations, elements, components, and/or groups thereof.

「~の場合(if)」という用語は、任意選択的に、文脈に応じて、「~とき(when)」若しくは「~とき(upon)」、又は「~と判定したことに応じて(in response to determining)」若しくは「~を検出したことに応じて(in response to detecting)」を意味すると解釈される。同様に、「~と判定された場合(if it is determined)」又は「[記載の条件又はイベント]が検出された場合(if[a stated condition or event]is detected)」という語句は、任意選択的に、文脈に応じて、「~と判定したとき(upon determining)」若しくは「~と判定したことに応じて(in response to determining)」、又は「[記載の条件又はイベント]を検出したとき(upon detecting[the stated condition or event])」若しくは「[記載の条件又はイベント]を検出したことに応じて(in response to detecting[the stated condition or event])」を意味すると解釈される。 The term "if" is, optionally, interpreted to mean "when" or "upon" or "in response to determining" or "in response to detecting", depending on the context. Similarly, the phrases "if it is determined" or "if [a stated condition or event] is detected" are, optionally, interpreted to mean "upon determining" or "in response to determining", or "upon detecting [the stated condition or event]" or "in response to detecting [the stated condition or event]", depending on the context.

電子デバイス、そのようなデバイス用のユーザインタフェース、及びそのようなデバイスを使用する関連するプロセスの実施形態が説明される。いくつかの実施形態では、デバイスは、PDA機能及び/又は音楽プレーヤ機能などの他の機能も含む、携帯電話などのポータブル通信デバイスである。ポータブル多機能デバイスの例示的な実施形態としては、カリフォルニア州クパチーノのApple Inc.からのiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)のデバイスが挙げられるが、これらに限定されない。任意選択的に、タッチ感知面を有するラップトップ又はタブレットコンピュータ(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)などの他のポータブル電子デバイスも使用される。また、いくつかの実施形態では、デバイスはポータブル通信デバイスではなく、タッチ感知面を有するデスクトップコンピュータ(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)であることも理解されたい。 Embodiments of electronic devices, user interfaces for such devices, and associated processes for using such devices are described. In some embodiments, the device is a portable communication device, such as a mobile phone, that also includes other functions, such as a PDA function and/or a music player function. Exemplary embodiments of portable multifunction devices include, but are not limited to, the iPhone®, iPod Touch®, and iPad® devices from Apple Inc. of Cupertino, Calif. Optionally, other portable electronic devices, such as laptops or tablet computers having a touch-sensitive surface (e.g., a touchscreen display and/or touchpad), are also used. It should also be understood that in some embodiments, the device is not a portable communication device, but rather a desktop computer having a touch-sensitive surface (e.g., a touchscreen display and/or touchpad).

以下の論考では、ディスプレイ及びタッチ感知面を含む電子デバイスについて説明する。しかしながら、電子デバイスは、任意選択的に、物理キーボード、マウス、及び/又はジョイスティックなどの1つ以上の他の物理ユーザインタフェースデバイスを含むことを理解されたい。 The following discussion describes an electronic device that includes a display and a touch-sensitive surface. However, it should be understood that the electronic device optionally includes one or more other physical user-interface devices, such as a physical keyboard, a mouse, and/or a joystick.

デバイスは、典型的には、描画アプリケーション、プレゼンテーションアプリケーション、ワードプロセッシングアプリケーション、ウェブサイト作成アプリケーション、ディスクオーサリングアプリケーション、スプレッドシートアプリケーション、ゲームアプリケーション、電話アプリケーション、テレビ会議アプリケーション、電子メールアプリケーション、インスタントメッセージングアプリケーション、トレーニングサポートアプリケーション、写真管理アプリケーション、デジタルカメラアプリケーション、デジタルビデオカメラアプリケーション、ウェブブラウジングアプリケーション、デジタル音楽プレーヤアプリケーション、及び/又はデジタルビデオプレーヤアプリケーションのうちの1つ以上などの様々なアプリケーションに対応する。 The device typically supports a variety of applications, such as one or more of a drawing application, a presentation application, a word processing application, a website creation application, a disk authoring application, a spreadsheet application, a gaming application, a telephone application, a videoconferencing application, an email application, an instant messaging application, a training support application, a photo management application, a digital camera application, a digital video camera application, a web browsing application, a digital music player application, and/or a digital video player application.

本デバイス上で実行される様々なアプリケーションは、タッチ感知面などの、少なくとも1つの共通の物理ユーザインタフェースデバイスを、任意選択的に使用する。タッチ感知面の1つ以上の機能、並びにデバイス上に表示される対応する情報は、アプリケーションごとに、及び/又はそれぞれのアプリケーション内で、任意選択的に、調整及び/又は変更される。このように、デバイスの共通の物理アーキテクチャ(タッチ感知面など)は、任意選択的に、ユーザにとって直観的かつ透過的なユーザインタフェースを備える様々なアプリケーションをサポートする。 The various applications executing on the device optionally use at least one common physical user interface device, such as a touch-sensitive surface. One or more features of the touch-sensitive surface and corresponding information displayed on the device are optionally adjusted and/or changed for each application and/or within each application. In this manner, the common physical architecture of the device (such as the touch-sensitive surface) optionally supports various applications with user interfaces that are intuitive and transparent to the user.

ここで、タッチ感知ディスプレイを備えるポータブルデバイスの実施形態に注意を向ける。図1Aは、いくつかの実施形態による、タッチ感知ディスプレイシステム112を有するポータブル多機能デバイス100を示すブロック図である。タッチ感知ディスプレイ112は、便宜上「タッチスクリーン」と呼ばれることがあり、「タッチ感知ディスプレイシステム」として知られている又は呼ばれることがある。デバイス100は、メモリ102(任意選択的に、1つ以上のコンピュータ可読記憶媒体を含む)、メモリコントローラ122、1つ以上の処理ユニット(CPU)120、周辺機器インタフェース118、RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、入出力(I/O)サブシステム106、他の入力コントロールデバイス116、及び外部ポート124を含む。デバイス100は、任意選択的に、1つ以上の光センサ164を含む。デバイス100は、任意選択的に、デバイス100上の接触の強度を検出する1つ以上の接触強度センサ165(例えば、デバイス100のタッチ感知ディスプレイシステム112などのタッチ感知面)を含む。デバイス100は、任意選択的に、デバイス100上で触知出力を生成する(例えばデバイス100のタッチ感知ディスプレイシステム112又はデバイス300のタッチパッド355などのタッチ感知面上で触知出力を生成する)1つ以上の触知出力生成器167を含む。これらの構成要素は、任意選択的に、1つ以上の通信バス又は信号ライン103を介して通信する。 Attention is now directed to an embodiment of a portable device with a touch-sensitive display. FIG. 1A is a block diagram illustrating a portable multifunction device 100 having a touch-sensitive display system 112, according to some embodiments. Touch-sensitive display 112 may be conveniently referred to as a "touch screen" and may also be known or referred to as a "touch-sensitive display system." Device 100 includes memory 102 (optionally including one or more computer-readable storage media), memory controller 122, one or more processing units (CPUs) 120, peripherals interface 118, RF circuitry 108, audio circuitry 110, speaker 111, microphone 113, input/output (I/O) subsystem 106, other input control devices 116, and external port 124. Device 100 optionally includes one or more optical sensors 164. Device 100 optionally includes one or more contact intensity sensors 165 (e.g., a touch-sensitive surface such as touch-sensitive display system 112 of device 100) that detect the intensity of a contact on device 100. Device 100 optionally includes one or more tactile output generators 167 that generate tactile output on device 100 (e.g., generate tactile output on a touch-sensitive surface such as touch-sensitive display system 112 of device 100 or touchpad 355 of device 300). These components optionally communicate over one or more communication buses or signal lines 103.

本明細書及び特許請求の範囲では、タッチ感知面上の接触の「強度」という用語は、タッチ感知面上の接触(例えば、指の接触)の力若しくは圧力(単位面積当たりの力)、又はタッチ感知面上の接触の力若しくは圧力に対する代理(プロキシ)を指す。接触の強度は、少なくとも4つの別個の値を含み、より典型的には、数百の(例えば、少なくとも256の)別個の値を含む、値の範囲を有する。接触の強度は、任意選択的に、様々な手法、及び様々なセンサ又はセンサの組み合わせを使用して、判定(又は測定)される。例えば、タッチ感知面の下又はそれに隣接する1つ以上の力センサは、任意選択的に、タッチ感知面上の様々なポイントにおける力を測定するために使用される。いくつかの実装形態では、複数の力センサからの力測定値は、接触の推定される力を判定するために組み合わされる(例えば、加重平均)。同様に、スタイラスの感圧性先端部は、任意選択的に、タッチ感知面上のスタイラスの圧力を判定するために使用される。あるいは、タッチ感知面上で検出される接触エリアのサイズ及び/若しくはその変化、接触に近接するタッチ感知面の電気容量及び/若しくはその変化、並びに/又は、接触に近接するタッチ感知面の抵抗及び/若しくはその変化は、任意選択的に、タッチ感知面上の接触の力又は圧力の代替物として使用される。いくつかの実装形態では、接触の力又は圧力のための代替測定値は、強度閾値を上回っているかどうかを判定するために直接使用される(例えば、強度閾値は、代替測定値に対応する単位で記述される)。いくつかの実装形態では、接触力又は圧力に対する代理測定は、推定される力又は圧力に変換され、推定される力又は圧力は、強度閾値を超過したかどうかを判定するために使用される(例えば、強度閾値は、圧力の単位で測定される圧力閾値である)。接触の強度をユーザ入力の属性として使用することにより、アフォーダンスを(例えば、タッチ感知ディスプレイ上に)表示するための、及び/又は、ユーザ入力を(例えば、タッチ感知ディスプレイ、タッチ感知面、又は、ノブ若しくはボタンなどの物理的/機械的制御部を介して)受信するための面積が制限されている、低減されたサイズのデバイス上で、通常であればユーザによってアクセスすることが不可能であり得る追加のデバイス機能への、ユーザのアクセスが可能となる。 As used herein and in the claims, the term "intensity" of a contact on a touch-sensitive surface refers to the force or pressure (force per unit area) of a contact (e.g., a finger contact) on the touch-sensitive surface, or a proxy for the force or pressure of a contact on the touch-sensitive surface. The intensity of a contact has a range of values including at least four distinct values, and more typically including hundreds (e.g., at least 256) distinct values. The intensity of a contact is optionally determined (or measured) using various techniques and various sensors or combinations of sensors. For example, one or more force sensors under or adjacent to the touch-sensitive surface are optionally used to measure the force at various points on the touch-sensitive surface. In some implementations, the force measurements from multiple force sensors are combined (e.g., a weighted average) to determine an estimated force of the contact. Similarly, a pressure-sensitive tip of a stylus is optionally used to determine the pressure of the stylus on the touch-sensitive surface. Alternatively, the size and/or change in the contact area detected on the touch-sensitive surface, the capacitance and/or change in the capacitance of the touch-sensitive surface proximate the contact, and/or the resistance and/or change in the capacitance of the touch-sensitive surface proximate the contact, are optionally used as a surrogate for the force or pressure of the contact on the touch-sensitive surface. In some implementations, the surrogate measure for the force or pressure of the contact is used directly to determine whether an intensity threshold is exceeded (e.g., the intensity threshold is described in units that correspond to the surrogate measure). In some implementations, the surrogate measure for the contact force or pressure is converted to an estimated force or pressure, and the estimated force or pressure is used to determine whether an intensity threshold has been exceeded (e.g., the intensity threshold is a pressure threshold measured in units of pressure). Using the intensity of contact as an attribute of user input allows a user access to additional device functionality that may not otherwise be accessible by the user on devices of reduced size that have limited area for displaying affordances (e.g., on a touch-sensitive display) and/or receiving user input (e.g., via a touch-sensitive display, touch-sensitive surface, or physical/mechanical controls such as knobs or buttons).

本明細書及び特許請求の範囲で使用されるように、用語「触知出力」は、ユーザの触覚でユーザによって検出されることになる、デバイスの従前の位置に対するそのデバイスの物理的変位、デバイスの構成要素(例えば、タッチ感知面)の、そのデバイスの別の構成要素(例えば、筐体)に対する物理的変位、又は、デバイスの質量中心に対する構成要素の変位を指す。例えば、デバイス又はデバイスの構成要素が、タッチに敏感なユーザの表面(例えば、ユーザの手の指、手のひら、又は他の部分)に接触している状況では、物理的変位によって生成された触知出力は、そのデバイス又はデバイスの構成要素の物理的特性の認識される変化に相当する触感として、ユーザによって解釈されることになる。例えば、タッチ感知面(例えば、タッチ感知ディスプレイ又はトラックパッド)の移動は、ユーザによって、物理アクチュエータボタンの「ダウンクリック」又は「アップクリック」として、任意選択的に解釈される。いくつかの場合、ユーザの動作により物理的に押された(例えば、変位された)タッチ感知面に関連付けられた物理アクチュエータボタンの移動がないときでさえ、ユーザは「ダウンクリック」又は「アップクリック」などの触感を感じる。別の実施例として、タッチ感知面の移動は、タッチ感知面の平滑度に変化がない場合であっても、ユーザによって、そのタッチ感知面の「粗さ」として、任意選択的に解釈又は感知される。そのようなユーザによるタッチの解釈は、ユーザの個人的な感覚認知に左右されるが、大多数のユーザに共通する、多くのタッチの感覚認知が存在する。したがって、触知出力が、ユーザの特定の感覚認知(例えば、「アップクリック」「ダウンクリック」、「粗さ」)に対応するものと記述される場合、別途記載のない限り、生成された触知出力は、典型的な(又は、平均的な)ユーザの記述された感覚認知を生成するデバイス、又はデバイスの構成要素の物理的変位に対応する。 As used herein and in the claims, the term "tactile output" refers to a physical displacement of a device relative to a previous position of the device, a physical displacement of a component of the device (e.g., a touch-sensitive surface) relative to another component of the device (e.g., a housing), or a displacement of a component relative to the center of mass of the device, that is detected by a user with the user's sense of touch. For example, in a situation where a device or a component of a device is in contact with a touch-sensitive user surface (e.g., the fingers, palm, or other part of the user's hand), the tactile output generated by the physical displacement will be interpreted by the user as a tactile sensation corresponding to a perceived change in a physical characteristic of the device or a component of the device. For example, movement of a touch-sensitive surface (e.g., a touch-sensitive display or trackpad) is optionally interpreted by the user as a "down-click" or "up-click" of a physical actuator button. In some cases, the user feels a tactile sensation such as a "down-click" or "up-click" even when there is no movement of a physical actuator button associated with the touch-sensitive surface that is physically pressed (e.g., displaced) by the user's action. As another example, movement of the touch-sensitive surface is optionally interpreted or sensed by a user as "roughness" of the touch-sensitive surface, even when there is no change in the smoothness of the touch-sensitive surface. Such user interpretation of touch depends on the user's personal sensory perception, but there are many sensory perceptions of touch that are common to a majority of users. Thus, when a tactile output is described as corresponding to a particular sensory perception of a user (e.g., "up click," "down click," "roughness"), unless otherwise noted, the generated tactile output corresponds to a physical displacement of the device, or a component of the device, that produces the described sensory perception of a typical (or average) user.

デバイス100は、ポータブル多機能デバイスの一例に過ぎず、デバイス100は、任意選択的に、示されているものよりも多くの構成要素又は少ない構成要素を有するものであり、任意選択的に、2つ以上の構成要素を組み合わせるものであり、又は、任意選択的に、それらの構成要素の異なる構成若しくは配置を有するものであることを理解されたい。図1Aに示す様々な構成要素は、1つ以上の信号処理回路及び/又は特定用途向け集積回路を含む、ハードウェア、ソフトウェア、又はハードウェアとソフトウェアの両方の組み合わせで実施される。 It should be understood that device 100 is only one example of a portable multifunction device, and that device 100 may optionally have more or fewer components than those shown, may optionally combine two or more components, or may optionally have a different configuration or arrangement of its components. The various components shown in FIG. 1A may be implemented in hardware, software, or a combination of both hardware and software, including one or more signal processing circuits and/or application specific integrated circuits.

メモリ102は、任意選択的に、高速ランダムアクセスメモリを含み、また任意選択的に、1つ以上の磁気ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性ソリッドステートメモリデバイスなどの不揮発性メモリを含む。メモリコントローラ122は、任意選択的に、デバイス100の他の構成要素によるメモリ102へのアクセスを制御する。 Memory 102 optionally includes high-speed random access memory, and optionally includes non-volatile memory, such as one or more magnetic disk storage devices, flash memory devices, or other non-volatile solid-state memory devices. Memory controller 122 optionally controls access to memory 102 by other components of device 100.

周辺機器インタフェース118は、デバイスの入力及び出力周辺機器をCPU120及びメモリ102に結合するために使用することができる。1つ以上のプロセッサ120は、メモリ102に記憶された様々なソフトウェアプログラム及び/又は命令セットを動作させるか、又は実行して、デバイス100のための様々な機能を実行し、データを処理する。いくつかの実施形態では、周辺機器インタフェース118、CPU120、及びメモリコントローラ122は、任意選択的に、チップ104などの単一のチップ上で実装される。いくつかの他の実施形態では、それらは別々のチップ上に任意選択的に実装される。 The peripheral interface 118 can be used to couple input and output peripherals of the device to the CPU 120 and memory 102. The one or more processors 120 operate or execute various software programs and/or instruction sets stored in the memory 102 to perform various functions and process data for the device 100. In some embodiments, the peripheral interface 118, the CPU 120, and the memory controller 122 are optionally implemented on a single chip, such as the chip 104. In some other embodiments, they are optionally implemented on separate chips.

RF(radio frequency)(無線周波数)回路108は、電磁信号とも呼ばれるRF信号を送受信する。RF回路108は、電気信号を電磁信号に、又は電磁信号を電気信号に変換し、電磁信号を介して通信ネットワーク及び他の通信デバイスと通信する。RF回路108は、任意選択的に、これらの機能を実施するための周知の回路を含み、それらの回路としては、限定するものではないが、アンテナシステム、RF送受信機、1つ以上の増幅器、同調器、1つ以上の発振器、デジタル信号プロセッサ、CODECチップセット、加入者識別モジュール(subscriber identity module、SIM)カード、メモリなどが挙げられる。RF回路108は、任意選択的に、ワールドワイドウェブ(World Wide Web、WWW)とも呼ばれるインターネット、イントラネット、並びに/又はセルラー電話ネットワーク、無線ローカルエリアネットワーク(local area network、LAN)及び/若しくはメトロポリタンエリアネットワーク(metropolitan area network、MAN)などの無線ネットワークなどのネットワークと、また他のデバイスと、無線通信によって通信する。RF回路108は、任意選択的に、短距離通信無線機などによって近距離通信(near field communication、NFC)フィールドを検出するよく知られている回路を含む。無線通信は、任意選択的に、それだけに限定されるものではないが、移動通信用のグローバルシステム(Global System for Mobile Communications、GSM)、拡張データGSM環境(Enhanced Data GSM Environment、EDGE)、高速ダウンリンクパケットアクセス(high-speed downlink packet access、HSDPA)、高速アップリンクパケットアクセス(high-speed uplink packet access、HSUPA)、エボリューションデータオンリ(Evolution、Data-Only、EV-DO)、HSPA、HSPA+、デュアルセルHSPA(Dual-Cell HSPA、DC-HSPDA)、ロングタームエボリューション(long term evolution、LTE)、近距離通信(NFC)、広帯域符号分割多元接続(wideband code division multiple access、W-CDMA)、符号分割多元接続(code division multiple access、CDMA)、時分割多元接続(time division multiple access、TDMA)、Bluetooth(登録商標)、Bluetoothローエネルギ(Bluetooth Low Energy、BTLE(登録商標))、ワイヤレスフィデリティ(Wireless Fidelity、Wi-Fi(登録商標))(例えば、IEEE 802.11a、IEEE 802.11b、IEEE 802.11g、IEEE 802.11n、及び/若しくはIEEE 802.11ac)、ボイスオーバインターネットプロトコル(voice over Internet Protocol、VoIP)、Wi-MAX(登録商標)、電子メール用プロトコル(例えば、インターネットメッセージアクセスプロトコル(Internet message access protocol、IMAP)及び/若しくはポストオフィスプロトコル(post office protocol、POP))、インスタントメッセージング(例えば、拡張可能なメッセージング及びプレゼンスプロトコル(extensible messaging and presence protocol、XMPP)、インスタントメッセージング及びプレゼンスレベレイジングエクステンションのためのセッション開始プロトコル(Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions、SIMPLE)、インスタントメッセージング及びプレゼンスサービス(Instant Messaging and Presence Service、IMPS))、並びに/若しくはショートメッセージサービス(Short Message Service、SMS)、又は本明細書の出願日の時点でまだ開発されていない通信プロトコルを含む任意の他の適した通信プロトコルを含む、複数の通信規格、プロトコル、及び技術のうちのいずれかを使用する。 The radio frequency (RF) circuitry 108 transmits and receives RF signals, also called electromagnetic signals. The RF circuitry 108 converts electrical signals to electromagnetic signals or electromagnetic signals to electrical signals and communicates with communication networks and other communication devices via electromagnetic signals. The RF circuitry 108 optionally includes well-known circuits for performing these functions, including, but not limited to, an antenna system, an RF transceiver, one or more amplifiers, a tuner, one or more oscillators, a digital signal processor, a CODEC chipset, a subscriber identity module (SIM) card, a memory, and the like. The RF circuitry 108 optionally communicates with networks, such as the Internet, also called the World Wide Web (WWW), an intranet, and/or wireless networks, such as cellular telephone networks, wireless local area networks (LANs) and/or metropolitan area networks (MANs), and with other devices, by wireless communication. RF circuitry 108 optionally includes well-known circuitry for detecting a near field communication (NFC) field, such as by a short-range communication radio. The wireless communication is optionally, but not limited to, Global System for Mobile Communications (GSM), Enhanced Data GSM Environment (EDGE), high-speed downlink packet access (HSDPA), high-speed uplink packet access (HSUPA), Evolution, Data-Only (EV-DO), HSPA, HSPA+, Dual-Cell HSPA (DC-HSPADA), long term evolution (LTE), Near Field Communication (NFC), wideband code division multiple access (W-CDMA), code division multiple access (CDMA), time division multiple access (TDMA), Bluetooth, Bluetooth Low Energy (Bluetooth Low Energy), and the like. Wireless Fidelity (Wi-Fi) (e.g., IEEE 802.11a, IEEE 802.11b, IEEE 802.11g, IEEE 802.11n, and/or IEEE 802.11ac), voice over Internet Protocol (VoIP), Wi-MAX, protocols for email (e.g., Internet message access protocol (IMAP) and/or post office protocol (POP)), instant messaging (e.g., extensible messaging and presence protocol (XMPP), Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions (SIMPLE)), instant messaging and presence services (e.g., IEEE 802.11b, IEEE 802.11c, IEEE 802.11d, IEEE 802.11e, IEEE 802.11f, IEEE 802.11g, IEEE 802.11n, and/or IEEE 802.11ac), voice over Internet Protocol (VoIP), Wi-MAX, protocols for email (e.g., Internet message access protocol (IMAP) and/or post office protocol (POP)), instant messaging (e.g., extensible messaging and presence protocol (XMPP), Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions (SIMPLE)), instant messaging and presence services (e.g. ... The present invention uses any of a number of communication standards, protocols, and technologies, including the Intermediate Presence Service (IMPS), and/or the Short Message Service (SMS), or any other suitable communication protocol, including communication protocols not yet developed as of the filing date of this application.

オーディオ回路110、スピーカ111、及びマイクロフォン113は、ユーザとデバイス100との間のオーディオインタフェースを提供する。オーディオ回路110は、周辺機器インタフェース118からオーディオデータを受信し、このオーディオデータを電気信号に変換し、この電気信号をスピーカ111に送信する。スピーカ111は、電気信号を人間の可聴音波に変換する。また、オーディオ回路110は、マイクロフォン113によって音波から変換された電気信号を受信する。オーディオ回路110は、電気信号をオーディオデータに変換し、このオーディオデータを処理のために周辺機器インタフェース118に送信する。オーディオデータは、任意選択的に、周辺機器インタフェース118によって、メモリ102及び/若しくはRF回路108から取得され、かつ/又はメモリ102及び/若しくはRF回路108に送信される。いくつかの実施形態では、オーディオ回路110はまた、ヘッドセットジャック(例えば、図2の212)を含む。ヘッドセットジャックは、オーディオ回路110と、出力専用ヘッドホン又は出力(例えば片耳又は両耳用のヘッドホン)及び入力(例えばマイクロフォン)の両方を備えるヘッドセットなどの着脱可能なオーディオ入出力周辺機器との間のインタフェースを提供する。 The audio circuit 110, speaker 111, and microphone 113 provide an audio interface between the user and the device 100. The audio circuit 110 receives audio data from the peripheral interface 118, converts the audio data into an electrical signal, and transmits the electrical signal to the speaker 111. The speaker 111 converts the electrical signal into human audible sound waves. The audio circuit 110 also receives an electrical signal converted from sound waves by the microphone 113. The audio circuit 110 converts the electrical signal into audio data and transmits the audio data to the peripheral interface 118 for processing. The audio data is optionally obtained from and/or transmitted to the memory 102 and/or the RF circuit 108 by the peripheral interface 118. In some embodiments, the audio circuit 110 also includes a headset jack (e.g., 212 in FIG. 2). The headset jack provides an interface between the audio circuitry 110 and a detachable audio input/output peripheral, such as an output-only headphone or a headset with both an output (e.g., one-ear or binaural headphones) and an input (e.g., a microphone).

I/Oサブシステム106は、タッチスクリーン112及び他の入力コントロールデバイス116などのデバイス100上の入出力周辺機器を、周辺機器インタフェース118に結合する。I/Oサブシステム106は、任意選択的に、ディスプレイコントローラ156、光センサコントローラ158、深度カメラコントローラ169、強度センサコントローラ159、触覚フィードバックコントローラ161、及び、他の入力デバイス若しくは制御デバイス用の1つ以上の入力コントローラ160を含む。1つ以上の入力コントローラ160は、他の入力コントロールデバイス116からの電気信号の受信/他の入力コントロールデバイス116への電気信号の送信を行う。他の入力コントロールデバイス116は、任意選択的に、物理ボタン(例えば、プッシュボタン、ロッカボタンなど)、ダイヤル、スライダスイッチ、ジョイスティック、クリックホイールなどを含む。いくつかの代替的な実施形態では、入力コントローラ(単数又は複数)160は、任意選択的に、キーボード、赤外線ポート、USBポート、及びマウスなどのポインタデバイスのうちのいずれかに結合される(又はいずれにも結合されない)。1つ以上のボタン(例えば、図2の208)は、任意選択的に、スピーカ111及び/又はマイクロフォン113の音量コントロールのための上下ボタンを含む。1つ以上のボタンは、任意選択的に、プッシュボタン(例えば、図2の206)を含む。 The I/O subsystem 106 couples input/output peripherals on the device 100, such as the touch screen 112 and other input control devices 116, to the peripheral interface 118. The I/O subsystem 106 optionally includes a display controller 156, a light sensor controller 158, a depth camera controller 169, an intensity sensor controller 159, a haptic feedback controller 161, and one or more input controllers 160 for other input or control devices. The one or more input controllers 160 receive/send electrical signals from/to the other input control devices 116. The other input control devices 116 optionally include physical buttons (e.g., push buttons, rocker buttons, etc.), dials, slider switches, joysticks, click wheels, etc. In some alternative embodiments, the input controller(s) 160 are optionally coupled to any of (or none of) a keyboard, an infrared port, a USB port, and a pointer device such as a mouse. The one or more buttons (e.g., 208 in FIG. 2) optionally include up and down buttons for volume control of the speaker 111 and/or microphone 113. The one or more buttons optionally include a push button (e.g., 206 in FIG. 2).

全体として参照により本明細書に組み込まれている、2005年12月23日出願の米国特許出願第11/322,549号、「Unlocking a Device by Performing Gestures on an Unlock Image」、米国特許第7,657,849号に記載されているように、プッシュボタンの素早い押圧は、任意選択的に、タッチスクリーン112のロックを係合解除し、又は任意選択的に、タッチスクリーン上のジェスチャを使用してデバイスをアンロックするプロセスを開始する。プッシュボタン(例えば、206)のより長い押圧は、任意選択的に、デバイス100への電力をオン又はオフにする。ボタンのうちの1つ以上の機能性は、任意選択的に、ユーザによってカスタマイズ可能である。タッチスクリーン112は、仮想又はソフトボタン及び1つ以上のソフトキーボードを実装するために使用される。 A quick press of the push button optionally disengages the lock on the touch screen 112 or optionally initiates the process of unlocking the device using gestures on the touch screen, as described in U.S. Patent Application Serial No. 11/322,549, filed December 23, 2005, entitled "Unlocking a Device by Performing Gestures on an Unlock Image," U.S. Patent No. 7,657,849, which is incorporated herein by reference in its entirety. A longer press of the push button (e.g., 206) optionally turns power on or off to the device 100. The functionality of one or more of the buttons is optionally customizable by the user. The touch screen 112 is used to implement virtual or soft buttons and one or more soft keyboards.

タッチ感知ディスプレイ112は、デバイスとユーザとの間の入力インタフェース及び出力インタフェースを提供する。ディスプレイコントローラ156は、タッチスクリーン112からの電気信号の受信、及び/又はタッチスクリーン112への電気信号の送信を行う。タッチスクリーン112は、ユーザに対して視覚出力を表示する。この視覚出力は、グラフィック、テキスト、アイコン、ビデオ、及びそれらの任意の組み合わせ(総称して「グラフィック」)を任意選択的に含む。いくつかの実施形態では、視覚出力の一部又は全ては、任意選択的に、ユーザインタフェースオブジェクトに対応する。 The touch-sensitive display 112 provides an input and output interface between the device and a user. The display controller 156 receives and/or transmits electrical signals from and to the touchscreen 112. The touchscreen 112 displays visual output to the user. This visual output optionally includes graphics, text, icons, video, and any combination thereof (collectively "graphics"). In some embodiments, some or all of the visual output optionally corresponds to user interface objects.

タッチスクリーン112は、触覚及び/又は触知接触に基づくユーザからの入力を受け入れるタッチ感知面、センサ、又はセンサのセットを有する。タッチスクリーン112及びディスプレイコントローラ156は(メモリ102内の任意の関連モジュール及び/又は命令セットとともに)、タッチスクリーン112上で接触(及び任意の接触の移動又は中断)を検出し、検出された接触をタッチスクリーン112上に表示されたユーザインタフェースオブジェクト(例えば、1つ以上のソフトキー、アイコン、ウェブページ又は画像)との対話に変換する。例示的な実施形態では、タッチスクリーン112とユーザとの間の接触点は、ユーザの指に対応する。 Touchscreen 112 has a touch-sensitive surface, sensor, or set of sensors that accepts input from a user based on haptic and/or tactile contact. Touchscreen 112 and display controller 156 (along with any associated modules and/or instruction sets in memory 102) detects contacts (and any movement or breaking of contacts) on touchscreen 112 and translates the detected contacts into interactions with user interface objects (e.g., one or more soft keys, icons, web pages, or images) displayed on touchscreen 112. In an exemplary embodiment, the point of contact between touchscreen 112 and the user corresponds to the user's finger.

タッチスクリーン112は、任意選択的に、LCD(液晶ディスプレイ)技術、LPD(発光ポリマーディスプレイ)技術、又はLED(発光ダイオード)技術を使用するが、他の実施形態では、他のディスプレイ技術も使用される。タッチスクリーン112及びディスプレイコントローラ156は、任意選択的に、それだけに限定されるものではないが、容量性、抵抗性、赤外線、及び表面音波の技術、並びにタッチスクリーン112との1つ以上の接触点を判定する他の近接センサアレイ又は他の要素を含む、現在知られている又は今後開発される複数のタッチ感知技術のうちのいずれかを使用して、接触及びそのあらゆる動き又は中断を検出する。例示的な実施形態では、カリフォルニア州クパチーノのApple Inc.からのiPhone(登録商標)及びiPod Touch(登録商標)に見られるものなどの、投影型相互静電容量感知技術が使用される。 Touch screen 112 optionally uses LCD (liquid crystal display), LPD (light emitting polymer display), or LED (light emitting diode) technology, although other display technologies are used in other embodiments. Touch screen 112 and display controller 156 optionally detect contact and any movement or interruption thereof using any of a number of touch sensing technologies now known or later developed, including, but not limited to, capacitive, resistive, infrared, and surface acoustic wave technologies, as well as other proximity sensor arrays or other elements that determine one or more points of contact with touch screen 112. In an exemplary embodiment, projected mutual capacitance sensing technology is used, such as that found in the iPhone® and iPod Touch® from Apple Inc. of Cupertino, Calif.

タッチスクリーン112のいくつかの実施形態におけるタッチ感知ディスプレイは、任意選択的に、それぞれ全体として参照により本明細書に組み込まれている、米国特許第6,323,846号(Westermanら)、第6,570,557号(Westermanら)、及び/若しくは第6,677,932号(Westerman)、並びに/又は米国特許公報第2002/0015024(A1)号という米国特許に記載されているマルチタッチ感知タッチパッドに類似している。しかし、タッチスクリーン112はデバイス100からの視覚出力を表示するのに対して、タッチ感知タッチパッドは視覚出力を提供しない。 The touch-sensitive display in some embodiments of touchscreen 112 is optionally similar to the multi-touch-sensing touchpad described in U.S. Patents 6,323,846 (Westerman et al.), 6,570,557 (Westerman et al.), and/or 6,677,932 (Westerman), and/or U.S. Patent Publication No. 2002/0015024(A1), each of which is incorporated herein by reference in its entirety. However, whereas touchscreen 112 displays visual output from device 100, a touch-sensitive touchpad does not provide visual output.

タッチスクリーン112のいくつかの実施形態におけるタッチ感知ディスプレイは、(1)2006年5月2日出願の米国特許出願第11/381,313号、「Multipoint Touch Surface Controller」、(2)2004年5月6日出願の米国特許出願第10/840,862号、「Multipoint Touchscreen」、(3)2004年7月30日出願の米国特許出願第10/903,964号、「Gestures For Touch Sensitive Input Devices」、(4)2005年1月31日出願の米国特許出願第11/048,264号、「Gestures For Touch Sensitive Input Devices」、(5)2005年1月18日出願の米国特許出願第11/038,590号、「Mode-Based Graphical User Interfaces For Touch Sensitive Input Devices」、(6)2005年9月16日出願の米国特許出願第11/228,758号、「Virtual Input Device Placement On A Touch Screen User Interface」、(7)2005年9月16日出願の米国特許出願第11/228,700号、「Operation Of A Computer With A Touch Screen Interface」、(8)2005年9月16日出願の米国特許出願第11/228,737号、「Activating Virtual Keys Of A Touch-Screen Virtual Keyboard」、及び(9)2006年3月3日出願の米国特許出願第11/367,749号、「Multi-Functional Hand-Held Device」という出願に記載されている。これらの出願は全て、全体として参照により本明細書に組み込まれている。 The touch-sensitive display in some embodiments of the touch screen 112 is disclosed in U.S. Patent Application No. 11/381,313, filed May 2, 2006, entitled "Multipoint Touch Surface Controller," (2) U.S. Patent Application No. 10/840,862, filed May 6, 2004, entitled "Multipoint Touchscreen," (3) U.S. Patent Application No. 10/903,964, filed July 30, 2004, entitled "Gestures For Touch Sensitive Input Devices," and (4) U.S. Patent Application No. 11/048,264, filed January 31, 2005, entitled "Gestures For Touch Sensitive Input Devices." "Mode-Based Graphical User Interfaces For Touch Sensitive Input Devices", (5) U.S. Patent Application No. 11/038,590, filed January 18, 2005, "Mode-Based Graphical User Interfaces For Touch Sensitive Input Devices", (6) U.S. Patent Application No. 11/228,758, filed September 16, 2005, "Virtual Input Device Placement On A Touch Screen User Interface", (7) U.S. Patent Application No. 11/228,700, filed September 16, 2005, "Operation Of A Computer With A Touch (8) U.S. Patent Application No. 11/228,737, filed September 16, 2005, entitled "Activating Virtual Keys Of A Touch-Screen Virtual Keyboard," and (9) U.S. Patent Application No. 11/367,749, filed March 3, 2006, entitled "Multi-Functional Hand-Held Device." All of these applications are incorporated herein by reference in their entirety.

タッチスクリーン112は、任意選択的に、100dpiを超えるビデオ解像度を有する。いくつかの実施形態では、タッチスクリーンは、約160dpiのビデオ解像度を有する。ユーザは、任意選択的に、スタイラス、指などの任意の適したオブジェクト又は付属物を使用して、タッチスクリーン112に接触する。いくつかの実施形態では、ユーザインタフェースは、指ベースの接触及びジェスチャを主に扱うように設計されるが、これは、タッチスクリーン上の指の接触面積がより大きいため、スタイラスベースの入力ほど精密でない可能性がある。いくつかの実施形態では、デバイスは、指による粗い入力を、ユーザによって所望されているアクションを実行するための、正確なポインタ/カーソルの位置又はコマンドに変換する。 The touch screen 112 optionally has a video resolution of more than 100 dpi. In some embodiments, the touch screen has a video resolution of about 160 dpi. The user optionally contacts the touch screen 112 using any suitable object or attachment, such as a stylus, finger, etc. In some embodiments, the user interface is designed to primarily handle finger-based contacts and gestures, which may not be as precise as stylus-based input due to the larger contact area of a finger on the touch screen. In some embodiments, the device translates the rough finger input into precise pointer/cursor positions or commands to perform the action desired by the user.

いくつかの実施形態では、タッチスクリーンに加えて、デバイス100は、任意選択的に、特定の機能をアクティブ化又は非アクティブ化するためのタッチパッドを含む。いくつかの実施形態では、タッチパッドは、タッチスクリーンとは異なり、視覚出力を表示しない、デバイスのタッチ感知エリアである。タッチパッドは、任意選択的に、タッチスクリーン112又はタッチスクリーンによって形成されるタッチ感知面の拡張部とは別個のタッチ感知面である。 In some embodiments, in addition to the touchscreen, device 100 optionally includes a touchpad for activating or deactivating certain functions. In some embodiments, the touchpad is a touch-sensitive area of the device that, unlike the touchscreen, does not display visual output. The touchpad is optionally a touch-sensitive surface that is separate from touchscreen 112 or an extension of the touch-sensitive surface formed by the touchscreen.

デバイス100は、様々な構成要素に電力を供給する電力システム162も含む。電力システム162は、任意選択的に、電力管理システム、1つ以上の電源(例えば、バッテリ、交流(AC))、再充電システム、停電検出回路、電力コンバータ又はインバータ、電力状態インジケータ(例えば、発光ダイオード(LED))、並びにポータブルデバイス内での電力の生成、管理、及び分配に関連付けられた任意の他の構成要素を含む。 The device 100 also includes a power system 162 that provides power to the various components. The power system 162 optionally includes a power management system, one or more power sources (e.g., battery, alternating current (AC)), a recharging system, power outage detection circuitry, power converters or inverters, power status indicators (e.g., light emitting diodes (LEDs)), and any other components associated with the generation, management, and distribution of power within the portable device.

また、デバイス100は、任意選択的に、1つ以上の光センサ164を含む。図1Aは、I/Oサブシステム106内の光センサコントローラ158に結合された光センサを示す。光センサ164は、任意選択的に、電荷結合デバイス(charge-coupled device、CCD)又は相補的金属酸化物半導体(complementary metal-oxide semiconductor、CMOS)フォトトランジスタを含む。光センサ164は、1つ以上のレンズを通って投影された環境からの光を受信し、その光を、画像を表すデータに変換する。光センサ164は、撮像モジュール143(カメラモジュールとも呼ばれる)と連動して、任意選択的に、静止画像又はビデオをキャプチャする。いくつかの実施形態では、光センサは、デバイスの前面にあるタッチスクリーンディスプレイ112とは反対に、デバイス100の裏面に配置され、したがってタッチスクリーンディスプレイは、静止画像及び/又はビデオ画像の取得のためのビューファインダとして使用することが有効である。いくつかの実施形態では、光センサは、デバイスの前面に配置され、したがってユーザの画像が、任意選択的に、テレビ会議のために入手され、ユーザは、他のテレビ会議参加者をタッチスクリーンディスプレイ上で見る。いくつかの実施形態では、光センサ164の位置は、ユーザによって(例えば、デバイスハウジング内でレンズ及びセンサを回転させることによって)変更することができ、したがって単一の光センサ164が、タッチスクリーンディスプレイとともに、テレビ会議にも静止画像及び/又はビデオ画像の取得にも使用される。 Device 100 also optionally includes one or more light sensors 164. FIG. 1A shows a light sensor coupled to light sensor controller 158 in I/O subsystem 106. Light sensor 164 optionally includes a charge-coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS) phototransistor. Light sensor 164 receives light from the environment projected through one or more lenses and converts the light into data representing an image. Light sensor 164 optionally works in conjunction with imaging module 143 (also called a camera module) to capture still images or video. In some embodiments, the light sensor is located on the back of device 100 as opposed to touchscreen display 112 on the front of the device, so that the touchscreen display is effective for use as a viewfinder for capturing still and/or video images. In some embodiments, the light sensor is located on the front of the device, so that an image of the user is optionally obtained for video conferencing, and the user sees other video conferencing participants on the touchscreen display. In some embodiments, the position of the light sensor 164 can be changed by the user (e.g., by rotating the lens and sensor within the device housing), so that a single light sensor 164 is used for both videoconferencing and still and/or video image capture, along with a touch screen display.

デバイス100はまた、任意選択的に、1つ以上の深度カメラセンサ175を含む。図1Aは、I/Oサブシステム106内の深度カメラコントローラ169に結合された深度カメラセンサを示す。深度カメラセンサ175は、環境からデータを受信して、視点(例えば、深度カメラセンサ)からのシーン内のオブジェクト(例えば、顔面)の3次元モデルを作成する。いくつかの実施形態では、撮像モジュール143(カメラモジュールとも呼ばれる)と連携して、深度カメラセンサ175は、任意選択的に、撮像モジュール143によってキャプチャされた画像の異なる部分の深度マップを決定するために使用される。いくつかの実施形態では、ユーザが他のテレビ会議参加者をタッチスクリーンディスプレイ上で見ている間に、深度情報を有するユーザの画像が、任意選択的に、テレビ会議のために取得されるように、及び、深度マップデータを有する自撮り画像をキャプチャするように、デバイス100の前面に深度カメラセンサが配置されている。いくつかの実施形態では、深度カメラセンサ175は、デバイスの背面に、あるいはデバイス100の背面及び前面に配置されている。いくつかの実施形態では、深度カメラセンサ175の位置は、ユーザによって(例えば、デバイスハウジング内でレンズ及びセンサを回転させることによって)変更することができ、したがって深度カメラセンサ175が、タッチスクリーンディスプレイとともに、テレビ会議にも静止画像及び/又はビデオ画像の取得にも使用される。 Device 100 also optionally includes one or more depth camera sensors 175. FIG. 1A shows a depth camera sensor coupled to depth camera controller 169 in I/O subsystem 106. Depth camera sensor 175 receives data from the environment to create a three-dimensional model of an object (e.g., a face) in a scene from a viewpoint (e.g., depth camera sensor). In some embodiments, in conjunction with imaging module 143 (also called camera module), depth camera sensor 175 is optionally used to determine a depth map of different portions of an image captured by imaging module 143. In some embodiments, a depth camera sensor is located on the front of device 100 so that an image of the user with depth information is optionally obtained for a video conference and to capture a selfie image with depth map data while the user is viewing other video conference participants on a touch screen display. In some embodiments, depth camera sensor 175 is located on the back of the device, or on the back and front of device 100. In some embodiments, the position of the depth camera sensor 175 can be changed by the user (e.g., by rotating the lens and sensor within the device housing), so that the depth camera sensor 175 is used for both videoconferencing and capturing still and/or video images in conjunction with a touch screen display.

いくつかの実施形態では、深度マップ(例えば、深度マップ画像)は、視点(例えば、カメラ、光センサ、深度カメラセンサ)からのシーン内のオブジェクトの距離に関する情報(例えば、値)を含む。深度マップの一実施形態では、各深度ピクセルは、その対応する2次元ピクセルが配置されている、その視点のZ軸における位置を定義するものである。いくつかの実施形態では、深度マップはピクセルで構成されており、各ピクセルは、値(例えば、0~255)によって定義される。例えば、値「0」は、「3次元」シーン内で最も遠い場所に配置されているピクセルを表し、値「255」は、その「3次元」シーン内で視点(例えば、カメラ、光センサ、深度カメラセンサ)の最も近くに配置されているピクセルを表す。他の実施形態では、深度マップは、シーン内のオブジェクトと視点の平面との間の距離を表す。いくつかの実施形態では、深度マップは、深度カメラから見た、対象オブジェクトの様々な特徴部の相対深度(例えば、ユーザの顔面の目、鼻、口、耳の相対深度)に関する情報を含む。いくつかの実施形態では、深度マップは、z方向での対象オブジェクトの輪郭をデバイスが決定することを可能にする、情報を含む。 In some embodiments, a depth map (e.g., a depth map image) contains information (e.g., values) about the distance of objects in a scene from a viewpoint (e.g., a camera, light sensor, depth camera sensor). In one embodiment of a depth map, each depth pixel defines a position in the z-axis of the viewpoint where its corresponding two-dimensional pixel is located. In some embodiments, a depth map is made up of pixels, each pixel defined by a value (e.g., 0-255). For example, a value of "0" represents a pixel located furthest in a "3D" scene, and a value of "255" represents a pixel located closest to the viewpoint (e.g., a camera, light sensor, depth camera sensor) in the "3D" scene. In other embodiments, a depth map represents a distance between an object in a scene and the plane of the viewpoint. In some embodiments, a depth map contains information about the relative depth of various features of a target object as seen by a depth camera (e.g., the relative depth of the eyes, nose, mouth, and ears on a user's face). In some embodiments, a depth map contains information that allows a device to determine the contour of a target object in the z-direction.

デバイス100は、任意選択的に、1つ以上の接触強度センサ165も含む。図1Aは、I/Oサブシステム106内の強度センサコントローラ159に結合された接触強度センサを示す。接触強度センサ165は、1つ以上のピエゾ抵抗ひずみゲージ、電気容量式力センサ、電気力センサ、圧電力センサ、光学力センサ、容量式タッチ感知面、又は他の強度センサ(例えば、タッチ感知面上の接触の力(又は圧力)を測定するために使用するセンサ)を、任意選択的に含む。接触強度センサ165は、接触強度情報(例えば、圧力情報、又は圧力情報に対するプロキシ)を環境から受信する。いくつかの実施形態では、少なくとも1つの接触強度センサは、タッチ感知面(例えばタッチ感知ディスプレイシステム112)と並置される、又はそれに近接される。いくつかの実施形態では、少なくとも1つの接触強度センサが、デバイス100の前面に配置されたタッチスクリーンディスプレイ112の反対側である、デバイス100の背面に配置されている。 Device 100 also optionally includes one or more contact intensity sensors 165. FIG. 1A shows a contact intensity sensor coupled to intensity sensor controller 159 in I/O subsystem 106. Contact intensity sensor 165 optionally includes one or more piezoresistive strain gauges, capacitive force sensors, electrical force sensors, piezoelectric force sensors, optical force sensors, capacitive touch-sensitive surfaces, or other intensity sensors (e.g., sensors used to measure the force (or pressure) of a contact on a touch-sensitive surface). Contact intensity sensor 165 receives contact intensity information (e.g., pressure information, or a proxy for pressure information) from the environment. In some embodiments, at least one contact intensity sensor is juxtaposed with or proxied to a touch-sensitive surface (e.g., touch-sensitive display system 112). In some embodiments, at least one contact intensity sensor is located on the back of device 100, opposite touch screen display 112, which is located on the front of device 100.

また、デバイス100は、任意選択的に、1つ以上の近接センサ166を含む。図1Aは、周辺機器インタフェース118に結合された近接センサ166を示す。代わりに、近接センサ166は、任意選択的に、I/Oサブシステム106内の入力コントローラ160に結合される。近接センサ166は、任意選択的に、全体として参照により本明細書に組み込まれている、米国特許出願第11/241,839号、「Proximity Detector In Handheld Device」、第11/240,788号、「Proximity Detector In Handheld Device」、第11/620,702号、「Using Ambient Light Sensor To Augment Proximity Sensor Output」、第11/586,862号、「Automated Response To And Sensing Of User Activity In Portable Devices」、及び同第11/638,251号、「Methods And Systems For Automatic Configuration Of Peripherals」で説明されるように機能するものであり、これらの出願は、全体が参照により本明細書に組み込まれる。いくつかの実施形態では、多機能デバイスが、ユーザの耳の近くに配置される場合(例えば、ユーザが電話通話を行っている場合)、近接センサは、タッチスクリーン112をオフにして無効化する。 Device 100 also optionally includes one or more proximity sensors 166. Figure 1A shows proximity sensor 166 coupled to peripherals interface 118. Alternatively, proximity sensor 166 is optionally coupled to input controller 160 within I/O subsystem 106. The proximity sensor 166 may optionally be a proximity sensor as described in U.S. patent application Ser. No. 11/241,839, entitled "Proximity Detector In Handheld Device," Ser. No. 11/240,788, entitled "Proximity Detector In Handheld Device," Ser. No. 11/620,702, entitled "Using Ambient Light Sensor To Augment Proximity Sensor Output," and Ser. No. 11/586,862, entitled "Automated Response To And Sensing Of User Activity In Portable Wireless Device," all of which are incorporated by reference herein in their entireties. No. 11/638,251, "Methods And Systems For Automatic Configuration Of Peripherals," which applications are incorporated herein by reference in their entireties. In some embodiments, when the multifunction device is placed near the user's ear (e.g., when the user is on a phone call), the proximity sensor turns off and disables the touch screen 112.

デバイス100はまた、任意選択的に、1つ以上の触知出力生成器167を含む。図1Aは、I/Oサブシステム106内の触覚フィードバックコントローラ161に結合された触知出力生成器を示す。触知出力生成器167は、任意選択的に、スピーカ若しくは他のオーディオ構成要素などの1つ以上の電気音響デバイス、及び/又はモータ、ソレノイド、電気活性ポリマー、圧電アクチュエータ、静電アクチュエータ、若しくは他の触知出力生成構成要素(例えば、デバイス上で電気信号を触知出力に変換する構成要素)などのエネルギを直線の動きに変換する電気機械デバイスを含む。接触強度センサ165は、触覚フィードバックモジュール133から触知フィードバック生成命令を受信し、デバイス100のユーザが感知することが可能な触知出力をデバイス100上に生成する。いくつかの実施形態では、少なくとも1つの触知出力生成器は、タッチ感知面(例えば、タッチ感知ディスプレイシステム112)に配置されていると並置されている、又はそれに近接されており、任意選択的に、タッチ感知面を垂直方向(例えば、デバイス100の表面の内/外)に、又は水平方向(例えば、デバイス100の表面と同じ平面内の前後)に動かすことによって、触知出力を生成する。いくつかの実施形態では、少なくとも1つの触知出力生成器センサが、デバイス100の前面に配置されたタッチスクリーンディスプレイ112の反対側である、デバイス100の背面に配置されている。 Device 100 also optionally includes one or more tactile output generators 167. FIG. 1A shows a tactile output generator coupled to tactile feedback controller 161 in I/O subsystem 106. Tactile output generator 167 optionally includes one or more electroacoustic devices, such as speakers or other audio components, and/or electromechanical devices that convert energy into linear motion, such as motors, solenoids, electroactive polymers, piezoelectric actuators, electrostatic actuators, or other tactile output generating components (e.g., components that convert electrical signals into tactile output on the device). Contact intensity sensor 165 receives tactile feedback generation commands from tactile feedback module 133 and generates a tactile output on device 100 that can be sensed by a user of device 100. In some embodiments, at least one tactile output generator is juxtaposed to or proximate to a touch-sensitive surface (e.g., touch-sensitive display system 112) and optionally generates a tactile output by moving the touch-sensitive surface vertically (e.g., in/out of the surface of device 100) or horizontally (e.g., back and forth in the same plane as the surface of device 100). In some embodiments, at least one tactile output generator sensor is located on the back of device 100, opposite touch screen display 112 located on the front of device 100.

また、デバイス100は、任意選択的に、1つ以上の加速度計168を含む。図1Aは、周辺機器インタフェース118に結合された加速度計168を示す。代わりに、加速度計168は、任意選択的に、I/Oサブシステム106内の入力コントローラ160に結合される。加速度計168は、任意選択的に、どちらも全体として参照により本明細書に組み込まれている、米国特許公開第20050190059号、「Acceleration-based Theft Detection System for Portable Electronic Devices」、及び米国特許公開第20060017692号、「Methods And Apparatuses For Operating A Portable Device Based On An Accelerometer」に記載されているように機能する。いくつかの実施形態では、情報は、1つ以上の加速度計から受信したデータの分析に基づいて、ポートレートビュー又はランドスケープビューでタッチスクリーンディスプレイ上に表示される。デバイス100は、加速度計(単数又は複数)168に加えて、磁気計並びにデバイス100の位置及び向き(例えば、縦方向又は横方向)に関する情報を取得するためのGPS(又はGLONASS又は他のグローバルナビゲーションシステム)受信機を任意選択的に含む。 Device 100 also optionally includes one or more accelerometers 168. Figure 1A shows accelerometer 168 coupled to peripherals interface 118. Alternatively, accelerometer 168 is optionally coupled to input controller 160 within I/O subsystem 106. The accelerometer 168 optionally functions as described in U.S. Patent Publication No. 20050190059, "Acceleration-based Theft Detection System for Portable Electronic Devices," and U.S. Patent Publication No. 20060017692, "Methods And Apparatuses For Operating A Portable Device Based On An Accelerometer," both of which are incorporated by reference herein in their entireties. In some embodiments, information is displayed on the touch screen display in portrait or landscape view based on analysis of data received from one or more accelerometers. In addition to accelerometer(s) 168, device 100 optionally includes a magnetometer and a GPS (or GLONASS or other global navigation system) receiver for obtaining information regarding the location and orientation (e.g., vertical or horizontal) of device 100.

いくつかの実施形態では、メモリ102内に記憶されているソフトウェア構成要素は、オペレーティングシステム126、通信モジュール(又は命令セット)128、接触/動きモジュール(又は命令セット)130、グラフィックモジュール(又は命令セット)132、テキスト入力モジュール(又は命令セット)134、全地球測位システム(Global Positioning System、GPS)モジュール(又は命令セット)135、及びアプリケーション(又は命令セット)136を含む。更に、いくつかの実施形態では、メモリ102(図1A)又は370(図3)は、図1A及び図3に示すように、デバイス/グローバル内部状態157を記憶する。デバイス/グローバル内部状態157は、現在アクティブ状態のアプリケーションがある場合に、どのアプリケーションがアクティブであるかを示すアクティブアプリケーション状態、どのアプリケーション、ビュー、又は他の情報がタッチスクリーンディスプレイ112の様々な領域を占めているかを示す表示状態、デバイスの様々なセンサ及び入力コントロールデバイス116から取得した情報を含むセンサ状態、並びにデバイスの位置及び/又は姿勢に関する位置情報、のうちの1つ以上を含む。 In some embodiments, the software components stored in memory 102 include an operating system 126, a communication module (or instruction set) 128, a touch/motion module (or instruction set) 130, a graphics module (or instruction set) 132, a text input module (or instruction set) 134, a Global Positioning System (GPS) module (or instruction set) 135, and an application (or instruction set) 136. Additionally, in some embodiments, memory 102 (FIG. 1A) or 370 (FIG. 3) stores device/global internal state 157, as shown in FIGS. 1A and 3. Device/global internal state 157 includes one or more of: active application state, which indicates which applications, if any, are currently active; display state, which indicates which applications, views, or other information occupy various regions of touchscreen display 112; sensor state, which includes information obtained from various sensors and input control devices 116 of the device; and position information regarding the position and/or orientation of the device.

オペレーティングシステム126(例えば、Darwin(登録商標)、RTXC(登録商標)、LINUX(登録商標)、UNIX(登録商標)、OS X(登録商標)、iOS(登録商標)、WINDOWS(登録商標)、又はVxWorks(登録商標)などの組み込み型オペレーティングシステム)は、通常のシステムタスク(例えば、メモリ管理、記憶デバイスの制御、電力管理など)を制御及び管理する様々なソフトウェア構成要素及び/又はドライバを含み、様々なハードウェア構成要素とソフトウェア構成要素との間の通信を容易にする。 Operating system 126 (e.g., Darwin®, RTXC®, LINUX®, UNIX®, OS X®, iOS®, WINDOWS®, or an embedded operating system such as VxWorks®) includes various software components and/or drivers that control and manage typical system tasks (e.g., memory management, storage device control, power management, etc.) and facilitate communication between various hardware and software components.

通信モジュール128は、1つ以上の外部ポート124を介して他のデバイスとの通信を容易にし、RF回路108及び/又は外部ポート124が受信したデータを処理するための様々なソフトウェア構成要素をも含む。外部ポート124(例えばユニバーサルシリアルバス(Universal Serial Bus、USB)、FIREWIRE(登録商標)など)は、直接的に、又はネットワーク(例えばインターネット、無線LANなど)を介して間接的に、他のデバイスに連結するように適合されている。いくつかの実施形態では、外部ポートは、iPod(登録商標)(Apple Inc.の商標)デバイス上で使用される30ピンコネクタと同じ若しくは類似であり、かつ/又はそれに適合しているマルチピン(例えば、30ピン)コネクタである。The communications module 128 also includes various software components for facilitating communication with other devices via one or more external ports 124 and for processing data received by the RF circuitry 108 and/or the external ports 124. The external ports 124 (e.g., Universal Serial Bus (USB), FIREWIRE, etc.) are adapted to couple to other devices directly or indirectly via a network (e.g., the Internet, wireless LAN, etc.). In some embodiments, the external ports are multi-pin (e.g., 30-pin) connectors that are the same as or similar to and/or compatible with the 30-pin connector used on iPod (trademark of Apple Inc.) devices.

接触/動きモジュール130は、任意選択的に、タッチスクリーン112(ディスプレイコントローラ156と連動して)及び他のタッチ感知デバイス(例えば、タッチパッド又は物理クリックホイール)との接触を検出する。接触/動きモジュール130は、接触が生じたか否かを判定すること(例えば、指を下ろすイベントを検出すること)、接触の強度(例えば、接触の力若しくは圧力、又は接触の力若しくは圧力の代替物)を判定すること、接触の移動が存在するか否かを判定し、タッチ感知面を横断する移動を追跡すること(例えば、指をドラッグする1つ以上のイベントを検出すること)、及び接触が停止したか否かを判定すること(例えば、指を上げるイベント又は接触の中断を検出すること)などの、接触の検出に関する様々な動作を実行するための、様々なソフトウェア構成要素を含む。接触/動きモジュール130は、タッチ感知面から接触データを受信する。一連の接触データによって表される、接触点の移動を判定することは、任意選択的に、接触点の速さ(大きさ)、速度(大きさ及び方向)、並びに/又は加速度(大きさ及び/又は方向の変化)を判定することを含む。これらの動作は、任意選択的に、単一の接触(例えば、1本の指の接触)又は複数の同時接触(例えば、「マルチタッチ」/複数の指の接触)に適用される。いくつかの実施形態では、接触/動きモジュール130及びディスプレイコントローラ156は、タッチパッド上の接触を検出する。 Contact/motion module 130 optionally detects contact with touch screen 112 (in conjunction with display controller 156) and other touch-sensing devices (e.g., a touchpad or physical click wheel). Contact/motion module 130 includes various software components for performing various operations related to contact detection, such as determining whether contact has occurred (e.g., detecting a finger down event), determining the strength of the contact (e.g., the force or pressure of the contact, or a surrogate for the force or pressure of the contact), determining whether there is movement of the contact and tracking the movement across the touch-sensitive surface (e.g., detecting one or more finger drag events), and determining whether the contact has stopped (e.g., detecting a finger up event or an interruption of the contact). Contact/motion module 130 receives contact data from the touch-sensitive surface. Determining the movement of the contact, as represented by the series of contact data, optionally includes determining the speed (magnitude), velocity (magnitude and direction), and/or acceleration (change in magnitude and/or direction) of the contact. These actions are optionally applied to a single contact (e.g., one finger contact) or multiple simultaneous contacts (e.g., "multi-touch"/multiple finger contacts). In some embodiments, contact/motion module 130 and display controller 156 detect contacts on a touchpad.

いくつかの実施形態では、接触/動きモジュール130は、ユーザによって動作が実行されたか否かを判定するための(例えば、ユーザがアイコン上で「クリック」したか否かを判定するための)、1組の1つ以上の強度閾値を使用する。いくつかの実施形態では、強度閾値の少なくともサブセットが、ソフトウェアパラメータに従って判定される(例えば、強度閾値は、特定の物理アクチュエータのアクティブ化閾値によって判定されるのではなく、デバイス100の物理ハードウェアを変化させることなく調整することができる)。例えば、トラックパッド又はタッチスクリーンディスプレイのマウス「クリック」閾値は、トラックパッド又はタッチスクリーンディスプレイハードウェアを変化させることなく、広範囲の既定閾値のうちのいずれかに設定することができる。加えて、いくつかの実装形態では、デバイスのユーザは、強度閾値のセットのうちの1つ以上を調整するソフトウェア設定が提供される(例えば、システムレベルのクリック「強度」パラメータによって、個々の強度閾値を調整すること、及び/又は複数の強度閾値を一度に調整することによる)。 In some embodiments, the contact/motion module 130 uses a set of one or more intensity thresholds to determine whether an action has been performed by the user (e.g., to determine whether the user has "clicked" on an icon). In some embodiments, at least a subset of the intensity thresholds are determined according to software parameters (e.g., the intensity thresholds are not determined by the activation thresholds of a particular physical actuator, but can be adjusted without changing the physical hardware of the device 100). For example, the mouse "click" threshold of a trackpad or touchscreen display can be set to any of a wide range of predefined thresholds without changing the trackpad or touchscreen display hardware. Additionally, in some implementations, a user of the device is provided with a software setting to adjust one or more of the set of intensity thresholds (e.g., by adjusting individual intensity thresholds and/or multiple intensity thresholds at once via a system-level click "intensity" parameter).

接触/動きモジュール130は、任意選択的に、ユーザによるジェスチャ入力を検出する。タッチ感知面上の異なるジェスチャは、異なる接触パターンを有する(例えば検出される接触の動き、タイミング、及び/又は強度が異なる)。したがって、ジェスチャは、任意選択的に、特定の接触パターンを検出することによって検出される。例えば、指タップジェスチャを検出することは、指ダウンイベントを検出し、それに続いて指ダウンイベントと同じ位置(又は実質的に同じ位置)(例えば、アイコンの位置)で指アップ(リフトオフ)イベントを検出することを含む。別の実施例として、タッチ感知面上で指スワイプジェスチャを検出することは、指ダウンイベントを検出し、それに続いて1つ以上の指ドラッグイベントを検出し、その後それに続いて指アップ(リフトオフ)イベントを検出することを含む。 Contact/motion module 130 optionally detects gesture input by a user. Different gestures on a touch-sensitive surface have different contact patterns (e.g., different movements, timing, and/or strength of detected contacts). Thus, gestures are optionally detected by detecting a particular contact pattern. For example, detecting a finger tap gesture includes detecting a finger down event, followed by detecting a finger up (lift off) event at the same location (or substantially the same location) as the finger down event (e.g., at the location of an icon). As another example, detecting a finger swipe gesture on a touch-sensitive surface includes detecting a finger down event, followed by detecting one or more finger drag events, followed by detecting a finger up (lift off) event.

グラフィックモジュール132は、表示されるグラフィックの視覚的効果(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚特性)を変更するための構成要素を含めた、タッチスクリーン112又は他のディスプレイ上にグラフィックをレンダリングして表示するための、様々な既知のソフトウェア構成要素を含む。本明細書では、「グラフィック」という用語は、それだけに限定されるものではないが、文字、ウェブページ、アイコン(ソフトキーを含むユーザインタフェースオブジェクトなど)、デジタル画像、ビデオ、アニメーションなどを含む、ユーザに表示することができる任意のオブジェクトを含む。 Graphics module 132 includes various known software components for rendering and displaying graphics on touch screen 112 or other display, including components for modifying the visual effects (e.g., brightness, transparency, saturation, contrast, or other visual characteristics) of the displayed graphics. As used herein, the term "graphics" includes any object that can be displayed to a user, including, but not limited to, characters, web pages, icons (such as user interface objects including soft keys), digital images, videos, animations, etc.

いくつかの実施形態では、グラフィックモジュール132は、使用されることになるグラフィックを表すデータを記憶する。各グラフィックには、任意選択的に、対応するコードが割り当てられる。グラフィックモジュール132は、アプリケーションなどから、必要に応じて、座標データ及び他のグラフィック特性データとともに、表示されることとなるグラフィックを指定する1つ以上のコードを受信し、次にディスプレイコントローラ156に出力する画面の画像データを生成する。 In some embodiments, graphics module 132 stores data representing the graphics to be used. Each graphic is optionally assigned a corresponding code. Graphics module 132 receives one or more codes specifying the graphics to be displayed, including, as appropriate, coordinate data and other graphic characteristic data, from an application or the like, and then generates screen image data for output to display controller 156.

触覚フィードバックモジュール133は、デバイス100とのユーザ対話に応じて、デバイス100上の1つ以上の位置で触知出力を生成するために、触知出力生成器(単数又は複数)167によって使用される命令を生成するための、様々なソフトウェア構成要素を含む。 The tactile feedback module 133 includes various software components for generating instructions used by the tactile output generator(s) 167 to generate tactile outputs at one or more locations on the device 100 in response to user interaction with the device 100.

テキスト入力モジュール134は、任意選択的に、グラフィックモジュール132の構成要素であり、様々なアプリケーション(例えば、連絡先137、電子メール140、IM141、ブラウザ147、及びテキスト入力を必要とする任意の他のアプリケーション)でテキストを入力するためのソフトキーボードを提供する。 Text input module 134 is optionally a component of graphics module 132 and provides a soft keyboard for entering text in various applications (e.g., contacts 137, email 140, IM 141, browser 147, and any other application requiring text input).

GPSモジュール135は、デバイスの位置を判定し、この情報を様々なアプリケーションで使用するために(例えば、位置に基づくダイヤル発信用に電話138に、画像/ビデオのメタデータとしてカメラ143へ、並びに、気象ウィジェット、地域のイエローページウィジェット、及び地図/ナビゲーションウィジェットなどの、位置に基づくサービスを提供するアプリケーションへ)提供する。 The GPS module 135 determines the location of the device and provides this information for use by various applications (e.g., to the phone 138 for location-based dialing, to the camera 143 as image/video metadata, and to applications that provide location-based services, such as weather widgets, local yellow pages widgets, and maps/navigation widgets).

アプリケーション136は、任意選択的に、以下のモジュール(又は命令セット)又はそれらのサブセット若しくはスーパーセットを含む。
●連絡先モジュール137(アドレス帳又は連絡先リストと呼ばれることもある)、
●電話モジュール138、
●テレビ会議モジュール139、
●電子メールクライアントモジュール140、
●インスタントメッセージング(Instant messaging、IM)モジュール141、
●トレーニングサポートモジュール142、
●静止画像及び/又はビデオ画像用のカメラモジュール143、
●画像管理モジュール144、
●ビデオプレーヤモジュール、
●音楽プレーヤモジュール、
●ブラウザモジュール147、
●カレンダモジュール148、
●任意選択的に気象ウィジェット149-1、株式ウィジェット149-2、計算機ウィジェット149-3、目覚まし時計ウィジェット149-4、辞書ウィジェット149-5、及びユーザによって入手された他のウィジェット、並びにユーザ作成ウィジェット149-6のうちの1つ以上を含むウィジェットモジュール149、
●ユーザ作成ウィジェット149-6を作成するためのウィジェット作成モジュール150、
●検索モジュール151、
●ビデオプレーヤモジュール及び音楽プレーヤモジュールを一体化したビデオ及び音楽プレーヤモジュール152、
●メモモジュール153、
●地図モジュール154、並びに/又は、
●オンラインビデオモジュール155。
Application 136 optionally includes the following modules (or sets of instructions), or a subset or superset thereof:
Contacts module 137 (sometimes called an address book or contact list);
● Telephone module 138,
● videoconferencing module 139;
● email client module 140;
Instant messaging (IM) module 141;
training support module 142;
A camera module 143 for still and/or video images,
Image management module 144;
●Video player module,
●Music player module,
Browser module 147,
● Calendar module 148;
A widget module 149, optionally including one or more of a weather widget 149-1, a stocks widget 149-2, a calculator widget 149-3, an alarm clock widget 149-4, a dictionary widget 149-5, and other widgets obtained by the user, as well as user-created widgets 149-6;
A widget creation module 150 for creating user-created widgets 149-6;
Search module 151,
A video and music player module 152 that combines a video player module and a music player module;
Memo module 153,
map module 154, and/or
- Online video module 155.

任意選択的にメモリ102に記憶される他のアプリケーション136の例としては、他のワードプロセッシングアプリケーション、他の画像編集アプリケーション、描画アプリケーション、プレゼンテーションアプリケーション、JAVA(登録商標)対応アプリケーション、暗号化、デジタル著作権管理、音声認識、及び音声複製が挙げられる。 Examples of other applications 136 that may optionally be stored in memory 102 include other word processing applications, other image editing applications, drawing applications, presentation applications, JAVA (registered trademark) enabled applications, encryption, digital rights management, voice recognition, and voice duplication.

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、連絡先モジュール137は、任意選択的に、アドレス帳に名前(単数又は複数)を追加すること、アドレス帳から名前を削除すること、電話番号(単数又は複数)、電子メールアドレス(単数又は複数)、実際の住所(単数又は複数)、又は他の情報を名前に関連付けること、画像を名前に関連付けること、名前を分類して並べ替えること、電話番号又は電子メールアドレスを提供して、電話138、テレビ会議モジュール139、電子メール140、又はIM141による通信を開始及び/又は促進することなどを含めて、アドレス帳又は連絡先リスト(例えば、メモリ102又はメモリ370内の連絡先モジュール137のアプリケーション内部状態192内に記憶される)を管理するために使用される。 In conjunction with the touch screen 112, the display controller 156, the contact/motion module 130, the graphics module 132, and the text input module 134, the contacts module 137 is used to manage an address book or contact list (e.g., stored in the application internal state 192 of the contacts module 137 in the memory 102 or memory 370), including, optionally, adding a name(s) to the address book, deleting a name from the address book, associating a phone number(s), an email address(es), a physical address(es), or other information with a name, associating an image with a name, categorizing and sorting names, providing phone numbers or email addresses to initiate and/or facilitate communication by phone 138, videoconferencing module 139, email 140, or IM 141, and the like.

RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、電話モジュール138は、任意選択的に、電話番号に対応する文字シーケンスの入力、連絡先モジュール137内の1つ以上の電話番号へのアクセス、入力された電話番号の修正、それぞれの電話番号のダイヤル、会話の実施、会話が終了したときに接続を切る又は電話を切るために使用される。前述したように、無線通信は、任意選択的に、複数の通信規格、プロトコル、及び技術のうちのいずれかを使用する。 In conjunction with the RF circuitry 108, audio circuitry 110, speaker 111, microphone 113, touch screen 112, display controller 156, contact/motion module 130, graphics module 132, and text input module 134, the telephone module 138 is optionally used to enter character sequences corresponding to telephone numbers, access one or more telephone numbers in the contacts module 137, modify entered telephone numbers, dial respective telephone numbers, conduct a conversation, and disconnect or hang up when the conversation is completed. As previously mentioned, the wireless communication optionally uses any of a number of communication standards, protocols, and technologies.

RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、光センサ164、光センサコントローラ158、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、連絡先モジュール137、及び電話モジュール138と連動して、テレビ会議モジュール139は、ユーザ命令に従ってユーザと1人以上の他の参加者との間のテレビ会議を開始、実行、及び終了するための実行可能な命令を含む。 In conjunction with the RF circuitry 108, audio circuitry 110, speaker 111, microphone 113, touch screen 112, display controller 156, light sensor 164, light sensor controller 158, contact/motion module 130, graphics module 132, text input module 134, contacts module 137, and telephone module 138, the videoconferencing module 139 includes executable instructions for initiating, conducting, and terminating a videoconference between a user and one or more other participants in accordance with user commands.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、電子メールクライアントモジュール140は、ユーザ命令に応じて電子メールを作成、送信、受信、及び管理するための実行可能な命令を含む。画像管理モジュール144と連動して、電子メールクライアントモジュール140は、カメラモジュール143で撮影された静止画像又はビデオ画像を有する電子メールの作成及び送信を非常に容易にする。 In conjunction with the RF circuitry 108, touch screen 112, display controller 156, contact/motion module 130, graphics module 132, and text input module 134, the email client module 140 contains executable instructions for creating, sending, receiving, and managing emails in response to user commands. In conjunction with the image management module 144, the email client module 140 greatly facilitates the creation and sending of emails with still or video images captured by the camera module 143.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、インスタントメッセージングモジュール141は、インスタントメッセージに対応する文字シーケンスの入力、以前に入力された文字の修正、それぞれのインスタントメッセージの送信(例えば、電話通信ベースのインスタントメッセージ向けのショートメッセージサービス(Short Message Service、SMS)若しくはマルチメディアメッセージサービス(Multimedia Message Service、MMS)プロトコル、又はインターネットベースのインスタントメッセージ向けのXMPP、SIMPLE、若しくはIMPSを使用する)、インスタントメッセージの受信、及び受信したインスタントメッセージの閲覧のための実行可能な命令を含む。いくつかの実施形態では、送信及び/又は受信されるインスタントメッセージは、任意選択的に、MMS及び/又は拡張メッセージングサービス(Enhanced Messaging Service、EMS)でサポートされるグラフィック、写真、オーディオファイル、ビデオファイル、及び/又は他の添付ファイルを含む。本明細書では、「インスタントメッセージング」とは、電話通信ベースのメッセージ(例えば、SMS又はMMSを使用して送信されるメッセージ)と、インターネットベースのメッセージ(例えば、XMPP、SIMPLE、又はIMPSを使用して送信されるメッセージ)との両方を指す。 In cooperation with the RF circuitry 108, the touch screen 112, the display controller 156, the contact/motion module 130, the graphics module 132, and the text input module 134, the instant messaging module 141 includes executable instructions for entering character sequences corresponding to instant messages, modifying previously entered characters, sending respective instant messages (e.g., using Short Message Service (SMS) or Multimedia Message Service (MMS) protocols for telephony-based instant messaging, or XMPP, SIMPLE, or IMPS for Internet-based instant messaging), receiving instant messages, and viewing received instant messages. In some embodiments, the sent and/or received instant messages optionally include graphics, photos, audio files, video files, and/or other attachments supported by MMS and/or Enhanced Messaging Service (EMS). As used herein, "instant messaging" refers to both telephony-based messages (e.g., messages sent using SMS or MMS) and Internet-based messages (e.g., messages sent using XMPP, SIMPLE, or IMPS).

トレーニングサポートモジュール142は、RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、地図モジュール154、及びミュージックプレーヤモジュールと連動して、(例えば、時間、距離、及び/又はカロリー燃焼目標を有する)トレーニングを作成し、トレーニングセンサ(スポーツデバイス)と通信し、トレーニングセンサデータを受信し、トレーニングをモニタするために使用されるセンサを較正し、トレーニングのための音楽を選択及び再生し、並びに、トレーニングデータを表示、記憶、及び送信するための実行可能な命令を含む。 The training support module 142 includes executable instructions to interface with the RF circuitry 108, the touch screen 112, the display controller 156, the contact/motion module 130, the graphics module 132, the text input module 134, the GPS module 135, the map module 154, and the music player module to create workouts (e.g., having time, distance, and/or calorie burn goals), communicate with training sensors (sports devices), receive training sensor data, calibrate sensors used to monitor the workouts, select and play music for the workouts, and display, store, and transmit the workout data.

タッチスクリーン112、ディスプレイコントローラ156、光センサ(単数又は複数)164、光センサコントローラ158、接触/動きモジュール130、グラフィックモジュール132、及び画像管理モジュール144と連動して、カメラモジュール143は、静止画像若しくはビデオ(ビデオストリームを含む)のキャプチャ及びメモリ102内への記憶、静止画像若しくはビデオの特性の修正、又はメモリ102からの静止画像若しくはビデオの削除のための実行可能な命令を含む。 In conjunction with the touch screen 112, the display controller 156, the light sensor(s) 164, the light sensor controller 158, the contact/motion module 130, the graphics module 132, and the image management module 144, the camera module 143 contains executable instructions for capturing and storing still images or video (including video streams) in the memory 102, modifying characteristics of the still images or video, or deleting still images or video from the memory 102.

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びカメラモジュール143と連動して、画像管理モジュール144は、静止画像及び/又はビデオ画像の配置、修正(例えば、編集)、あるいはその他の操作、ラベル付け、削除、提示(例えば、デジタルスライドショー又はアルバムにおける)、及び記憶のための実行可能な命令を含む。 In conjunction with the touch screen 112, display controller 156, contact/motion module 130, graphics module 132, text input module 134, and camera module 143, image management module 144 contains executable instructions for arranging, modifying (e.g., editing), or otherwise manipulating, labeling, deleting, presenting (e.g., in a digital slide show or album), and storing still and/or video images.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、ブラウザモジュール147は、ウェブページ又はその一部分、並びにウェブページにリンクされた添付ファイル及び他のファイルの検索、リンク、受信、及び表示を含めて、ユーザ命令に従ってインターネットをブラウジングするための実行可能な命令を含む。 In conjunction with the RF circuitry 108, the touch screen 112, the display controller 156, the contact/motion module 130, the graphics module 132, and the text input module 134, the browser module 147 contains executable instructions for browsing the Internet according to user commands, including retrieving, linking to, receiving, and displaying web pages or portions thereof, as well as attachments and other files linked to web pages.

カレンダモジュール148は、RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と連携して、ユーザの指示に従い、カレンダ及びカレンダに関連付けられたデータ(例えば、予定表の項目、to doリストなど)を作成し、表示し、修正し、記憶するための実行可能な命令を含む。 The calendar module 148 includes executable instructions to cooperate with the RF circuitry 108, the touch screen 112, the display controller 156, the contact/motion module 130, the graphics module 132, the text input module 134, the email client module 140, and the browser module 147 to create, display, modify, and store calendars and data associated with the calendars (e.g., calendar items, to-do lists, etc.) in accordance with user instructions.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と連動して、ウィジェットモジュール149は、任意選択的にユーザによってダウンロード及び使用されるミニアプリケーション(例えば、気象ウィジェット149-1、株式ウィジェット149-2、計算機ウィジェット149-3、目覚まし時計ウィジェット149-4、及び辞書ウィジェット149-5)、又はユーザによって作成されるミニアプリケーション(例えば、ユーザ作成ウィジェット149-6)である。いくつかの実施形態では、ウィジェットは、HTML(Hypertext Markup Language、ハイパーテキストマークアップ言語)ファイル、CSS(Cascading Style Sheets、カスケーディングスタイルシート)ファイル、及びJavaScript(登録商標)ファイルを含む。いくつかの実施形態では、ウィジェットは、XML(Extensible Markup Language、拡張可能マークアップ言語)ファイル及びJavaScript(登録商標)ファイル(例えば、Yahoo!ウィジェット(登録商標))を含む。In conjunction with RF circuitry 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, text input module 134, and browser module 147, widget module 149 is optionally a mini-application downloaded and used by a user (e.g., weather widget 149-1, stocks widget 149-2, calculator widget 149-3, alarm clock widget 149-4, and dictionary widget 149-5) or created by a user (e.g., user-created widget 149-6). In some embodiments, widgets include Hypertext Markup Language (HTML) files, Cascading Style Sheets (CSS) files, and JavaScript files. In some embodiments, a widget includes an Extensible Markup Language (XML) file and a JavaScript file (eg, Yahoo! Widgets).

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と連動して、ウィジェット作成モジュール150は、任意選択的に、ウィジェットを作成する(例えば、ウェブページのユーザ指定部分をウィジェットにする)ために、ユーザによって使用される。 In conjunction with the RF circuitry 108, the touch screen 112, the display controller 156, the contact/motion module 130, the graphics module 132, the text input module 134, and the browser module 147, the widget creation module 150 is optionally used by a user to create a widget (e.g., turn a user-specified portion of a web page into a widget).

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、検索モジュール151は、ユーザ命令に従って1つ以上の検索基準(例えば、1つ以上のユーザ指定検索語)に一致するメモリ102内の文字、音楽、サウンド、画像、ビデオ、及び/又は他のファイルを検索するための実行可能な命令を含む。 In conjunction with the touch screen 112, display controller 156, contact/motion module 130, graphics module 132, and text input module 134, the search module 151 contains executable instructions for searching for text, music, sound, images, video, and/or other files in memory 102 that match one or more search criteria (e.g., one or more user-specified search terms) in accordance with user commands.

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、及びブラウザモジュール147と連携して、ビデオ及び音楽プレーヤモジュール152は、MP3又はAACファイルなどの1つ以上のファイル形式で記憶された録音済みの音楽及び他のサウンドファイルをユーザがダウンロード及び再生できるようにする実行可能な命令、並びにビデオを(タッチスクリーン112上又は外部ポート124を介して接続された外部のディスプレイ上に)表示、提示、又は別の方法で再生するための実行可能な命令を含む。いくつかの実施形態では、デバイス100は、任意選択的に、iPod(Apple Inc.の商標)などのMP3プレーヤの機能を含む。 In conjunction with the touch screen 112, the display controller 156, the contact/motion module 130, the graphics module 132, the audio circuitry 110, the speaker 111, the RF circuitry 108, and the browser module 147, the video and music player module 152 includes executable instructions that allow a user to download and play pre-recorded music and other sound files stored in one or more file formats, such as MP3 or AAC files, as well as executable instructions for displaying, presenting, or otherwise playing videos (on the touch screen 112 or on an external display connected via the external port 124). In some embodiments, the device 100 optionally includes the functionality of an MP3 player, such as an iPod (a trademark of Apple Inc.).

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、メモモジュール153は、ユーザ命令に従ってメモ、やることリストなどを作成及び管理するための実行可能な命令を含む。 In conjunction with the touch screen 112, display controller 156, contact/motion module 130, graphics module 132, and text input module 134, the notes module 153 contains executable instructions for creating and managing notes, to-do lists, and the like according to user instructions.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、及びブラウザモジュール147と連動して、地図モジュール154は、任意選択的に、ユーザ命令に従って、地図及び地図に関連付けられたデータ(例えば、運転方向、特定の位置又はその付近の店舗及び他の対象地点に関するデータ、並びに他の位置ベースのデータ)を受信、表示、修正、及び記憶するために使用される。 In conjunction with the RF circuitry 108, the touch screen 112, the display controller 156, the contact/motion module 130, the graphics module 132, the text input module 134, the GPS module 135, and the browser module 147, the map module 154 is optionally used to receive, display, modify, and store maps and data associated with the maps (e.g., driving directions, data regarding businesses and other points of interest at or near a particular location, and other location-based data) in accordance with user instructions.

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と連動して、オンラインビデオモジュール155は、ユーザが特定のオンラインビデオへのアクセス、特定のオンラインビデオのブラウジング、受信(例えば、ストリーミング及び/又はダウンロードによる)、再生(例えば、タッチスクリーン上又は外部ポート124を介して接続された外部ディスプレイ上)、特定のオンラインビデオへのリンクを有する電子メールの送信、並びにH.264などの1つ以上のファイル形式のオンラインビデオの他の管理を行うことを可能にする命令を含む。いくつかの実施形態では、特定のオンラインビデオへのリンクを送信するために、電子メールクライアントモジュール140ではなく、インスタントメッセージングモジュール141が使用される。オンラインビデオアプリケーションについての追加の説明は、その内容が全体として参照により本明細書に組み込まれている、2007年6月20日出願の米国仮特許出願第60/936,562号、「Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos」、及び2007年12月31日出願の米国特許出願第11/968,067号、「Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos」において見ることができる。 In conjunction with touch screen 112, display controller 156, contact/motion module 130, graphics module 132, audio circuitry 110, speaker 111, RF circuitry 108, text input module 134, email client module 140, and browser module 147, online video module 155 includes instructions that enable a user to access, browse for, receive (e.g., by streaming and/or downloading), play (e.g., on the touch screen or on an external display connected via external port 124), send emails with links to the particular online videos, and otherwise manage the online videos in one or more file formats, such as H.264. In some embodiments, instant messaging module 141 is used rather than email client module 140 to send links to the particular online videos. Additional description of online video applications can be found in U.S. Provisional Patent Application No. 60/936,562, entitled "Portable Multifunction Device, Method, and Graphical User Interface for Playing Online Videos," filed June 20, 2007, and U.S. Patent Application No. 11/968,067, entitled "Portable Multifunction Device, Method, and Graphical User Interface for Playing Online Videos," filed December 31, 2007, the contents of which are incorporated herein by reference in their entireties.

上記で識別されたモジュール及びアプリケーションはそれぞれ、前述した1つ以上の機能及び本出願に記載する方法(例えば、本明細書に記載するコンピュータにより実装される方法及び他の情報処理方法)を実行する実行可能な命令のセットに対応する。これらのモジュール(例えば、命令セット)は、別個のソフトウェアプログラム、手順、又はモジュールとして実施する必要はなく、したがって、様々な実施形態において、これらのモジュールの様々なサブセットが、任意選択的に、組み合わされ、又は他の形で再構成される。例えば、ビデオプレーヤモジュールは、任意選択的に、音楽プレーヤモジュールと組み合わされて、単一のモジュール(例えば、図1Aのビデオ及び音楽プレーヤモジュール152)にされる。いくつかの実施形態では、メモリ102は、任意選択的に、上記で識別されたモジュール及びデータ構造のサブセットを記憶する。更に、メモリ102は、上記で説明されていない追加のモジュール及びデータ構造を任意選択的に記憶する。 Each of the above-identified modules and applications corresponds to a set of executable instructions that perform one or more of the functions and methods described herein (e.g., the computer-implemented methods and other information processing methods described herein). These modules (e.g., sets of instructions) need not be implemented as separate software programs, procedures, or modules, and thus, in various embodiments, various subsets of these modules are optionally combined or otherwise reconfigured. For example, a video player module is optionally combined with a music player module into a single module (e.g., video and music player module 152 of FIG. 1A). In some embodiments, memory 102 optionally stores a subset of the above-identified modules and data structures. Additionally, memory 102 optionally stores additional modules and data structures not described above.

いくつかの実施形態では、デバイス100は、そのデバイスにおける所定の機能のセットの動作がタッチスクリーン及び/又はタッチパッドのみを通じて実行されるデバイスである。デバイス100が動作するための主要な入力コントロールデバイスとしてタッチスクリーン及び/又はタッチパッドを使用することにより、任意選択的に、デバイス100上の物理的な入力コントロールデバイス(プッシュボタン、ダイヤルなど)の数が削減される。 In some embodiments, device 100 is a device in which operation of a given set of functions on the device is performed exclusively through a touchscreen and/or touchpad. Using the touchscreen and/or touchpad as the primary input control device for operation of device 100 optionally reduces the number of physical input control devices (push buttons, dials, etc.) on device 100.

タッチスクリーン及び/又はタッチパッドを通じてのみ実行される既定の機能のセットは、任意選択的に、ユーザインタフェース間のナビゲーションを含む。いくつかの実施形態では、タッチパッドは、ユーザによってタッチされたときに、デバイス100上に表示される任意のユーザインタフェースから、メインメニュー、ホームメニュー、又はルートメニューにデバイス100をナビゲートする。このような実施形態では、「メニューボタン」は、タッチパッドを使用して実装される。一部の他の実施形態では、メニューボタンは、タッチパッドではなく、物理プッシュボタン又はその他の物理入力コントロールデバイスである。 The set of default functions performed solely through the touchscreen and/or touchpad optionally includes navigation between user interfaces. In some embodiments, the touchpad, when touched by a user, navigates device 100 to a main menu, a home menu, or a root menu from any user interface displayed on device 100. In such embodiments, a "menu button" is implemented using the touchpad. In some other embodiments, the menu button is a physical push button or other physical input control device rather than a touchpad.

図1Bは、いくつかの実施形態による、イベント処理のための例示的な構成要素を示すブロック図である。いくつかの実施形態では、メモリ102(図1A)又は370(図3)は、イベントソータ170(例えば、オペレーティングシステム126内)と、それぞれのアプリケーション136-1(例えば、前述のアプリケーション137~151、155、380~390のうちのいずれか)とを含む。 FIG. 1B is a block diagram illustrating exemplary components for event processing, according to some embodiments. In some embodiments, memory 102 (FIG. 1A) or 370 (FIG. 3) includes an event sorter 170 (e.g., in operating system 126) and a respective application 136-1 (e.g., any of applications 137-151, 155, 380-390 described above).

イベントソータ170は、イベント情報を受信し、イベント情報を配信するアプリケーション136-1、及びアプリケーション136-1のアプリケーションビュー191を決定する。イベントソータ170は、イベントモニタ171及びイベントディスパッチャモジュール174を含む。いくつかの実施形態では、アプリケーション136-1は、アプリケーションがアクティブ又は実行中のとき、タッチ感知ディスプレイ112で上に表示される現在のアプリケーションビュー(単数又は複数)を示す、アプリケーション内部状態192を含む。いくつかの実施形態では、デバイス/グローバル内部状態157は、いずれのアプリケーション(単数又は複数)が現在アクティブであるかを判定するために、イベントソータ170によって使用され、アプリケーション内部状態192は、イベント情報の配信先となるアプリケーションビュー191を決定するために、イベントソータ170によって使用される。 Event sorter 170 receives the event information and determines which application 136-1 to deliver the event information to and which application view 191 of application 136-1. Event sorter 170 includes an event monitor 171 and an event dispatcher module 174. In some embodiments, application 136-1 includes application internal state 192 that indicates the current application view(s) that are displayed on touch-sensitive display 112 when the application is active or running. In some embodiments, device/global internal state 157 is used by event sorter 170 to determine which application(s) is currently active, and application internal state 192 is used by event sorter 170 to determine which application view(s) to deliver the event information to.

いくつかの実施形態では、アプリケーション内部状態192は、アプリケーション136-1が実行を再開するときに使用すべき再開情報、アプリケーション136-1によって表示されている情報を示す又は表示する準備ができたユーザインタフェース状態情報、ユーザがアプリケーション136-1の前の状態又はビューに戻ることを有効化する状態キュー、及びユーザによって行われた前のアクションのリドゥ/アンドゥキューのうちの1つ以上などの追加の情報を含む。 In some embodiments, application internal state 192 includes additional information such as one or more of resume information to be used when application 136-1 resumes execution, user interface state information indicating or ready to display information being displayed by application 136-1, state cues enabling the user to return to a previous state or view of application 136-1, and redo/undo cues for previous actions taken by the user.

イベントモニタ171は、周辺機器インタフェース118からイベント情報を受信する。イベント情報は、サブイベント(例えば、マルチタッチジェスチャの一部としてのタッチ感知ディスプレイ112上のユーザタッチ)に関する情報を含む。周辺機器インタフェース118は、I/Oサブシステム106、又は近接センサ166、加速度計(単数又は複数)168、及び/若しくは(オーディオ回路110を介した)マイクロフォン113などのセンサから受信する情報を送信する。周辺機器インタフェース118がI/Oサブシステム106から受信する情報は、タッチ感知ディスプレイ112又はタッチ感知面からの情報を含む。 Event monitor 171 receives event information from peripherals interface 118. The event information includes information about a sub-event (e.g., a user touch on touch-sensitive display 112 as part of a multi-touch gesture). Peripherals interface 118 transmits information it receives from I/O subsystem 106 or sensors such as proximity sensor 166, accelerometer(s) 168, and/or microphone 113 (via audio circuitry 110). Information that peripherals interface 118 receives from I/O subsystem 106 includes information from touch-sensitive display 112 or a touch-sensitive surface.

いくつかの実施形態では、イベントモニタ171は、所定の間隔で周辺機器インタフェース118に要求を送信する。それに応答して、周辺機器インタフェース118は、イベント情報を送信する。他の実施形態では、周辺機器インタフェース118は、重要なイベント(例えば、所定のノイズ閾値を上回る及び/又は所定の持続時間を超える入力の受信)があるときのみイベント情報を送信する。 In some embodiments, event monitor 171 sends a request to peripherals interface 118 at predetermined intervals. In response, peripherals interface 118 transmits the event information. In other embodiments, peripherals interface 118 transmits the event information only when there is a significant event (e.g., receipt of an input above a predetermined noise threshold and/or for a predetermined duration).

いくつかの実施形態では、イベントソータ170は、ヒットビュー判定モジュール172及び/又はアクティブイベント認識部判定モジュール173も含む。 In some embodiments, event sorter 170 also includes a hit view determination module 172 and/or an active event recognizer determination module 173.

ヒットビュー判定モジュール172は、タッチ感知ディスプレイ112が2つ以上のビューを表示するとき、サブイベントが1つ以上のビュー内のどこで行われたかを判定するソフトウェア手順を提供する。ビューは、ユーザがディスプレイ上で見ることができる制御装置及び他の要素から構成されている。 Hit view determination module 172 provides software procedures that determine where a sub-event occurred within one or more views when touch-sensitive display 112 displays more than one view. A view consists of the controls and other elements that a user can see on the display.

アプリケーションに関連付けられたユーザインタフェースの別の態様は、本明細書ではアプリケーションビュー又はユーザインタフェースウインドウと呼ばれることもあるビューのセットであり、その中で情報が表示され、タッチに基づくジェスチャが生じる。タッチが検出される(それぞれのアプリケーションの)アプリケーションビューは、任意選択的に、アプリケーションのプログラム階層又はビュー階層内のプログラムレベルに対応する。例えば、タッチが検出される最下位レベルビューは、任意選択的に、ヒットビューと呼ばれ、また、適切な入力として認識されるイベントのセットは、任意選択的に、タッチに基づくジェスチャを開始する初期タッチのヒットビューに少なくとも部分的に基づいて決定される。 Another aspect of a user interface associated with an application is the set of views, sometimes referred to herein as application views or user interface windows, in which information is displayed and in which touch-based gestures occur. The application view (of the respective application) in which the touch is detected optionally corresponds to a programmatic level within the programmatic or view hierarchy of the application. For example, the lowest level view in which the touch is detected is optionally referred to as a hit view, and the set of events that are recognized as suitable inputs is optionally determined based at least in part on the hit view of the initial touch that initiates the touch-based gesture.

ヒットビュー判定モジュール172は、タッチに基づくジェスチャのサブイベントに関連する情報を受信する。アプリケーションが階層状に構成された複数のビューを有するときには、ヒットビュー判定モジュール172は、サブイベントを処理すべき、階層内の最下位のビューとしてのヒットビューを識別する。ほとんどの状況では、ヒットビューは、開始サブイベント(例えば、イベント又は潜在的イベントを形成するサブイベントシーケンス内の第1のサブイベント)が行われる最も低いレベルのビューである。ヒットビューがヒットビュー判定モジュール172によって識別されると、ヒットビューは、典型的には、ヒットビューとして識別されたのと同じタッチ又は入力ソースに関係する全てのサブイベントを受信する。 The hit view determination module 172 receives information related to sub-events of a touch-based gesture. When an application has multiple views organized in a hierarchy, the hit view determination module 172 identifies the hit view as the lowest view in the hierarchy that should process the sub-events. In most situations, the hit view is the lowest level view in which an initiating sub-event (e.g., the first sub-event in a sub-event sequence that forms an event or potential event) occurs. Once a hit view is identified by the hit view determination module 172, the hit view typically receives all sub-events that are related to the same touch or input source as the hit view identified.

アクティブイベント認識部判定モジュール173は、ビュー階層内のどのビューがサブイベントの特定のシーケンスを受信すべきかを判定する。いくつかの実施形態では、アクティブイベント認識部判定モジュール173は、ヒットビューのみがサブイベントの特定のシーケンスを受信すべきであると判定する。他の実施形態では、アクティブイベント認識部判定モジュール173は、サブイベントの物理位置を含む全てのビューがアクティブに関わりがあるビューであると判定し、したがって、全てのアクティブに関わりがあるビューが、サブイベントの特定のシーケンスを受信すべきであると判定する。他の実施形態では、タッチサブイベントが1つの特定のビューに関連付けられたエリアに完全に限定された場合でも、階層内の上位のビューは、依然としてアクティブに関わりがあるビューであり続ける。 Active event recognizer determination module 173 determines which views in the view hierarchy should receive the particular sequence of sub-events. In some embodiments, active event recognizer determination module 173 determines that only the hit view should receive the particular sequence of sub-events. In other embodiments, active event recognizer determination module 173 determines that all views that contain the physical location of the sub-event are actively participating views, and therefore all actively participating views should receive the particular sequence of sub-events. In other embodiments, even if the touch sub-event is completely confined to the area associated with one particular view, views higher in the hierarchy still remain actively participating views.

イベントディスパッチャモジュール174は、イベント情報をイベント認識部(例えばイベント認識部180)にディスパッチする。アクティブイベント認識部判定モジュール173を含む実施形態では、イベントディスパッチャモジュール174は、アクティブイベント認識部判定モジュール173により判定されたイベント認識部にイベント情報を配信する。いくつかの実施形態では、イベントディスパッチャモジュール174は、それぞれのイベント受信部182によって取得されるイベント情報をイベント待ち行列に記憶する。 Event dispatcher module 174 dispatches the event information to an event recognizer (e.g., event recognizer 180). In embodiments that include active event recognizer determination module 173, event dispatcher module 174 delivers the event information to the event recognizer determined by active event recognizer determination module 173. In some embodiments, event dispatcher module 174 stores the event information obtained by each event receiver 182 in an event queue.

いくつかの実施形態では、オペレーティングシステム126は、イベントソータ170を含む。代替的に、アプリケーション136-1がイベントソータ170を含む。更に他の実施形態では、イベントソータ170は、独立型のモジュールであり、又は接触/動きモジュール130などのメモリ102内に記憶されている別のモジュールの一部である。 In some embodiments, operating system 126 includes event sorter 170. Alternatively, application 136-1 includes event sorter 170. In still other embodiments, event sorter 170 is a stand-alone module or is part of another module stored in memory 102, such as contact/motion module 130.

いくつかの実施形態では、アプリケーション136-1は、それぞれがアプリケーションのユーザインタフェースのそれぞれのビュー内で発生するタッチイベントを処理するための命令を含む、複数のイベントハンドラ190及び1つ以上のアプリケーションビュー191を含む。アプリケーション136-1の各アプリケーションビュー191は、1つ以上のイベント認識部180を含む。典型的には、それぞれのアプリケーションビュー191は、複数のイベント認識部180を含む。他の実施形態では、イベント認識部180のうちの1つ以上は、ユーザインタフェースキット、又は、アプリケーション136-1が方法及び他の属性を継承する上位レベルのオブジェクトなどの、別個のモジュールの一部である。いくつかの実施形態では、それぞれのイベントハンドラ190は、データ更新部176、オブジェクト更新部177、GUI更新部178、及び/又はイベントソータ170から受信されたイベントデータ179、のうちの1つ以上を含む。イベントハンドラ190は、任意選択的に、データ更新部176、オブジェクト更新部177、又はGUI更新部178を利用し又は呼び出して、アプリケーション内部状態192を更新する。代替的に、アプリケーションビュー191のうちの1つ以上は、1つ以上のそれぞれのイベントハンドラ190を含む。また、いくつかの実施形態では、データ更新部176、オブジェクト更新部177、及びGUI更新部178のうちの1つ以上は、それぞれのアプリケーションビュー191に含まれる。 In some embodiments, application 136-1 includes multiple event handlers 190 and one or more application views 191, each including instructions for handling touch events that occur within a respective view of the application's user interface. Each application view 191 of application 136-1 includes one or more event recognizers 180. Typically, each application view 191 includes multiple event recognizers 180. In other embodiments, one or more of the event recognizers 180 are part of a separate module, such as a user interface kit or a higher-level object from which application 136-1 inherits methods and other attributes. In some embodiments, each event handler 190 includes one or more of data updater 176, object updater 177, GUI updater 178, and/or event data 179 received from event sorter 170. Event handler 190 optionally utilizes or invokes data updater 176, object updater 177, or GUI updater 178 to update application internal state 192. Alternatively, one or more of the application views 191 include one or more respective event handlers 190. Also, in some embodiments, one or more of the data updater 176, the object updater 177, and the GUI updater 178 are included in each application view 191.

それぞれのイベント認識部180は、イベントソータ170からイベント情報(例えば、イベントデータ179)を受信し、このイベント情報からイベントを識別する。イベント認識部180は、イベント受信部182及びイベント比較部184を含む。いくつかの実施形態では、イベント認識部180はまた、メタデータ183及びイベント配信命令188(任意選択的にサブイベント配信命令を含む)の少なくともサブセットも含む。 Each event recognizer 180 receives event information (e.g., event data 179) from event sorter 170 and identifies an event from the event information. Event recognizer 180 includes an event receiver 182 and an event comparator 184. In some embodiments, event recognizer 180 also includes at least a subset of metadata 183 and event delivery instructions 188 (optionally including sub-event delivery instructions).

イベント受信部182は、イベントソータ170からイベント情報を受信する。イベント情報は、サブイベント、例えば、タッチ又はタッチの移動についての情報を含む。サブイベントに応じて、イベント情報はまた、サブイベントの位置などの追加の情報を含む。サブイベントがタッチの動きに関わるとき、イベント情報はまた任意選択的に、サブイベントの速さ及び方向を含む。いくつかの実施形態では、イベントは、1つの向きから別の向きへの(例えば、縦向きから横向きへ、又はその逆の)デバイスの回転を含み、イベント情報は、デバイスの現在の向き(デバイスの姿勢とも呼ぶ)についての対応する情報を含む。 Event receiver 182 receives event information from event sorter 170. The event information includes information about a sub-event, e.g., a touch or a movement of a touch. Depending on the sub-event, the event information also includes additional information, such as the position of the sub-event. When the sub-event involves a movement of a touch, the event information also optionally includes the speed and direction of the sub-event. In some embodiments, the event includes a rotation of the device from one orientation to another (e.g., from portrait to landscape or vice versa), and the event information includes corresponding information about the current orientation of the device (also referred to as the device's attitude).

イベント比較部184は、イベント情報を、定義済みのイベント又はサブイベントの定義と比較し、その比較に基づいて、イベント又はサブイベントを判定するか、あるいはイベント又はサブイベントの状態を判定若しくは更新する。いくつかの実施形態では、イベント比較部184は、イベント定義186を含む。イベント定義186は、例えばイベント1(187-1)及びイベント2(187-2)などのイベント(例えば既定のサブイベントのシーケンス)の定義を含む。いくつかの実施形態では、イベント(187)におけるサブイベントは、例えば、タッチ開始、タッチ終了、タッチの移動、タッチの中止、及び複数のタッチを含む。一実施例では、イベント1(187-1)についての定義は、表示されたオブジェクト上のダブルタップである。ダブルタップは、例えば、所定の段階に対する表示オブジェクト上の第1のタッチ(タッチ開始)、所定の段階に対する第1のリフトオフ(タッチ終了)、所定の段階に対する表示オブジェクト上の第2のタッチ(タッチ開始)、及び所定の段階に対する第2のリフトオフ(タッチ終了)を含む。別の実施例では、イベント2(187-2)の定義は、表示されたオブジェクト上のドラッグである。ドラッグは、例えば、所定の段階に対する表示されたオブジェクト上のタッチ(又は接触)、タッチ感知ディスプレイ112を横切るタッチの移動、及びタッチのリフトオフ(タッチ終了)を含む。いくつかの実施形態では、イベントは、1つ以上の関連付けられたイベントハンドラ190に関する情報も含む。 The event comparator 184 compares the event information to predefined event or sub-event definitions and determines the event or sub-event or determines or updates the state of the event or sub-event based on the comparison. In some embodiments, the event comparator 184 includes an event definition 186. The event definition 186 includes definitions of events (e.g., a sequence of predefined sub-events), such as event 1 (187-1) and event 2 (187-2). In some embodiments, the sub-events in event (187) include, for example, touch start, touch end, touch movement, touch stop, and multiple touches. In one example, the definition for event 1 (187-1) is a double tap on a displayed object. The double tap includes, for example, a first touch (touch start) on a displayed object for a given phase, a first lift off (touch end) for a given phase, a second touch (touch start) on a displayed object for a given phase, and a second lift off (touch end) for a given phase. In another example, the definition for event 2 (187-2) is a drag on a displayed object. Drag includes, for example, a touch (or contact) on a displayed object to a given stage, a movement of the touch across the touch-sensitive display 112, and a lift-off of the touch (touch end). In some embodiments, the event also includes information regarding one or more associated event handlers 190.

いくつかの実施形態では、イベント定義187は、それぞれのユーザインタフェースオブジェクトについてのイベントの定義を含む。いくつかの実施形態では、イベント比較部184は、どのユーザインタフェースオブジェクトがサブイベントに関連付けられているかを判定するヒットテストを実行する。例えば、タッチ感知ディスプレイ112上に3つのユーザインタフェースオブジェクトが表示されているアプリケーションビュー内で、タッチ感知ディスプレイ112上でタッチが検出されたとき、イベント比較部184は、ヒット試験を実行して、3つのユーザインタフェースオブジェクトのうちのどれがタッチ(サブイベント)に関連付けられているかを判定する。表示された各オブジェクトが、それぞれのイベントハンドラ190に関連付けられている場合、イベント比較部は、ヒットテストの結果を用いて、どのイベントハンドラ190をアクティブ化すべきかを判定する。例えば、イベント比較部184は、ヒットテストをトリガするサブイベント及びオブジェクトに関連付けられたイベントハンドラを選択する。 In some embodiments, event definition 187 includes a definition of the event for each user interface object. In some embodiments, event comparator 184 performs a hit test to determine which user interface object is associated with the sub-event. For example, when a touch is detected on touch-sensitive display 112 in an application view in which three user interface objects are displayed on touch-sensitive display 112, event comparator 184 performs a hit test to determine which of the three user interface objects is associated with the touch (sub-event). If each displayed object is associated with a respective event handler 190, event comparator 184 uses the results of the hit test to determine which event handler 190 should be activated. For example, event comparator 184 selects the event handler associated with the sub-event and object that triggers the hit test.

いくつかの実施形態では、それぞれのイベント(187)に対する定義はまた、サブイベントシーケンスがイベント認識部のイベントタイプに対応するか否かが判定される後までイベント情報の配信を遅延する遅延アクションを含む。 In some embodiments, the definition for each event (187) also includes a delay action that delays delivery of the event information until after it has been determined whether the sub-event sequence corresponds to the event type of the event recognizer.

それぞれのイベント認識部180が一連のサブイベントがイベント定義186のイベントのいずれとも一致しないと判断した場合、それぞれのイベント認識部180は、イベント不可能、イベント失敗、又はイベント終了の状態に入り、その後は、タッチに基づくジェスチャの次のサブイベントを無視する。この状況では、ヒットビューについてアクティブのままである他のイベント認識部があれば、そのイベント認識部は、進行中のタッチに基づくジェスチャのサブイベントの追跡及び処理を続行する。 If the respective event recognizer 180 determines that the sequence of sub-events does not match any of the events in the event definition 186, the respective event recognizer 180 enters an event disabled, event failed, or event finished state and thereafter ignores the next sub-event of the touch-based gesture. In this situation, any other event recognizers that remain active for the hit view continue to track and process sub-events of the ongoing touch-based gesture.

いくつかの実施形態では、それぞれのイベント認識部180は、イベント配信システムがどのようにサブイベント配信を実行すべきかをアクティブに関与しているイベント認識部に示す構成可能なプロパティ、フラグ、及び/又はリストを有するメタデータ183を含む。いくつかの実施形態では、メタデータ183は、イベント認識部が互いにどのように対話するか、又はイベント認識部が互いにどのように対話できるようになっているかを示す、構成可能なプロパティ、フラグ、及び/又はリストを含む。いくつかの実施形態では、メタデータ183は、サブイベントがビュー階層又はプログラム階層における多様なレベルに配信されるかを示す構成可能なプロパティ、フラグ、及び/又はリストを含む。 In some embodiments, each event recognizer 180 includes metadata 183 with configurable properties, flags, and/or lists that indicate to actively participating event recognizers how the event delivery system should perform sub-event delivery. In some embodiments, metadata 183 includes configurable properties, flags, and/or lists that indicate how the event recognizers interact with each other or are enabled to interact with each other. In some embodiments, metadata 183 includes configurable properties, flags, and/or lists that indicate how sub-events are delivered to various levels in a view or programmatic hierarchy.

いくつかの実施形態では、それぞれのイベント認識部180は、イベントの1つ以上の特定のサブイベントが認識されるときに、イベントに関連付けられたイベントハンドラ190をアクティブ化する。いくつかの実施形態では、それぞれのイベント認識部180は、イベントに関連付けられたイベント情報をイベントハンドラ190に配信する。イベントハンドラ190をアクティブ化することは、それぞれのヒットビューにサブイベントを送信する(及び、送信を延期する)こととは別個である。いくつかの実施形態では、イベント認識部180は、認識したイベントに関連付けられたフラグを投入し、そのフラグに関連付けられたイベントハンドラ190は、そのフラグを捕らえ、所定のプロセスを実行する。 In some embodiments, each event recognizer 180 activates an event handler 190 associated with an event when one or more specific sub-events of the event are recognized. In some embodiments, each event recognizer 180 delivers event information associated with the event to the event handler 190. Activating the event handler 190 is separate from sending (and deferring sending) the sub-events to the respective hit view. In some embodiments, the event recognizer 180 pops a flag associated with the recognized event, and the event handler 190 associated with the flag catches the flag and performs a predetermined process.

いくつかの実施形態では、イベント配信命令188は、イベントハンドラをアクティブ化することなくサブイベントについてのイベント情報を配信するサブイベント配信命令を含む。代わりに、サブイベント配信命令は、一連のサブイベントと関連付けられたイベントハンドラに、又はアクティブに関与しているビューにイベント情報を配信する。一連のサブイベント又はアクティブに関与しているビューと関連付けられたイベントハンドラは、イベント情報を受信し、所定の処理を実行する。 In some embodiments, the event delivery instructions 188 include sub-event delivery instructions that deliver event information about a sub-event without activating an event handler. Instead, the sub-event delivery instructions deliver the event information to an event handler associated with the set of sub-events or to an actively participating view. The event handler associated with the set of sub-events or the actively participating view receives the event information and performs the specified processing.

いくつかの実施形態では、データ更新部176は、アプリケーション136-1で使用されるデータを作成及び更新する。例えば、データ更新部176は、連絡先モジュール137で使用される電話番号を更新し、又はビデオプレーヤモジュールで使用されるビデオファイルを記憶する。いくつかの実施形態では、オブジェクト更新部177は、アプリケーション136-1で使用されるオブジェクトを作成及び更新する。例えば、オブジェクト更新部177は、新たなユーザインタフェースオブジェクトを作成し、又はユーザインタフェースオブジェクトの位置を更新する。GUI更新部178は、GUIを更新する。例えば、GUI更新部178は、表示情報を準備し、タッチ感知ディスプレイ上に表示するために表示情報をグラフィックモジュール132に送る。 In some embodiments, data updater 176 creates and updates data used by application 136-1. For example, data updater 176 updates phone numbers used by contacts module 137 or stores video files used by a video player module. In some embodiments, object updater 177 creates and updates objects used by application 136-1. For example, object updater 177 creates new user interface objects or updates the positions of user interface objects. GUI updater 178 updates the GUI. For example, GUI updater 178 prepares display information and sends the display information to graphics module 132 for display on the touch-sensitive display.

いくつかの実施形態では、イベントハンドラ(単数又は複数)190は、データ更新部176、オブジェクト更新部177、及びGUI更新部178を含むか又はそれらへのアクセスを有する。いくつかの実施形態では、データ更新部176、オブジェクト更新部177、及びGUI更新部178は、それぞれのアプリケーション136-1又はアプリケーションビュー191の単一モジュールに含まれる。他の実施形態では、それらは、2つ以上のソフトウェアモジュールに含まれる。 In some embodiments, the event handler(s) 190 includes or has access to a data updater 176, an object updater 177, and a GUI updater 178. In some embodiments, the data updater 176, the object updater 177, and the GUI updater 178 are included in a single module of the respective application 136-1 or application view 191. In other embodiments, they are included in two or more software modules.

タッチ感知ディスプレイ上のユーザのタッチのイベント処理に関する前述の記載は、入力デバイスを用いて多機能デバイス100を動作させるための他の形態のユーザ入力にも適用されるが、その全てがタッチスクリーン上で開始されるわけではないことを理解されたい。例えば、キーボードの単一又は複数の押圧若しくは保持と任意選択的に連携される、マウスの移動及びマウスボタンの押圧、タッチパッド上のタップ、ドラッグ、スクロールなどの接触の移動、ペンスタイラス入力、デバイスの移動、口頭による命令、検出された眼球運動、バイオメトリック入力、並びに/又はそれらの任意の組み合わせを、任意選択的に、認識するイベントを定義するサブイベントに対応する入力として利用する。 It should be understood that the foregoing description of event processing of a user's touch on a touch-sensitive display also applies to other forms of user input for operating multifunction device 100 using input devices, not all of which are initiated on a touch screen. For example, mouse movements and mouse button presses, contact movements such as tapping, dragging, scrolling on a touchpad, optionally coordinated with single or multiple presses or holds on a keyboard, pen stylus input, device movements, verbal commands, detected eye movements, biometric input, and/or any combination thereof, are optionally utilized as inputs corresponding to sub-events that define the event to be recognized.

図2は、いくつかの実施形態による、タッチスクリーン112を有するポータブル多機能デバイス100を示す。タッチスクリーンは、任意選択的に、ユーザインタフェース(user interface、UI)200内に1つ以上のグラフィックを表示する。本実施形態、並びに後述の他の実施形態では、ユーザは、例えば、1本以上の指202(図には正確な縮尺では描かれていない)又は1つ以上のスタイラス203(図には正確な縮尺では描かれていない)を使用して、グラフィック上でジェスチャを実施することによって、それらのグラフィックのうちの1つ以上を選択することが可能となる。いくつかの実施形態では、1つ以上のグラフィックの選択は、ユーザが、その1つ以上のグラフィックとの接触を中断する場合に行われる。いくつかの実施形態では、ジェスチャは、任意選択的に、1つ以上のタップ、1つ以上のスワイプ(左から右、右から左、上向き、及び/若しくは下向き)、並びに/又はデバイス100と接触した指のロール(右から左、左から右、上向き、及び/若しくは下向き)を含む。いくつかの実装形態又は状況では、グラフィックとの不測の接触は、そのグラフィックを選択するものではない。例えば、選択に対応するジェスチャがタップである場合、アプリケーションアイコンの上をスイープするスワイプジェスチャは、任意選択的に、対応するアプリケーションを選択するものではない。 FIG. 2 illustrates portable multifunction device 100 having touch screen 112, according to some embodiments. The touch screen optionally displays one or more graphics in user interface (UI) 200. In this embodiment, as well as other embodiments described below, a user may select one or more of the graphics by performing a gesture on the graphics, for example, using one or more fingers 202 (not drawn to scale) or one or more styluses 203 (not drawn to scale). In some embodiments, the selection of one or more graphics occurs when the user breaks contact with the one or more graphics. In some embodiments, the gesture optionally includes one or more taps, one or more swipes (left to right, right to left, upwards, and/or downwards), and/or a roll of a finger in contact with device 100 (right to left, left to right, upwards, and/or downwards). In some implementations or situations, accidental contact with a graphic does not select the graphic. For example, if the gesture corresponding to selection is a tap, a swipe gesture sweeping over an application icon optionally does not select the corresponding application.

デバイス100はまた、任意選択的に、「ホーム」ボタン又はメニューボタン204などの1つ以上の物理ボタンを含む。前述したように、メニューボタン204は、任意選択的に、任意選択的にデバイス100上で実行される1組のアプリケーション内の任意のアプリケーション136へナビゲートするために使用される。あるいは、いくつかの実施形態では、メニューボタンは、タッチスクリーン112上に表示されるGUI内のソフトキーとして実装される。 Device 100 also optionally includes one or more physical buttons, such as a "home" button or menu button 204. As previously mentioned, menu button 204 is optionally used to navigate to any application 136, optionally within a set of applications running on device 100. Alternatively, in some embodiments, the menu button is implemented as a soft key within a GUI displayed on touch screen 112.

いくつかの実施形態では、デバイス100は、タッチスクリーン112、メニューボタン204、デバイスの電源をオン/オフにしてデバイスをロックするプッシュボタン(単数又は複数)206、音量調整ボタン208、加入者識別モジュール(SIM)カードスロット210、ヘッドセットジャック212、及びドッキング/充電用外部ポート124を含む。プッシュボタン206は、任意選択的に、ボタンを押し下げて、所定の期間にわたってボタンを押し下げた状態に保持することによって、デバイスの電源をオン/オフするため、ボタンを押し下げて、既定の時間が経過する前にボタンを解放することによってデバイスをロックするため、及び/又はデバイスをロック解除する、若しくはロック解除プロセスを開始するために、使用される。代替的な実施形態では、デバイス100はまた、マイクロフォン113を介して、一部の機能をアクティブ化又は非アクティブ化するための口頭入力も受け入れる。デバイス100はまた、任意選択的に、タッチスクリーン112上の接触の強度を検出する1つ以上の接触強度センサ165、及び/又はデバイス100のユーザに対する触知出力を生成する1つ以上の触知出力生成器167を含む。 In some embodiments, device 100 includes a touch screen 112, a menu button 204, push button(s) 206 for powering the device on/off and locking the device, volume control buttons 208, a subscriber identity module (SIM) card slot 210, a headset jack 212, and an external port 124 for docking/charging. Push button 206 is optionally used to power the device on/off by pressing and holding the button down for a predefined period of time, to lock the device by pressing and releasing the button before the predefined time has elapsed, and/or to unlock the device or initiate an unlocking process. In an alternative embodiment, device 100 also accepts verbal input via microphone 113 to activate or deactivate some functions. Device 100 also optionally includes one or more contact intensity sensors 165 for detecting the intensity of a contact on touch screen 112 and/or one or more tactile output generators 167 for generating a tactile output to a user of device 100.

図3は、いくつかの実施形態による、ディスプレイ及びタッチ感知面を備える例示的な多機能デバイスのブロック図である。デバイス300は、ポータブル型である必要はない。いくつかの実施形態では、デバイス300は、ラップトップコンピュータ、デスクトップコンピュータ、タブレットコンピュータ、マルチメディア再生デバイス、ナビゲーションデバイス、教育的デバイス(子供の学習玩具など)、ゲームシステム、又はコントロールデバイス(例えば、家庭用又は業務用コントローラ)である。デバイス300は、典型的には、1つ以上の処理ユニット(CPU)310、1つ以上のネットワーク又は他の通信インタフェース360、メモリ370、及びこれらの構成要素を相互接続する1つ以上の通信バス320を含む。通信バス320は、任意選択的に、システム構成要素間の通信を相互接続及び制御する回路(チップセットと呼ばれることもある)を含む。デバイス300は典型的にはタッチスクリーンディスプレイであるディスプレイ340を含む、入出力(I/O)インタフェース330を含む。I/Oインタフェース330はまた、任意選択的に、キーボード及び/又はマウス(若しくは他のポインティングデバイス)350と、タッチパッド355と、デバイス300上に触知出力を生成する触知出力生成器357(例えば、図1Aを参照して前述した触知出力生成器(単数又は複数)167に類似している)と、センサ359(例えば、図1Aを参照して前述した接触強度センサ(単数又は複数)165に類似している光、加速度、近接、タッチ感知、及び/又は接触強度センサ)とを含む。メモリ370は、DRAM、SRAM、DDR RAM、又は他のランダムアクセスソリッドステートメモリデバイスなどの高速ランダムアクセスメモリを含み、任意選択的に、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性ソリッドステート記憶デバイスなどの不揮発性メモリを含む。メモリ370は、任意選択的に、CPU(単数又は複数)310からリモートに配置されている1つ以上の記憶デバイスを含む。いくつかの実施形態では、メモリ370は、ポータブル多機能デバイス100(図1A)のメモリ102内に記憶されているプログラム、モジュール、及びプログラムに類似したデータ構造、モジュール、及びデータ構造、又はそのサブセットを記憶する。更に、メモリ370は、任意選択的に、ポータブル多機能デバイス100のメモリ102に存在しない追加のプログラム、モジュール、及びデータ構造を記憶する。例えば、デバイス300のメモリ370は、任意選択的に、描画モジュール380、プレゼンテーションモジュール382、ワードプロセッシングモジュール384、ウェブサイト作成モジュール386、ディスクオーサリングモジュール388、及び/又はスプレッドシートモジュール390を記憶するのに対して、ポータブル多機能デバイス100(図1A)のメモリ102は、任意選択的に、これらのモジュールを記憶しない。 FIG. 3 is a block diagram of an exemplary multifunction device with a display and a touch-sensitive surface, according to some embodiments. Device 300 need not be portable. In some embodiments, device 300 is a laptop computer, a desktop computer, a tablet computer, a multimedia playback device, a navigation device, an educational device (such as a child's learning toy), a gaming system, or a control device (e.g., a home or commercial controller). Device 300 typically includes one or more processing units (CPUs) 310, one or more network or other communication interfaces 360, memory 370, and one or more communication buses 320 that interconnect these components. Communication bus 320 optionally includes circuitry (sometimes called a chipset) that interconnects and controls communication between system components. Device 300 includes input/output (I/O) interfaces 330, including a display 340, which is typically a touchscreen display. I/O interface 330 also optionally includes a keyboard and/or mouse (or other pointing device) 350, a touchpad 355, a tactile output generator 357 (e.g., similar to tactile output generator(s) 167 described above with reference to FIG. 1A) for generating tactile output on device 300, and sensors 359 (e.g., light, acceleration, proximity, touch-sensing, and/or contact intensity sensors similar to contact intensity sensor(s) 165 described above with reference to FIG. 1A). Memory 370 includes high-speed random access memory, such as DRAM, SRAM, DDR RAM, or other random access solid-state memory devices, and optionally includes non-volatile memory, such as one or more magnetic disk storage devices, optical disk storage devices, flash memory devices, or other non-volatile solid-state storage devices. Memory 370 optionally includes one or more storage devices located remotely from CPU(s) 310. In some embodiments, memory 370 stores programs, modules, and data structures similar to the programs, modules, and data structures stored in memory 102 of portable multifunction device 100 (FIG. 1A), or a subset thereof. Additionally, memory 370 optionally stores additional programs, modules, and data structures not present in memory 102 of portable multifunction device 100. For example, memory 370 of device 300 optionally stores drawing module 380, presentation module 382, word processing module 384, website creation module 386, disk authoring module 388, and/or spreadsheet module 390, whereas memory 102 of portable multifunction device 100 (FIG. 1A) optionally does not store these modules.

図3の上記で識別された要素はそれぞれ、任意選択的に、前述したメモリデバイスのうちの1つ以上の中に記憶される。上記で識別されたモジュールはそれぞれ、前述した機能を実行する命令セットに対応する。上記で識別されたモジュール又はプログラム(例えば、命令セット)は、別個のソフトウェアプログラム、手順、又はモジュールとして実施する必要はなく、したがって様々な実施形態では、これらのモジュールの様々なサブセットは、任意選択的に、組み合わされ、又は他の形で再構成される。いくつかの実施形態では、メモリ370は、任意選択的に、上記で識別されたモジュール及びデータ構造のサブセットを記憶する。更に、メモリ370は、上記で説明されていない追加のモジュール及びデータ構造を任意選択的に記憶する。 Each of the above-identified elements of FIG. 3 is optionally stored in one or more of the memory devices described above. Each of the above-identified modules corresponds to an instruction set that performs the functions described above. The above-identified modules or programs (e.g., instruction sets) need not be implemented as separate software programs, procedures, or modules, and thus in various embodiments, various subsets of these modules are optionally combined or otherwise reconfigured. In some embodiments, memory 370 optionally stores a subset of the above-identified modules and data structures. Additionally, memory 370 optionally stores additional modules and data structures not described above.

次に、任意選択的に例えばポータブル多機能デバイス100上で実施されるユーザインタフェースの実施形態に注意を向ける。 Attention is now directed to embodiments of a user interface that may optionally be implemented, for example, on portable multifunction device 100.

図4Aは、いくつかの実施形態による、ポータブル多機能デバイス100上のアプリケーションのメニューの例示的なユーザインタフェースを示す。同様のユーザインタフェースは、デバイス300上に任意選択的に実装される。いくつかの実施形態では、ユーザインタフェース400は、以下の要素、又はそれらのサブセット若しくはスーパーセットを含む。
●セルラー信号及びWi-Fi信号などの無線通信(単数又は複数)のための信号強度インジケータ402、
●時刻404、
●Bluetoothインジケータ405、
●バッテリ状態インジケータ406、
●以下のような、頻繁に使用されるアプリケーションのアイコンを有するトレイ408:
○不在着信又は音声メールメッセージの数の標識414を任意選択的に含む、「電話」とラベル付けされる、電話モジュール138用のアイコン416、
○未読電子メールの数の標識410を任意選択的に含む、「メール」とラベル付けされた、電子メールクライアントモジュール140のアイコン418、
○「ブラウザ」とラベル付けされた、ブラウザモジュール147のアイコン420、及び
○ 「iPod」とラベル付けされる、iPod(Apple Inc.の商標)モジュール152とも称されるビデオ及び音楽プレーヤモジュール152用のアイコン422、及び
●以下のような、他のアプリケーションのアイコン:
○「メッセージ」とラベル付けされた、IMモジュール141のアイコン424、
○「カレンダ」とラベル付けされた、カレンダモジュール148のアイコン426、
○「写真」とラベル付けされた、画像管理モジュール144のアイコン428、
○「カメラ」とラベル付けされた、カメラモジュール143のアイコン430、
○「オンラインビデオ」とラベル付けされた、オンラインビデオモジュール155のアイコン432、
○「株価」とラベル付けされた、株式ウィジェット149-2のアイコン434、
○「地図」とラベル付けされた、地図モジュール154のアイコン436、
○「天気」とラベル付けされた、気象ウィジェット149-1のアイコン438、
○「時計」とラベル付けされた、アラーム時計ウィジェット149-4のアイコン440、
○「トレーニングサポート」とラベル付けされた、トレーニングサポートモジュール142のアイコン442、
○「メモ」とラベル付けされた、メモモジュール153のアイコン444、及び
○デバイス100及びその様々なアプリケーション136についての設定へのアクセスを提供する、「設定」とラベル付けされた、設定アプリケーション又はモジュールのアイコン446。
4A shows an exemplary user interface for a menu of applications on portable multifunction device 100, according to some embodiments. A similar user interface is optionally implemented on device 300. In some embodiments, user interface 400 includes the following elements, or a subset or superset thereof:
A signal strength indicator 402 for wireless communication(s), such as cellular and Wi-Fi signals;
● Time 404,
Bluetooth indicator 405,
● battery status indicator 406,
A tray 408 with icons of frequently used applications, such as:
○ An icon 416 for the phone module 138, labeled "Phone", optionally including an indicator 414 of the number of missed calls or voicemail messages;
○ An icon 418 of the email client module 140, labeled "Mail", optionally including an indicator 410 of the number of unread emails;
○ An icon 420 for the browser module 147, labeled "Browser", and ○ An icon 422 for the video and music player module 152, also referred to as the iPod (trademark of Apple Inc.) module 152, labeled "iPod", and ● Icons for other applications, such as:
○ An icon 424 for the IM module 141, labeled "Messages";
○ An icon 426 for the calendar module 148, labeled "Calendar";
○ An icon 428 in the Image Management module 144, labeled "Photos";
○ An icon 430 for the camera module 143, labeled "Camera",
○ An icon 432 for the Online Video module 155, labeled "Online Video";
○ Icon 434 of stock widget 149-2, labeled "Stock Price"
○ An icon 436 of the map module 154, labeled "Map";
○ Icon 438 of weather widget 149-1, labeled "Weather";
○ An icon 440 of the alarm clock widget 149-4, labeled "Clock",
○ An icon 442 of the training support module 142, labeled "Training Support";
o An icon 444 for the notes module 153, labeled "Notes," and o An icon 446 for the settings application or module, labeled "Settings," that provides access to settings for the device 100 and its various applications 136.

図4Aに示すアイコンラベルは、単なる例示であることに留意されたい。例えば、ビデオ及び音楽プレーヤモジュール152のためのアイコン422は、「音楽」又は「音楽プレーヤ」とラベル付けされる、他のラベルが、様々なアプリケーションアイコンのために、任意選択的に使用される。いくつかの実施形態では、それぞれのアプリケーションアイコンに関するラベルは、それぞれのアプリケーションアイコンに対応するアプリケーションの名前を含む。いくつかの実施形態では、特定のアプリケーションアイコンのラベルは、その特定のアプリケーションアイコンに対応するアプリケーションの名前とは異なる。 Note that the icon labels shown in FIG. 4A are merely exemplary. For example, icon 422 for video and music player module 152 is labeled "Music" or "Music Player," although other labels are optionally used for the various application icons. In some embodiments, the label for each application icon includes the name of the application that corresponds to the respective application icon. In some embodiments, the label for a particular application icon is different from the name of the application that corresponds to that particular application icon.

図4Bは、ディスプレイ450(例えば、タッチスクリーンディスプレイ112)とは別個のタッチ感知面451(例えば、図3のタブレット又はタッチパッド355)を有するデバイス(例えば、図3のデバイス300)上の例示的なユーザインタフェースを示す。デバイス300はまた、任意選択的に、タッチ感知面451上の接触の強度を検出する1つ以上の接触強度センサ(例えば、センサ359のうちの1つ以上)、及び/又はデバイス300のユーザに対する触知出力を生成する1つ以上の触知出力生成器357を含む。 4B illustrates an exemplary user interface on a device (e.g., device 300 of FIG. 3) having a touch-sensitive surface 451 (e.g., tablet or touchpad 355 of FIG. 3) that is separate from display 450 (e.g., touchscreen display 112). Device 300 also optionally includes one or more contact intensity sensors (e.g., one or more of sensors 359) that detect the intensity of a contact on touch-sensitive surface 451 and/or one or more tactile output generators 357 that generate a tactile output for a user of device 300.

以下の例のうちのいくつかは、タッチスクリーンディスプレイ112(タッチ感知面及びディスプレイが組み合わされている)上の入力を参照して与えられるが、いくつかの実施形態では、デバイスは、図4Bに示すディスプレイとは別個のタッチ感知面上の入力を検出する。いくつかの実施形態では、タッチ感知面(例えば、図4Bの451)は、ディスプレイ(例えば、450)上の1次軸(例えば、図4Bの453)に対応する1次軸(例えば、図4Bの452)を有する。これらの実施形態によれば、デバイスは、ディスプレイ上のそれぞれの位置に対応する位置(例えば、図4Bでは、460は468に対応し、462は470に対応する)で、タッチ感知面451との接触(例えば、図4Bの460及び462)を検出する。このようにして、タッチ感知面(例えば、図4Bの451)上でデバイスによって検出されるユーザ入力(例えば、接触460及び462、並びにこれらの動き)は、タッチ感知面がディスプレイとは別個であるとき、多機能デバイスのディスプレイ(例えば、図4Bの450)上のユーザインタフェースを操作するために、デバイスによって使用される。同様の方法が、本明細書に記載の他のユーザインタフェースに任意選択的に使用されることを理解されたい。 Although some of the following examples are given with reference to input on touch screen display 112 (where the touch-sensitive surface and display are combined), in some embodiments the device detects input on a touch-sensitive surface that is separate from the display shown in FIG. 4B. In some embodiments, the touch-sensitive surface (e.g., 451 in FIG. 4B) has a primary axis (e.g., 452 in FIG. 4B) that corresponds to a primary axis (e.g., 453 in FIG. 4B) on the display (e.g., 450). According to these embodiments, the device detects contact with touch-sensitive surface 451 (e.g., 460 and 462 in FIG. 4B) at locations that correspond to respective locations on the display (e.g., in FIG. 4B, 460 corresponds to 468 and 462 corresponds to 470). In this manner, user input (e.g., contacts 460 and 462 and their movements) detected by the device on the touch-sensitive surface (e.g., 451 in FIG. 4B ) is used by the device to operate a user interface on the display (e.g., 450 in FIG. 4B ) of the multifunction device when the touch-sensitive surface is separate from the display. It should be understood that similar methods are optionally used for the other user interfaces described herein.

加えて、以下の例は、主に指入力(例えば、指接触、指タップジェスチャ、指スワイプジェスチャ)を参照して与えられるが、いくつかの実施形態では、指入力のうちの1つ以上は、別の入力デバイスからの入力(例えば、マウスベースの入力又はスタイラス入力)に置き換えられることを理解されたい。例えば、スワイプジェスチャは、(例えば、接触の代わりの)マウスクリックに続けた、(例えば、接触の移動の代わりの)スワイプの経路に沿ったカーソルの移動によって、任意選択的に置き換えられる。別の実施例として、タップジェスチャは、任意選択的に、カーソルがタップジェスチャの位置の上に配置されている間はマウスクリックと置き換えられる(例えば、接触を検出して、それに続いて接触の検出を停止する代わりに)。同様に、複数のユーザ入力が同時に検出されるとき、複数のコンピュータマウスが、任意選択的に、同時に使用され、又はマウス及び指の接触が、任意選択的に、同時に使用されることを理解されたい。 In addition, while the following examples are given primarily with reference to finger input (e.g., finger contact, finger tap gesture, finger swipe gesture), it should be understood that in some embodiments, one or more of the finger inputs are replaced with input from another input device (e.g., mouse-based input or stylus input). For example, a swipe gesture is optionally replaced by a mouse click (e.g., instead of a contact) followed by movement of a cursor along the path of the swipe (e.g., instead of a contact movement). As another example, a tap gesture is optionally replaced with a mouse click while the cursor is positioned over the location of the tap gesture (e.g., instead of detecting a contact and then stopping detection of the contact). Similarly, it should be understood that when multiple user inputs are detected simultaneously, multiple computer mice are optionally used simultaneously, or mice and finger contacts are optionally used simultaneously.

図5Aは、例示的なパーソナル電子デバイス500を示す。デバイス500は、本体502を含む。いくつかの実施形態では、デバイス500は、デバイス100及び300(例えば、図1A~4B)に関して説明する特徴のうちのいくつか又は全てを含むことができる。いくつかの実施形態では、デバイス500は、タッチ感知ディスプレイスクリーン504、以下ではタッチスクリーン504、を有する。デバイス500は、代替的に、又はタッチスクリーン504に加えて、ディスプレイ及びタッチ感知面を有する。デバイス100及び300と同様に、いくつかの実施形態では、タッチスクリーン504(又はタッチ感知面)は、任意選択的に、加えられている接触(例えば、タッチ)の強度を検出する1つ以上の強度センサを含む。タッチスクリーン504(又はタッチ感知面)の1つ以上の強度センサは、タッチの強度を表す出力データを提供することができる。デバイス500のユーザインタフェースは、タッチの強度に基づいてタッチに応答することができ、これは、異なる強度のタッチが、デバイス500上で異なるユーザインタフェース動作を呼び出すことができることを意味する。 5A illustrates an exemplary personal electronic device 500. Device 500 includes a body 502. In some embodiments, device 500 can include some or all of the features described with respect to devices 100 and 300 (e.g., FIGS. 1A-4B). In some embodiments, device 500 has a touch-sensitive display screen 504, hereafter touch screen 504. Device 500 can have a display and a touch-sensitive surface, alternatively or in addition to touch screen 504. Similar to devices 100 and 300, in some embodiments, touch screen 504 (or touch-sensitive surface) optionally includes one or more intensity sensors that detect the intensity of a contact (e.g., a touch) being applied. The one or more intensity sensors of touch screen 504 (or touch-sensitive surface) can provide output data that represents the intensity of the touch. A user interface of device 500 can respond to a touch based on the intensity of the touch, meaning that touches of different intensities can invoke different user interface actions on device 500.

タッチ強度を検出及び処理する例示的な技法は、例えば、それぞれ全体として参照により本明細書に組み込まれている、国際特許第WO/2013/169849号として公開された、2013年5月8日出願の国際特許出願第PCT/US2013/040061号、「Device,Method,and Graphical User Interface for Displaying User Interface Objects Corresponding to an Application」、及び国際特許第WO/2014/105276号として公開された、2013年11月11日出願の国際特許出願第PCT/US2013/069483号、「Device,Method,and Graphical User Interface for Transitioning Between Touch Input to Display Output Relationships」という関連出願に見られる。 Exemplary techniques for detecting and processing touch intensity are described, for example, in International Patent Application No. PCT/US2013/040061, filed May 8, 2013, published as International Patent Application No. WO/2013/169849, entitled "Device, Method, and Graphical User Interface for Displaying User Interface Objects Corresponding to an Application," and International Patent Application No. PCT/US2013/069483, filed November 11, 2013, published as International Patent Application No. WO/2014/105276, entitled "Device, Method, and Graphical User Interface for Displaying User Interface Objects Corresponding to an Application," each of which is incorporated herein by reference in its entirety. This can be seen in the related application "User Interface for Transitioning Between Touch Input to Display Output Relationships."

いくつかの実施形態では、デバイス500は、1つ以上の入力機構506及び508を有する。入力機構506及び508は、含まれる場合、物理的機構とすることができる。物理的入力機構の例としては、プッシュボタン及び回転可能機構が挙げられる。いくつかの実施形態では、デバイス500は、1つ以上のアタッチメント機構を有する。そのようなアタッチメント機構は、含まれる場合、例えば帽子、アイウェア、イアリング、ネックレス、シャツ、ジャケット、ブレスレット、腕時計のバンド、チェーン、ズボン、ベルト、靴、財布、バックパックなどにデバイス500を取り付けることを可能にすることができる。これらのアタッチメント機構は、ユーザがデバイス500を着用することを可能にする。 In some embodiments, device 500 has one or more input mechanisms 506 and 508. Input mechanisms 506 and 508, if included, can be physical mechanisms. Examples of physical input mechanisms include push buttons and rotatable mechanisms. In some embodiments, device 500 has one or more attachment mechanisms. Such attachment mechanisms, if included, can allow device 500 to be attached to, for example, hats, eyewear, earrings, necklaces, shirts, jackets, bracelets, watch bands, chains, pants, belts, shoes, wallets, backpacks, etc. These attachment mechanisms allow a user to wear device 500.

図5Bは、例示的なパーソナル電子デバイス500を示す。いくつかの実施形態では、デバイス500は、図1A、図1B、及び図3に関して説明した構成要素のうちのいくつか又は全てを含むことができる。デバイス500は、I/Oセクション514を1つ以上のコンピュータプロセッサ516及びメモリ518に動作可能に結合するバス512を有する。I/Oセクション514は、ディスプレイ504に接続することができ、ディスプレイ504は、タッチ感知式構成要素522と、任意選択的に強度センサ524(例えば、接触強度センサ)とを有することができる。更には、I/Oセクション514は、Wi-Fi、Bluetooth、近距離通信(NFC)、セルラー、及び/又は他の無線通信技術を使用してアプリケーション及びオペレーティングシステムデータを受信するため、通信ユニット530に接続することができる。デバイス500は、入力機構506及び/又は508を含むことができる。入力機構506は、任意選択的に、例えば回転可能入力デバイス又は押下可能及び回転可能入力デバイスである。いくつかの例では、入力機構508は、任意選択的にボタンである。 5B illustrates an exemplary personal electronic device 500. In some embodiments, the device 500 can include some or all of the components described with respect to FIGS. 1A, 1B, and 3. The device 500 has a bus 512 operably coupling an I/O section 514 to one or more computer processors 516 and a memory 518. The I/O section 514 can be connected to a display 504, which can have a touch-sensitive component 522 and optionally an intensity sensor 524 (e.g., a contact intensity sensor). Additionally, the I/O section 514 can be connected to a communication unit 530 for receiving application and operating system data using Wi-Fi, Bluetooth, Near Field Communication (NFC), cellular, and/or other wireless communication technologies. The device 500 can include input mechanisms 506 and/or 508. The input mechanism 506 is optionally, for example, a rotatable input device or a depressible and rotatable input device. In some examples, the input mechanism 508 is optionally a button.

いくつかの例では、入力機構508は、任意選択的にマイクロフォンである。パーソナル電子デバイス500は、任意選択的に、GPSセンサ532、加速度計534、方向センサ540(例えば、コンパス)、ジャイロスコープ536、動きセンサ538、及び/又はこれらの組み合わせなどの様々なセンサを含み、これらのセンサは全て、I/Oセクション514に動作可能に接続することができる。 In some examples, the input mechanism 508 is optionally a microphone. The personal electronic device 500 optionally includes various sensors, such as a GPS sensor 532, an accelerometer 534, an orientation sensor 540 (e.g., a compass), a gyroscope 536, a motion sensor 538, and/or combinations thereof, all of which may be operably connected to the I/O section 514.

パーソナル電子デバイス500のメモリ518は、コンピュータ実行可能命令を記憶する1つ以上の非一時的コンピュータ可読記憶媒体を含むことができ、コンピュータ実行可能命令は、1つ以上のコンピュータプロセッサ516によって実行されると、例えば、プロセス700、900、1100、1300、1500、1700、1900、2000、2100、2300、2500、2700、2800、3000、3200、3400、3600、及び3800を含む後述する技術をコンピュータプロセッサに実行させることができる。コンピュータ可読記憶媒体は、命令実行システム、装置、又はデバイスによって使用するための、又は命令実行システム、装置、又はデバイスに接続されているコンピュータ実行可能命令を、有形に含み又は記憶することができる任意の媒体とすることができる。いくつかの例では、記憶媒体は、一時的コンピュータ可読記憶媒体である。いくつかの例では、記憶媒体は、非一時的コンピュータ可読記憶媒体である。非一時的コンピュータ可読記憶媒体は、それだけに限定されるものではないが、磁気、光学、及び/又は半導体記憶装置を含むことができる。そのような記憶装置の例としては、磁気ディスク、CD、DVD、又はBlu-ray(登録商標)技術に基づく光学ディスク、並びにフラッシュ、ソリッドステートドライブなどの常駐ソリッドステートメモリなどが挙げられる。パーソナル電子デバイス500は、図5Bの構成要素及び構成に限定されるものではなく、他の又は追加の構成要素を複数の構成で含むことができる。The memory 518 of the personal electronic device 500 may include one or more non-transitory computer readable storage media that store computer executable instructions that, when executed by one or more computer processors 516, may cause the computer processors to perform techniques described below, including, for example, processes 700, 900, 1100, 1300, 1500, 1700, 1900, 2000, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3400, 3600, and 3800. A computer readable storage medium may be any medium that can tangibly contain or store computer executable instructions for use by or in connection with an instruction execution system, apparatus, or device. In some examples, the storage medium is a transitory computer readable storage medium. In some examples, the storage medium is a non-transitory computer readable storage medium. The non-transitory computer readable storage medium may include, but is not limited to, magnetic, optical, and/or semiconductor storage devices. Examples of such storage devices include magnetic disks, CDs, DVDs, or optical disks based on Blu-ray technology, as well as resident solid-state memory such as flash, solid-state drives, etc. The personal electronic device 500 is not limited to the components and configuration of FIG. 5B and may include other or additional components in multiple configurations.

本明細書では、「アフォーダンス」という用語は、任意選択的にデバイス100、300、及び/又は500(図1A、図3、及び図5A~5B)のディスプレイスクリーン上に表示されるユーザ対話グラフィカルユーザインタフェースオブジェクトを指す。例えば、画像(例えば、アイコン)、ボタン、及び文字(例えば、ハイパーリンク)はそれぞれ、意選択的に、アフォーダンスを構成する。 As used herein, the term "affordance" refers to a user-interactive graphical user interface object that is optionally displayed on a display screen of device 100, 300, and/or 500 (FIGS. 1A, 3, and 5A-5B). For example, images (e.g., icons), buttons, and text (e.g., hyperlinks) each optionally constitute an affordance.

本明細書で使用される「フォーカスセレクタ」という用語は、ユーザが対話しているユーザインタフェースの現在の部分を示す入力要素を指す。カーソル又は他の位置マーカを含むいくつかの実装形態では、カーソルが「フォーカスセレクタ」として作用し、したがってカーソルが特定のユーザインタフェース要素(例えば、ボタン、ウインドウ、スライダ、又は他のユーザインタフェース要素)の上に位置する間に、タッチ感知面(例えば、図3のタッチパッド355又は図4Bのタッチ感知面451)上で入力(例えば、押圧入力)が検出されたとき、特定のユーザインタフェース要素が、検出された入力に従って調整される。タッチスクリーンディスプレイ上のユーザインタフェース要素との直接対話を有効化するタッチスクリーンディスプレイ(例えば、図1Aのタッチ感知ディスプレイシステム112又は図4Aのタッチスクリーン112)を含むいくつかの実装形態では、タッチスクリーン上の検出された接触が「フォーカスセレクタ」として作用し、したがってタッチスクリーンディスプレイ上の特定のユーザインタフェース要素(例えば、ボタン、ウインドウ、スライダ、又は他のユーザインタフェース要素)の位置で入力(例えば、接触による押圧入力)が検出されたとき、特定のユーザインタフェース要素が、検出された入力に従って調整される。いくつかの実装形態では、タッチスクリーンディスプレイ上の対応するカーソルの移動又は接触の移動(例えば、フォーカスを1つのボタンから別のボタンへ動かすためにタブキー又は矢印キーを使用することによる)なく、フォーカスがユーザインタフェースの1つの領域からユーザインタフェースの別の領域へ動かされ、これらの実装形態では、フォーカスセレクタは、ユーザインタフェースの種々の領域間でのフォーカスの移動に従って移動する。フォーカスセレクタがとる特有の形態に関係なく、フォーカスセレクタは、概して、ユーザインタフェース要素(又はタッチスクリーンディスプレイ上の接触)であり、(例えば、ユーザが対話することを意図しているユーザインタフェースの要素をデバイスに示すことによって、ユーザが意図する対話をユーザインタフェースで通信するようにユーザによって制御される)。例えば、タッチ感知面(例えば、タッチパッド又はタッチスクリーン)上で押圧入力が検出されている間の、対応のボタンの上のフォーカスセレクタ(例えば、カーソル、接触、又は選択ボックス)の位置は、その対応のボタンを(そのデバイスのディスプレイ上に示される他のユーザインタフェース要素ではなく)アクティブ化することをユーザが意図していることを示すものである。 As used herein, the term "focus selector" refers to an input element that indicates the current portion of the user interface with which the user is interacting. In some implementations involving a cursor or other position marker, the cursor acts as the "focus selector" such that when an input (e.g., a press input) is detected on a touch-sensitive surface (e.g., touchpad 355 of FIG. 3 or touch-sensitive surface 451 of FIG. 4B) while the cursor is positioned over a particular user interface element (e.g., a button, window, slider, or other user interface element), the particular user interface element is adjusted according to the detected input. In some implementations involving a touchscreen display (e.g., touch-sensitive display system 112 of FIG. 1A or touchscreen 112 of FIG. 4A) that enables direct interaction with user interface elements on the touchscreen display, a detected contact on the touchscreen acts as the "focus selector" such that when an input (e.g., a press input by contact) is detected at the location of a particular user interface element (e.g., a button, window, slider, or other user interface element) on the touchscreen display, the particular user interface element is adjusted according to the detected input. In some implementations, focus is moved from one region of the user interface to another region of the user interface without corresponding cursor movement or contact movement on a touchscreen display (e.g., by using a tab key or arrow keys to move focus from one button to another), and in these implementations, the focus selector moves to follow the movement of focus between various regions of the user interface. Regardless of the particular form the focus selector takes, it is generally a user interface element (or contact on a touchscreen display) that is controlled by a user to communicate the user's intended interaction with the user interface (e.g., by indicating to the device which element of the user interface the user intends to interact with). For example, the position of the focus selector (e.g., cursor, contact, or selection box) over a corresponding button while a press input is detected on a touch-sensitive surface (e.g., a touchpad or touchscreen) indicates that the user intends to activate that corresponding button (and not other user interface elements shown on the device's display).

本明細書及び特許請求の範囲で使用される、接触の「特性強度」という用語は、接触の1つ以上の強度に基づく、その接触の特性を指す。いくつかの実施形態では、特性強度は複数の強度サンプルに基づく。特性強度は、任意選択的に、既定の数の強度サンプル、すなわち、既定のイベント(例えば、接触を検出した後、接触のリフトオフを検出する前、接触の移動の開始を検出する前若しくは後、接触の終了を検出する前、接触の強度の増大を検出する前若しくは後、及び/又は、接触の強度の減少を検出する前若しくは後の)に関連する所定の期間(例えば、0.05、0.1、0.2、0.5、1、2、5、10秒)の間に収集された強度サンプルのセットに基づく。接触の特性強度は、任意選択的に、接触の強度の最大値、接触の強度の平均(mean)値、接触の強度の平均(average)値、接触の強度の上位10パーセンタイル値、接触の強度の最大の2分の1の値、接触の強度の最大の90パーセントの値などのうちの1つ以上に基づいている。いくつかの実施形態では、特性強度を判定する際に(例えば、特性強度が経時的な接触の強度の平均であるときに)、接触の持続期間が使用される。いくつかの実施形態では、特性強度は、ユーザによって動作が実行されたかどうかを判定するために、1組の1つ以上の強度閾値と比較される。例えば、1組の1つ以上の強度閾値は、任意選択的に、第1の強度閾値及び第2の強度閾値を含む。この実施例では、第1の閾値を超過しない特性強度を有する接触は、第1の動作をもたらし、第1の強度閾値を超過するが第2の強度閾値を超過しない特性強度を有する接触は、第2の動作をもたらし、第2の閾値を超過する特性強度を有する接触は、第3の動作をもたらす。いくつかの実施形態では、特性強度と1つ以上の閾値との間の比較は、第1の動作を実行するべきか、それとも第2の動作を実行するべきかを判定するために使用されるのではなく、1つ以上の動作を実行するべきか否か(例えば、それぞれの動作を実行するべきか、それともそれぞれの動作を実行することを取り止めるべきか)を判定するために使用される。 As used herein and in the claims, the term "characteristic intensity" of a contact refers to a characteristic of that contact based on one or more intensities of the contact. In some embodiments, the characteristic intensity is based on a plurality of intensity samples. The characteristic intensity is optionally based on a predefined number of intensity samples, i.e., a set of intensity samples collected during a predefined time period (e.g., 0.05, 0.1, 0.2, 0.5, 1, 2, 5, 10 seconds) associated with a predefined event (e.g., after detecting a contact, before detecting a lift-off of the contact, before or after detecting the start of movement of the contact, before detecting the end of the contact, before or after detecting an increase in the intensity of the contact, and/or before or after detecting a decrease in the intensity of the contact). The characteristic intensity of the contact is optionally based on one or more of the following: a maximum value of the intensity of the contact, a mean value of the intensity of the contact, an average value of the intensity of the contact, a top 10th percentile value of the intensity of the contact, a half maximum value of the intensity of the contact, a 90th percentile value of the intensity of the contact, or the like. In some embodiments, the duration of the contact is used in determining the characteristic intensity (e.g., when the characteristic intensity is an average of the intensity of the contact over time). In some embodiments, the characteristic intensity is compared to a set of one or more intensity thresholds to determine whether an action is performed by the user. For example, the set of one or more intensity thresholds optionally includes a first intensity threshold and a second intensity threshold. In this example, a contact having a characteristic intensity that does not exceed the first threshold results in a first action, a contact having a characteristic intensity that exceeds the first intensity threshold but not the second intensity threshold results in a second action, and a contact having a characteristic intensity that exceeds the second threshold results in a third action. In some embodiments, the comparison between the characteristic intensity and the one or more thresholds is not used to determine whether the first action or the second action should be performed, but rather to determine whether one or more actions should be performed (e.g., whether to perform the respective action or to forgo performing the respective action).

図5Cは、複数の強度センサ524A~524Dによってタッチ感知ディスプレイスクリーン504上で複数の接触552A~552Eを検出することを示す。図5Cは、追加として、強度単位に対する強度センサ524A~524Dの現在の強度測定値を示す強度ダイアグラムを含む。この実施例では、強度センサ524A及び524Dの強度測定値はそれぞれ9強度単位であり、強度センサ524B及び524Cの強度測定値はそれぞれ7強度単位である。いくつかの実装形態では、集約強度は、複数の強度センサ524A~524Dの強度測定値の和であり、この実施例では32強度単位である。いくつかの実施形態では、各接触に、集約強度の一部分であるそれぞれの強度が割り当てられる。図5Dは、力の中心554からの距離に基づいて、集約強度を接触552A~552Eに割り当てることを示す。この実施例では、接触552A、552B、及び552Eのそれぞれに、集約強度の8強度単位の接触の強度が割り当てられ、接触552C及び552Dのそれぞれに、集約強度の4強度単位の接触の強度が割り当てられる。より一般的には、いくつかの実装形態では、各接触jは、所定の数学関数Ij=A・(Dj/ΣDi)に従って、集約強度Aの一部分である、それぞれの強度Ijが割り当てられ、ここで、Djは、力の中心からそれぞれの接触jまでの距離であり、ΣDiは、力の中心から全てのそれぞれ接触(例えば、i=1から最後まで)までの距離の和である。図5C~図5Dを参照して説明した動作は、デバイス100、300又は500と類似若しくは同一の電子デバイスを使用して実行することができる。いくつかの実施形態では、接触の特性強度は、接触の1つ以上の強度に基づいている。いくつかの実施形態では、強度センサは、単一の特性強度(例えば、単一の接触の単一の特性強度)を判定するために使用される。強度ダイアグラムは、表示ユーザインタフェースの一部ではなく、読み手の助けになるように図5C~図5Dに含まれていることに留意されたい。 5C illustrates detecting multiple contacts 552A-552E on the touch-sensitive display screen 504 by multiple intensity sensors 524A-524D. FIG. 5C additionally includes an intensity diagram showing the current intensity measurements of intensity sensors 524A-524D versus intensity units. In this example, the intensity measurements of intensity sensors 524A and 524D are each 9 intensity units, and the intensity measurements of intensity sensors 524B and 524C are each 7 intensity units. In some implementations, the aggregate intensity is the sum of the intensity measurements of the multiple intensity sensors 524A-524D, which in this example is 32 intensity units. In some embodiments, each contact is assigned a respective intensity that is a portion of the aggregate intensity. FIG. 5D illustrates assigning aggregate intensities to contacts 552A-552E based on their distance from the center of force 554. In this example, each of contacts 552A, 552B, and 552E is assigned a contact intensity of 8 intensity units of the aggregate intensity, and each of contacts 552C and 552D is assigned a contact intensity of 4 intensity units of the aggregate intensity. More generally, in some implementations, each contact j is assigned a respective intensity Ij that is a portion of the aggregate intensity A according to a predetermined mathematical function Ij=A·(Dj/ΣDi), where Dj is the distance from the center of force to the respective contact j, and ΣDi is the sum of the distances from the center of force to all respective contacts (e.g., from i=1 to the end). The operations described with reference to Figures 5C-5D can be performed using electronic devices similar or identical to devices 100, 300, or 500. In some embodiments, the characteristic intensity of a contact is based on one or more intensities of the contact. In some embodiments, an intensity sensor is used to determine a single characteristic intensity (e.g., a single characteristic intensity of a single contact). Note that the intensity diagrams are not part of the displayed user interface, but are included in Figures 5C-5D as an aid to the reader.

いくつかの実施形態では、特性強度を判定する目的のために、ジェスチャの一部分が識別される。例えば、タッチ感知面は、任意選択的に、開始位置から遷移して終了位置に到達する連続するスワイプ接触を受信し、その時点で接触の強度が増大する。この実施例では、終了位置での接触の特性強度は、任意選択的に、スワイプ接触全体ではなく、連続するスワイプ接触の一部分のみ(例えば、スワイプ接触のうち終了位置の部分のみ)に基づいている。いくつかの実施形態では、任意選択的に、接触の特性強度を判定する前に、平滑化アルゴリズムがスワイプ接触の強度に適用される。例えば、平滑化アルゴリズムは、任意選択的に、非加重移動平均平滑化アルゴリズム、三角平滑化アルゴリズム、中央値フィルタ平滑化アルゴリズム、及び/又は指数平滑化アルゴリズムのうちの1つ以上を含む。いくつかの状況では、これらの平滑化アルゴリズムは、特性強度を判定する目的のために、スワイプ接触の強度の小幅な上昇又は降下を排除する。 In some embodiments, a portion of the gesture is identified for purposes of determining the characteristic intensity. For example, the touch-sensitive surface optionally receives successive swipe contacts that transition from a start position to an end position, at which point the intensity of the contacts increases. In this example, the characteristic intensity of the contacts at the end position is optionally based on only a portion of the successive swipe contacts (e.g., only the portion of the swipe contacts at the end position) rather than the entire swipe contact. In some embodiments, a smoothing algorithm is optionally applied to the intensity of the swipe contacts prior to determining the characteristic intensity of the contacts. For example, the smoothing algorithm optionally includes one or more of an unweighted moving average smoothing algorithm, a triangular smoothing algorithm, a median filter smoothing algorithm, and/or an exponential smoothing algorithm. In some circumstances, these smoothing algorithms eliminate small increases or decreases in the intensity of the swipe contacts for purposes of determining the characteristic intensity.

タッチ感知面上の接触の強度は、任意選択的に、接触検出強度閾値、軽い押圧強度閾値、深い押圧強度閾値、及び/又は1つ以上の他の強度閾値などの1つ以上の強度閾値に対して特徴付けられる。いくつかの実施形態では、軽い押圧強度閾値は、通常、物理マウスのボタン又はトラックパッドをクリックすることに関連付けられた動作をデバイスが実行する強度に相当する。いくつかの実施形態では、深い押圧強度閾値は、通常、物理マウスのボタン又はトラックパッドをクリックすることに関連付けられた動作とは異なる動作をデバイスが実行する強度に相当する。いくつかの実施形態では、軽い押圧強度閾値を下回る(例えば、それを下回ると接触が検出されなくなる公称接触検出強度閾値を上回る)特性強度を有する接触が検出されたとき、デバイスは、軽い押圧強度閾値又は深い押圧強度閾値に関連付けられた動作を実行することなく、タッチ感知面上の接触の移動に従ってフォーカスセレクタを動かす。一般に、特に明記しない限り、これらの強度閾値は、ユーザインタフェース図の様々なセットの間で一貫している。 The intensity of the contact on the touch-sensitive surface is optionally characterized against one or more intensity thresholds, such as a contact-detection intensity threshold, a light pressure intensity threshold, a deep pressure intensity threshold, and/or one or more other intensity thresholds. In some embodiments, the light pressure intensity threshold corresponds to an intensity at which the device performs an action typically associated with clicking a physical mouse button or trackpad. In some embodiments, the deep pressure intensity threshold corresponds to an intensity at which the device performs an action different from an action typically associated with clicking a physical mouse button or trackpad. In some embodiments, when a contact is detected having a characteristic intensity below the light pressure intensity threshold (e.g., above a nominal contact-detection intensity threshold below which the contact is not detected), the device moves the focus selector in accordance with the movement of the contact on the touch-sensitive surface without performing an action associated with the light pressure intensity threshold or the deep pressure intensity threshold. In general, unless otherwise specified, these intensity thresholds are consistent among the various sets of user interface diagrams.

軽い押圧強度閾値を下回る強度から、軽い押圧強度閾値と深い押圧強度閾値との間の強度への、接触の特性強度の増大は、「軽い押圧」の入力と呼ばれることがある。深い押圧強度閾値を下回る強度から、深い押圧強度閾値を上回る強度への、接触の特性強度の増大は、「深い押圧」の入力と呼ばれることがある。接触検出強度閾値を下回る強度から、接触検出強度閾値と軽い押圧強度閾値との間の強度への、接触の特性強度の増大は、タッチ面上の接触の検出と呼ばれることがある。接触検出強度閾値を上回る強度から、接触検出強度閾値を下回る強度への、接触の特性強度の減少は、タッチ面からの接触のリフトオフの検出と呼ばれることがある。いくつかの実施形態では、接触検出強度閾値はゼロである。いくつかの実施形態では、接触検出強度閾値は、ゼロよりも大きい。 An increase in the characteristic intensity of a contact from an intensity below the light pressure intensity threshold to an intensity between the light pressure intensity threshold and the deep pressure intensity threshold may be referred to as inputting a "light press." An increase in the characteristic intensity of a contact from an intensity below the deep pressure intensity threshold to an intensity above the deep pressure intensity threshold may be referred to as inputting a "deep press." An increase in the characteristic intensity of a contact from an intensity below the contact detection intensity threshold to an intensity between the contact detection intensity threshold and the light pressure intensity threshold may be referred to as detection of a contact on the touch surface. A decrease in the characteristic intensity of a contact from an intensity above the contact detection intensity threshold to an intensity below the contact detection intensity threshold may be referred to as detection of a lift-off of the contact from the touch surface. In some embodiments, the contact detection intensity threshold is zero. In some embodiments, the contact detection intensity threshold is greater than zero.

本明細書に記載するいくつかの実施形態では、それぞれの押圧入力を含むジェスチャを検出したことに応じて、又はそれぞれの接触(若しくは複数の接触)によって実行されたそれぞれの押圧入力を検出したことに応じて、1つ以上の動作が実行され、それぞれの押圧入力は、押圧入力強度閾値を上回る接触(又は複数の接触)の強度の増大を検出したことに少なくとも部分的に基づいて検出される。いくつかの実施形態では、それぞれの動作は、押圧入力強度閾値を上回るそれぞれの接触の強度の増大(例えば、それぞれの押圧入力の「ダウンストローク」)を検出したことに応じて実行される。いくつかの実施形態では、押圧入力は、押圧入力強度閾値を上回るそれぞれの接触の強度の増大、及びそれに続く押圧入力強度閾値を下回る接触の強度の減少を含み、それぞれの動作は、それに続く押圧入力閾値を下回るそれぞれの接触の強度の減少(例えば、それぞれの押圧入力の「アップストローク」)を検出したことに応じて実行される。 In some embodiments described herein, one or more actions are performed in response to detecting a gesture including a respective press input or in response to detecting a respective press input performed by a respective contact (or contacts), where the respective press input is detected based at least in part on detecting an increase in intensity of the contact (or contacts) above a press input intensity threshold. In some embodiments, the respective actions are performed in response to detecting an increase in intensity of the respective contact above a press input intensity threshold (e.g., a "downstroke" of the respective press input). In some embodiments, the press input includes an increase in intensity of the respective contact above a press input intensity threshold followed by a decrease in intensity of the respective contact below the press input intensity threshold, where the respective actions are performed in response to detecting a decrease in intensity of the respective contact below the press input intensity threshold (e.g., an "upstroke" of the respective press input).

図5E~図5Hは、図5Eの軽い押圧強度閾値(例えば、「ITL」)を下回る強度から、図5Hの深い押圧強度閾値(例えば、「ITD」)を上回る強度への、接触562の強度の増大に対応する押圧入力を含むジェスチャの検出を示す。接触562によって実行されるジェスチャは、タッチ感知面560上で検出され、所定の領域574内に表示されたアプリケーションアイコン572A~572Dを含む表示ユーザインタフェース570上では、アプリ2に対応するアプリケーションアイコン572Bの上にカーソル576が表示される。いくつかの実施形態では、ジェスチャは、タッチ感知ディスプレイ504上に検出される。強度センサは、タッチ感知面560上の接触の強度を検出する。デバイスは、接触562の強度が深い押圧強度閾値(例えば、「ITD」)を上回ってピークに達したと判定する。接触562は、タッチ感知面560上で維持される。ジェスチャの検出に応じて、ジェスチャ中に深い押圧強度閾値(例えば、「ITD」)を上回る強度を有する接触562に従って、図5F~図5Hに示すように、アプリ2に対して最近開いた文書の縮尺が低減された表現578A~578C(例えば、サムネイル)が表示される。いくつかの実施形態では、1つ以上の強度閾値と比較されるこの強度は、接触の特性強度である。接触562に対する強度ダイアグラムは、表示ユーザインタフェースの一部ではなく、読み手の助けになるように図5E~図5Hに含まれていることに留意されたい。 5E-5H illustrate detection of a gesture including a press input corresponding to an increase in the intensity of contact 562 from an intensity below a light pressure intensity threshold (e.g., "IT L ") in FIG. 5E to an intensity above a deep pressure intensity threshold (e.g., "IT D ") in FIG. 5H. The gesture performed by contact 562 is detected on touch-sensitive surface 560, and cursor 576 is displayed over application icon 572B corresponding to app2 on display user interface 570, which includes application icons 572A-572D displayed within predetermined region 574. In some embodiments, the gesture is detected on touch-sensitive display 504. An intensity sensor detects the intensity of the contact on touch-sensitive surface 560. The device determines that the intensity of contact 562 has peaked above the deep pressure intensity threshold (e.g., "IT D "). Contact 562 is maintained on touch-sensitive surface 560. In response to detecting the gesture, contact 562 having an intensity above a deep pressure intensity threshold (e.g., "IT D ") during the gesture causes reduced-scale representations 578A-578C (e.g., thumbnails) of recently opened documents to app2 to be displayed, as shown in Figures 5F-5H. In some embodiments, this intensity that is compared to one or more intensity thresholds is a characteristic intensity of the contact. Note that the intensity diagrams for contact 562 are not part of the displayed user interface, but are included in Figures 5E-5H as an aid to the reader.

いくつかの実施形態では、表現578A~578Cの表示は、アニメーションを含む。例えば、図5Fに示すように、表現578Aが、アプリケーションアイコン572Bに近接して最初に表示される。アニメーションが進むにつれて、図5Gに示すように、表現578Aは上方へ動き、表現578Bが、アプリケーションアイコン572Bに近接して表示される。次いで、図5Hに示すように、表現578Aが上方へ動き、表現578Bが表現578Aに向かって上方へ動き、表現578Cが、アプリケーションアイコン572Bに近接して表示される。表現578A~578Cは、アイコン572Bの上にアレイを形成する。いくつかの実施形態では、アニメーションは、図5F~図5Gに示すように、接触562の強度に従って進行し、接触562の強度が深い押圧強度閾値(例えば、「ITD」)に向かって増大するにつれて、表現578A~578Cが現れ、上方へ動く。いくつかの実施形態では、アニメーションの進行が基づいている強度は、接触の特性強度である。図5E~5Hを参照して説明する動作は、デバイス100、300、又は500に類似又は同一の電子デバイスを使用して実行することができる。 In some embodiments, the display of representations 578A-578C includes an animation. For example, as shown in FIG. 5F, representation 578A is first displayed adjacent to application icon 572B. As the animation progresses, representation 578A moves upward and representation 578B is displayed adjacent to application icon 572B, as shown in FIG. 5G. Then, as shown in FIG. 5H, representation 578A moves upward, representation 578B moves upward toward representation 578A, and representation 578C is displayed adjacent to application icon 572B. Representations 578A-578C form an array above icon 572B. In some embodiments, the animation progresses according to the intensity of contact 562, as shown in FIG. 5F-5G, with representations 578A-578C appearing and moving upward as the intensity of contact 562 increases toward a deep pressure intensity threshold (e.g., "IT D "). In some embodiments, the intensity on which the animation progression is based is a characteristic intensity of the contact. The operations described with reference to FIGS. 5E-5H may be performed using an electronic device similar to or identical to device 100, 300, or 500.

いくつかの実施形態では、デバイスは、「ジッタ」と呼ばれる場合がある偶発的な入力を回避するために強度ヒステリシスを採用し、デバイスは、押圧入力強度閾値との既定の関係を有するヒステリシス強度閾値を定義又は選択する(例えば、ヒステリシス強度閾値は、押圧入力強度閾値よりも低いX強度単位であり、又はヒステリシス強度閾値は、押圧入力強度閾値の75%、90%、若しくはなんらかの妥当な割合である)。したがって、いくつかの実施形態では、押圧入力は、押圧入力強度閾値を上回るそれぞれの接触の強度の増大、及びそれに続く押圧入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少を含み、それぞれの動作は、それに続くヒステリシス強度閾値を下回るそれぞれの接触の強度の減少(例えば、それぞれの押圧入力の「アップストローク」)を検出したことに応じて実行される。同様に、いくつかの実施形態では、押圧入力は、デバイスが、ヒステリシス強度閾値以下の強度から押圧入力強度閾値以上の強度への接触の強度の増大、及び任意選択的に、その後のヒステリシス強度以下の強度への接触の強度の減少を検出するときにのみ検出され、それぞれの動作は、押圧入力(例えば、状況に応じて、接触の強度の増大又は接触の強度の減少)を検出したことに応じて実行される。 In some embodiments, the device employs intensity hysteresis to avoid accidental inputs, sometimes referred to as "jitter," and the device defines or selects a hysteresis intensity threshold that has a predefined relationship to the press input intensity threshold (e.g., the hysteresis intensity threshold is X intensity units below the press input intensity threshold, or the hysteresis intensity threshold is 75%, 90%, or some reasonable percentage of the press input intensity threshold). Thus, in some embodiments, the press input includes an increase in the intensity of each contact above the press input intensity threshold, followed by a decrease in the intensity of the contact below the hysteresis intensity threshold corresponding to the press input intensity threshold, and a respective action is performed in response to detecting a subsequent decrease in the intensity of each contact below the hysteresis intensity threshold (e.g., an "upstroke" of each press input). Similarly, in some embodiments, a pressure input is detected only when the device detects an increase in the intensity of the contact from an intensity below the hysteresis intensity threshold to an intensity above the pressure input intensity threshold, and optionally a subsequent decrease in the intensity of the contact to an intensity below the hysteresis intensity, and a respective action is performed in response to detecting the pressure input (e.g., an increase in the intensity of the contact or a decrease in the intensity of the contact, as the case may be).

説明を容易にするために、押圧入力強度閾値に関連付けられた押圧入力、又は押圧入力を含むジェスチャに応じて実行される動作の説明は、任意選択的に、押圧入力強度閾値を上回る接触の強度の増大、ヒステリシス強度閾値を下回る強度から押圧入力強度閾値を上回る強度への接触の強度の増大、押圧入力強度閾値を下回る接触の強度の減少、及び/又は押圧入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少のいずれかを検出したことに応じてトリガされる。更に、押圧入力強度閾値を下回る接触の強度の減少を検出したことに応じて実行されるように動作が記載される例では、動作は、任意選択的に、押圧入力強度閾値に対応し、かつそれよりも低いヒステリシス強度閾値を下回る接触の強度の減少を検出したことに応じて実行される。 For ease of explanation, the description of the operations performed in response to a press input associated with a press input intensity threshold, or a gesture including a press input, is optionally triggered in response to detecting any of an increase in the intensity of the contact above the press input intensity threshold, an increase in the intensity of the contact from an intensity below a hysteresis intensity threshold to an intensity above the press input intensity threshold, a decrease in the intensity of the contact below the press input intensity threshold, and/or a decrease in the intensity of the contact below a hysteresis intensity threshold corresponding to the press input intensity threshold. Further, in examples where an operation is described as being performed in response to detecting a decrease in the intensity of the contact below a press input intensity threshold, the operation is optionally performed in response to detecting a decrease in the intensity of the contact below a hysteresis intensity threshold corresponding to and lower than the press input intensity threshold.

本明細書では、「インストール済みアプリケーション」は、電子デバイス(例えば、デバイス100、300、及び/又は500)上へダウンロードされ、デバイス上で起動する準備ができた(例えば、開かれた)ソフトウェアアプリケーションを指す。いくつかの実施形態では、ダウンロードされたアプリケーションは、ダウンロードされたパッケージからプログラム部分を抽出し、抽出された部分をコンピュータシステムのオペレーティングシステムと統合するインストールプログラムによって、インストール済みアプリケーションになる。 As used herein, an "installed application" refers to a software application that has been downloaded onto an electronic device (e.g., devices 100, 300, and/or 500) and is ready to run (e.g., opened) on the device. In some embodiments, a downloaded application becomes an installed application by an installation program that extracts program portions from a downloaded package and integrates the extracted portions with the computer system's operating system.

本明細書では、「開いているアプリケーション」又は「実行中のアプリケーション」という用語は、保持された状態情報(例えば、デバイス/グローバル内部状態157及び/又はアプリケーション内部状態192の一部として)を有するソフトウェアアプリケーションを指す。開いている又は実行中のアプリケーションは、任意選択的に、以下のタイプのアプリケーションのうちのいずれか1つである。
●アプリケーションが使用されているデバイスのディスプレイスクリーン上に現在表示されているアクティブアプリケーション、
●現在表示されていないが、アプリケーションに対する1つ以上のプロセスが1つ以上のプロセッサによって処理されている背景アプリケーション(又は背景プロセス)、並びに
●稼働していないが、メモリ(揮発性及び不揮発性それぞれ)内に記憶されており、かつアプリケーションの実行を再開するために使用することができる状態情報を有する、中断又は休止状態アプリケーション。
As used herein, the terms "open application" or "running application" refer to a software application that has state information retained (e.g., as part of device/global internal state 157 and/or application internal state 192). An open or running application is, optionally, any one of the following types of applications:
● the active application currently displayed on the display screen of the device on which the application is being used;
- Background applications (or background processes) that are not currently displayed but one or more processes for the application are being processed by one or more processors; and - Suspended or hibernated applications that are not running but have state information stored in memory (volatile and non-volatile respectively) that can be used to resume execution of the application.

本明細書では、「閉じているアプリケーション」という用語は、保持された状態情報を有していないソフトウェアアプリケーションを指す(例えば、閉じているアプリケーションに対する状態情報は、デバイスのメモリ内に記憶されていない)。したがって、アプリケーションを閉じることは、アプリケーションに対するアプリケーションプロセスを停止及び/又は除去し、アプリケーションに対する状態情報をデバイスのメモリから除去することを含む。概して、第1のアプリケーション中に第2のアプリケーションを開いても、第1のアプリケーションは閉じない。第2のアプリケーションが表示されており、かつ第1のアプリケーションが表示を終了されたとき、第1のアプリケーションは背景アプリケーションになる。 As used herein, the term "closed application" refers to a software application that does not have retained state information (e.g., state information for a closed application is not stored in the device's memory). Thus, closing an application includes stopping and/or removing the application process for the application and removing state information for the application from the device's memory. Generally, opening a second application during a first application does not close the first application. When the second application is displayed and the first application is taken off the display, the first application becomes a background application.

次に、ポータブル多機能デバイス100、デバイス300、又はデバイス500などの電子デバイス上で実施されるユーザインタフェース(「UI」)及び関連プロセスの実施形態に注意を向ける。 Attention is now directed to embodiments of user interfaces ("UI") and associated processes implemented on an electronic device such as portable multifunction device 100, device 300, or device 500.

図6A~図6Vは、いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図7A~図7Cにおける処理を含む、以下で説明する処理を例示するために使用される。 Figures 6A-6V show example user interfaces for accessing media controls using an electronic device, according to some embodiments. The user interfaces in these figures are used to illustrate the processes described below, including the processes in Figures 7A-7C.

図6Aは、ディスプレイの上部からディスプレイの底部まで任意選択的に延びるライブプレビュー630を表示する電子デバイス600を示す。ライブプレビュー630は、1つ以上のカメラセンサによって検出された画像に基づく。いくつかの実施形態では、デバイス600は、複数のカメラセンサを使用して画像をキャプチャし、それらを組み合わせてライブプレビュー630を表示する。いくつかの実施形態では、デバイス600は、単一のカメラセンサを使用して画像をキャプチャして、ライブプレビュー630を表示する。図6Aのカメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含み、これらは、インジケータ及びコントロールがライブプレビューと同時に表示され得るように、ライブプレビュー630上に重ね合わされる。カメラディスプレイ領域604は、インジケータ又はコントロールと実質的に重ね合わされない。この実施例では、ライブプレビューは、対象640及び周囲環境を含む。図6Aのカメラユーザインタフェースは、インジケータ領域602とカメラディスプレイ領域604との境界部及びカメラディスプレイ領域604とコントロール領域606との境界部を示す視覚境界部608を含む。ライブプレビュー630は、デバイス600の1つ以上のカメラの(例えば、部分的な)視野の表現である。 FIG. 6A illustrates an electronic device 600 that displays a live preview 630 that optionally extends from the top of the display to the bottom of the display. The live preview 630 is based on images detected by one or more camera sensors. In some embodiments, the device 600 captures images using multiple camera sensors and combines them to display the live preview 630. In some embodiments, the device 600 captures images using a single camera sensor to display the live preview 630. The camera user interface of FIG. 6A includes an indicator area 602 and a control area 606 that are overlaid on the live preview 630 such that the indicators and controls may be displayed simultaneously with the live preview. The camera display area 604 is not substantially overlaid with the indicators or controls. In this example, the live preview includes an object 640 and the surrounding environment. The camera user interface of FIG. 6A includes a visual boundary 608 that indicates the boundary between the indicator area 602 and the camera display area 604 and the boundary between the camera display area 604 and the control area 606. The live preview 630 is a representation of the (e.g., partial) field of view of one or more cameras of the device 600.

図6Aに示すように、インジケータ領域602は、ライブプレビュー630上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。インジケータ領域602は、フラッシュインジケータ602aを含む。概して、フラッシュインジケータ602aは、フラッシュがオン、オフ、又は別のモード(例えば、自動モード)であるかどうかを示す。図6Aにおいて、フラッシュインジケータ602aは、フラッシュがオフであることをユーザに示す。 As shown in FIG. 6A, indicator area 602 is superimposed on live preview 630 and optionally includes a colored (e.g., gray, semi-transparent) overlay. Indicator area 602 includes a flash indicator 602a. Generally, flash indicator 602a indicates whether the flash is on, off, or in another mode (e.g., automatic mode). In FIG. 6A, flash indicator 602a indicates to the user that the flash is off.

図6Aに示すように、カメラディスプレイ領域604は、ライブプレビュー630及びズームアフォーダンス622を含む。図6Aに示すように、コントロール領域606は、ライブプレビュー630上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。 As shown in FIG. 6A, the camera display area 604 includes a live preview 630 and a zoom affordance 622. As shown in FIG. 6A, the control area 606 is superimposed on the live preview 630 and optionally includes a colored (e.g., gray, semi-transparent) overlay.

図6Aに示すように、コントロール領域606は、カメラモードアフォーダンス620、追加のコントロールアフォーダンス614、シャッターアフォーダンス610、及びカメラスイッチャアフォーダンス612を含む。カメラモードアフォーダンス620は、どのカメラモードが現在選択されているかを示し、ユーザがカメラモードを変更することを可能にする。図6Aにおいて、カメラモードアフォーダンス620a~620eが表示され、「Photo」カメラモード620cは、カメラが動作している現在のモードとして太字のテキストで示される。追加のコントロールアフォーダンス614は、ユーザが追加のカメラコントロールにアクセスすることを可能にする。シャッターアフォーダンス610は、アクティブ化されると、デバイス600に、ライブプレビュー630の現在の状態及びカメラアプリケーションの現在の状態に基づいて、1つ以上のカメラセンサを使用して、メディア(例えば、写真)をキャプチャさせる。キャプチャされたメディアは、電子デバイス600にローカルに記憶されるか、及び/又は記憶のためにリモートサーバに送信される。カメラスイッチャアフォーダンス612は、アクティブ化されると、デバイス600に、背面カメラセンサと前面カメラセンサとの間を切り替えることなどによって、ライブプレビュー630内の異なるカメラの視野を示すように切り替えさせる。 As shown in FIG. 6A, the control area 606 includes a camera mode affordance 620, additional control affordances 614, a shutter affordance 610, and a camera switcher affordance 612. The camera mode affordance 620 indicates which camera mode is currently selected and allows the user to change the camera mode. In FIG. 6A, the camera mode affordances 620a-620e are displayed, with the "Photo" camera mode 620c indicated in bold text as the current mode in which the camera is operating. The additional control affordances 614 allow the user to access additional camera controls. The shutter affordance 610, when activated, causes the device 600 to capture media (e.g., a photo) using one or more camera sensors based on the current state of the live preview 630 and the current state of the camera application. The captured media is stored locally on the electronic device 600 and/or transmitted to a remote server for storage. The camera switcher affordance 612, when activated, causes the device 600 to switch to show a different camera's field of view within the live preview 630, such as by switching between a rear camera sensor and a front camera sensor.

図6Bでは、ユーザは、三脚アクセサリ601をデバイス600に取り付けた。その結果、デバイス600は、三脚接続条件が満たされていると判定する。三脚接続条件は、デバイスが接続された三脚を検出するときに満たされ、デバイスが接続された三脚を検出しないときに満たされない条件である。三脚接続条件が満たされていることに基づいて、デバイス600は、コントロール領域を更新して、追加のコントロールアフォーダンス614を拡張し、タイマーコントロールアフォーダンス614aを表示する。いくつかの実施形態では、デバイス600は、タイマーコントロールアフォーダンス614aに向けられた入力が受信されないとき、所定の期間が経過した後に、タイマーコントロールアフォーダンス614aを表示することを停止する。 In FIG. 6B, the user attaches tripod accessory 601 to device 600. As a result, device 600 determines that a tripod connection condition is met. A tripod connection condition is a condition that is met when the device detects a connected tripod and is not met when the device does not detect a connected tripod. Based on the tripod connection condition being met, device 600 updates the control region to extend additional control affordances 614 and display timer control affordance 614a. In some embodiments, device 600 stops displaying timer control affordance 614a after a predetermined period of time has elapsed when no input directed to timer control affordance 614a is received.

図6Aに戻ると、デバイス600は、三脚アクセサリ601が取り付けられていない。その結果、デバイス600は、三脚接続条件が満たされていないと判定する。図6Aでは、三脚接続条件が満たされていることに基づいて、デバイス600は、タイマーコントロールアフォーダンス614aを表示しない。 Returning to FIG. 6A, the device 600 does not have the tripod accessory 601 attached. As a result, the device 600 determines that the tripod connection condition is not met. In FIG. 6A, based on the tripod connection condition being met, the device 600 does not display the timer control affordance 614a.

図6Bでは、デバイス600は、タッチ感知面を使用して、タイマーコントロールアフォーダンス614aを表示することに対応する位置でのタップジェスチャ650aを検出する。図6Cに示すように、タップジェスチャ650aを検出したことに応じて、デバイス600は、カメラディスプレイ領域604の境界(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトアップし、それにより、インジケータ領域602の高さを低減し、コントロール領域606の高さを増加させる。インジケータ領域602の高さの低減に加えて、デバイス600は、フラッシュインジケータ602aを表示することを停止する。いくつかの実施形態では、デバイス600は、インジケータ領域602が高さ低減モードにある間にインジケータ領域602内の任意のインジケータを表示することを停止する。コントロール領域606の高さを増加させることに加えて、デバイス600は、カメラモードアフォーダンス620の表示を、調整可能なタイマーコントロールアフォーダンス634a~634dを含む調整可能なタイマーコントロール634に置き換える。調整可能なタイマーコントロールアフォーダンス634a~634dは、アクティブ化されると、シャッターアフォーダンス610がアクティブ化されたときにメディアをキャプチャするための遅延を変更する(又は変更するためのプロセスを開始した)。例えば、調整可能なタイマーコントロールアフォーダンス634aは、アクティブ化されると、遅延時間を0秒に設定し、調整可能なタイマーコントロールアフォーダンス634bは、アクティブ化されると、遅延を3秒に設定する。図6Cでは、デバイス600はまた、ズームアフォーダンス622をもはや表示していない。 In FIG. 6B, device 600 detects a tap gesture 650a using the touch-sensitive surface at a location corresponding to displaying timer control affordance 614a. As shown in FIG. 6C, in response to detecting tap gesture 650a, device 600 shifts up the boundaries of camera display area 604 (while maintaining the same size and aspect ratio) and visual boundary 608, thereby reducing the height of indicator area 602 and increasing the height of control area 606. In addition to reducing the height of indicator area 602, device 600 stops displaying flash indicator 602a. In some embodiments, device 600 stops displaying any indicators in indicator area 602 while indicator area 602 is in the reduced height mode. In addition to increasing the height of control area 606, device 600 replaces the display of camera mode affordance 620 with adjustable timer control 634, which includes adjustable timer control affordances 634a-634d. Adjustable timer control affordances 634a-634d, when activated, changed (or initiated a process to change) the delay for capturing media when shutter affordance 610 was activated. For example, adjustable timer control affordance 634a, when activated, sets the delay time to 0 seconds, and adjustable timer control affordance 634b, when activated, sets the delay to 3 seconds. In FIG. 6C, device 600 also no longer displays zoom affordance 622.

図6Cでは、デバイス600は、タッチ感知面を使用して、調整可能なタイマーコントロールアフォーダンス634dに対応する位置でのタップジェスチャ650bを検出する。図6Dに示すように、タップジェスチャ650bを検出したことに応じて、デバイス600は、調整可能なタイマーコントロール634を更新して、「OFF(オフ)」がもはや選択されておらず、「10秒」が現在は選択されていることを(例えば、太字、ハイライトにより)を示す。加えて、デバイス600は、シャッターアフォーダンス610がアクティブ化されたときに、メディアをキャプチャするために、10秒のセルフタイマー遅延を設定する。いくつかの実施形態では、更に、タップジェスチャ650bを検出したことに応じて、かつ追加のユーザ入力を受信することなく、デバイス600は、タップジェスチャ650bを検出した後の所定の期間の後に、調整可能なタイマーコントロール634を表示することを停止する。 In FIG. 6C, device 600 detects a tap gesture 650b using the touch-sensitive surface at a location corresponding to adjustable timer control affordance 634d. As shown in FIG. 6D, in response to detecting tap gesture 650b, device 600 updates adjustable timer control 634 to indicate (e.g., by bolding, highlighting) that "OFF" is no longer selected and "10 seconds" is now selected. In addition, device 600 sets a 10 second self-timer delay for capturing media when shutter affordance 610 is activated. In some embodiments, further in response to detecting tap gesture 650b and without receiving additional user input, device 600 stops displaying adjustable timer control 634 after a predetermined period after detecting tap gesture 650b.

図6Dでは、調整可能なタイマーコントロール634が表示され、かつインジケータ領域602が高さ低減モードにある間に、デバイス600は、タッチ感知面を使用して、追加のコントロールアフォーダンス614に対応する位置でのタップジェスチャ650cを検出する。図6Eに示すように、タップジェスチャ650cを検出したことに応じて、デバイス600は、カメラディスプレイ領域604の境界(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトダウンし、それにより、インジケータ領域602の高さを増加させ、コントロール領域606の高さを低減させる。インジケータ領域602の高さを増加させることに加えて、デバイス600は、コントロール領域606内にフラッシュインジケータ602aを再表示する。いくつかの実施形態では、インジケータ領域602が高さ低減モードにないとき(例えば、インジケータがインジケータ領域602内に表示されているとき)、デバイス600は、インジケータ領域602内に(状態(オン、オフ、自動)にかかわらず)フラッシュインジケータ602aを表示する。コントロール領域606の高さを減少させることに加えて、デバイス600は、調整可能なタイマーコントロール634の表示を、カメラモードアフォーダンス620に置き換える。更に、デバイス600は、カメラディスプレイ領域604内にズームアフォーダンス610を再表示する。セルフタイマー機能がアクティブ化されている結果(例えば、0秒よりも大きい遅延に設定されている)として、デバイス600は、インジケータ領域602内にタイマー状態インジケータ602bを表示する。フラッシュインジケータ602aと同様に、タイマー状態インジケータ602bは、セルフタイマーの状態のインジケーションが提供される。図6Eの例では、タイマー状態インジケータ602bは、セルフタイマー遅延が10秒に設定されていることを示す。いくつかの実施形態では、タイマー状態インジケータ602bは、セルフタイマー遅延が無効化されている(又は0秒に設定されている)ときには表示されない。いくつかの実施形態では、(例えば、タップジェスチャオン)タイマー状態インジケータ602bのアクティブ化により、デバイス600に、セルフタイマー遅延を変更するための様々なオプションを、調整可能なタイマーコントロール634内などに表示させる。 In FIG. 6D, while adjustable timer control 634 is displayed and indicator area 602 is in the reduced height mode, device 600 detects tap gesture 650c using the touch-sensitive surface at a location corresponding to additional control affordance 614. As shown in FIG. 6E, in response to detecting tap gesture 650c, device 600 shifts down the boundary of camera display area 604 (while maintaining the same size and aspect ratio) and visual boundary 608, thereby increasing the height of indicator area 602 and reducing the height of control area 606. In addition to increasing the height of indicator area 602, device 600 redisplays flash indicator 602a in control area 606. In some embodiments, when indicator area 602 is not in the reduced height mode (e.g., when an indicator is displayed in indicator area 602), device 600 displays flash indicator 602a in indicator area 602 (regardless of state (on, off, auto)). In addition to decreasing the height of the control region 606, the device 600 replaces the display of the adjustable timer control 634 with the camera mode affordance 620. Additionally, the device 600 redisplays the zoom affordance 610 in the camera display region 604. As a result of the self-timer function being activated (e.g., set to a delay greater than 0 seconds), the device 600 displays a timer status indicator 602b in the indicator region 602. Similar to the flash indicator 602a, the timer status indicator 602b provides an indication of the status of the self-timer. In the example of FIG. 6E, the timer status indicator 602b indicates that the self-timer delay is set to 10 seconds. In some embodiments, the timer status indicator 602b is not displayed when the self-timer delay is disabled (or set to 0 seconds). In some embodiments, activation of the timer status indicator 602b (e.g., on a tap gesture) causes the device 600 to display various options for changing the self-timer delay, such as in the adjustable timer control 634.

図6Eでは、シャッターアフォーダンス610のアクティブ化(例えば、その上のタップジェスチャ)により、デバイス600に、フラッシュなしで(フラッシュインジケータ602aによって示されるように)、かつ10秒のセルフタイマー遅延(タイマー状態インジケータ602bによって示されるように)を有すること含む、デバイスの現在の状態に基づいて、メディア(例えば、画像、一連の画像)のキャプチャを開始させる。いくつかの実施形態では、図8A~図8Vに関して更に詳細に説明されるように、デバイス600は、インジケータ領域602及びコントロール領域606に示されるように、ライブプレビュー630に対応する視覚コンテンツ(及び任意選択的に追加の視覚コンテンツ)を含む。 6E, activation of the shutter affordance 610 (e.g., a tap gesture thereon) causes the device 600 to initiate capture of media (e.g., an image, a series of images) based on the device's current state, including without a flash (as indicated by flash indicator 602a) and with a 10 second self-timer delay (as indicated by timer state indicator 602b). In some embodiments, the device 600 includes visual content (and optionally additional visual content) corresponding to a live preview 630, as indicated in indicator region 602 and control region 606, as described in further detail with respect to FIGS. 8A-8V.

図6Fでは、デバイス600のカメラ機能は、ライブプレビュー630に示すように、低光環境で使用される。低光環境にある間は、デバイス600は、1つ以上のカメラセンサ、周辺光センサ、及び/又は環境照明条件を検出する追加のセンサを使用して、低光条件が満たされていると判定する(例えば、環境照明条件が閾値(例えば、10ルクス)を下回り、かつフラッシュが有効化されていないことをデバイス600が検出するときに満たされ、環境照明条件が閾値を下回らないか、又はフラッシュが有効化(オン又は自動)されていることをデバイスが検出するときに満たされない条件)。図6Fにおいて、低光条件が満たされているとの判定に従って、デバイス600は、インジケータ領域602内に低光モード状態インジケータ602cを(例えば、追加のユーザ入力を必要とせずに)表示する。加えて、図6F~図6Gに示すように、低光条件が満たされているとの判定に従って、デバイス600は、インジケータ領域606内に低光モードコントロールアフォーダンス614b及びフラッシュコントロールアフォーダンス614cを(例えば、追加のユーザ入力を必要とせずに)表示する。いくつかの実施形態では、デバイス600は、1つのアフォーダンスを他のアフォーダンスに置き換えることによって、インジケータ領域606内に低光モードコントロールアフォーダンス614bの表示とフラッシュコントロールアフォーダンス614cの表示との間で(例えば、所定の回数)サイクルする。いくつかの実施形態では、低光モードコントロールアフォーダンス614b及びフラッシュコントロールアフォーダンス614cは、インジケータ領域606内に同時に表示される。いくつかの実施形態では、低光モードコントロールアフォーダンス614b及びフラッシュコントロールアフォーダンス614cのそれぞれが、異なる照明条件(例えば、異なる周辺光レベル)に対応し、アフォーダンスは、それらの対応する照明条件が満たされているときに、コントロール領域606内に表示される(及び、それらの対応する照明条件が満たされているときに表示されない)。いくつかの例では、第1の照明条件は、環境照明条件が第1の閾値(例えば、20ルクス)を下回ることをデバイス600が検出すると満たされ、第2の照明条件は、環境照明条件が第2の閾値(例えば、10ルクス)を下回ることをデバイス600が検出するときに満たされる。いくつかの実施形態では、照明条件は、デバイス600によって検出された環境光の量、及び任意選択的に、フラッシュが有効化されているかどうかに基づく。デバイス600は、任意選択的に、インジケータに対応する機能(例えば、照明強調機能)が使用可能である場合(対応する機能が有効化されているか又は無効化されているかどうかにかかわらず)、低光モード状態インジケータ602cを表示する。 In FIG. 6F, the camera function of the device 600 is used in a low light environment, as shown in the live preview 630. While in a low light environment, the device 600 uses one or more camera sensors, an ambient light sensor, and/or additional sensors that detect the environmental lighting conditions to determine that a low light condition is met (e.g., a condition that is met when the device 600 detects that the environmental lighting conditions are below a threshold (e.g., 10 lux) and the flash is not enabled, and a condition that is not met when the device detects that the environmental lighting conditions are not below the threshold or the flash is enabled (on or automatic)). In FIG. 6F, in response to a determination that a low light condition is met, the device 600 displays a low light mode status indicator 602c (e.g., without requiring additional user input) in the indicator area 602. In addition, as shown in FIG. 6F-FIG. 6G, in response to a determination that a low light condition is met, the device 600 displays a low light mode control affordance 614b and a flash control affordance 614c (e.g., without requiring additional user input) in the indicator area 606. In some embodiments, the device 600 cycles (e.g., a predetermined number of times) between displaying the low light mode control affordance 614b and the flash control affordance 614c in the indicator region 606 by replacing one affordance with the other. In some embodiments, the low light mode control affordance 614b and the flash control affordance 614c are displayed simultaneously in the indicator region 606. In some embodiments, each of the low light mode control affordance 614b and the flash control affordance 614c corresponds to a different lighting condition (e.g., different ambient light levels), and the affordances are displayed in the control region 606 when their corresponding lighting condition is met (and are not displayed when their corresponding lighting condition is met). In some examples, the first lighting condition is met when the device 600 detects that the environmental lighting condition is below a first threshold (e.g., 20 lux), and the second lighting condition is met when the device 600 detects that the environmental lighting condition is below a second threshold (e.g., 10 lux). In some embodiments, the lighting conditions are based on the amount of ambient light detected by device 600, and optionally, whether a flash is enabled. Device 600 optionally displays low light mode status indicator 602c if a feature corresponding to the indicator (e.g., a lighting enhancement feature) is available (regardless of whether the corresponding feature is enabled or disabled).

対照的に、図6A~図6Eにおいて、低光条件が満たされていないとデバイス600が判定することに従って、デバイス600は、低光モードコントロールアフォーダンス614b、低光モード状態インジケータ602c、及び低光モード状態インジケータ602cを、それらの対応するカメラユーザインタフェース内に表示することをやめる。いくつかの実施形態では、デバイス600は、インジケータに対応する機能(例えば、照明強調機能)が使用可能でない場合、インジケータ領域602内に低光モード状態インジケータ602cを表示しない。 6A-6E, in accordance with device 600 determining that low light conditions are not met, device 600 ceases to display low light mode control affordance 614b, low light mode status indicator 602c, and low light mode status indicator 602c within their corresponding camera user interfaces. In some embodiments, device 600 does not display low light mode status indicator 602c within indicator region 602 if the functionality corresponding to the indicator (e.g., lighting enhancement functionality) is not available.

図6Gに戻ると、デバイス600は、タッチ感知面を使用して、フラッシュコントロールアフォーダンス614cに対応する位置でのタップジェスチャ650dを検出する。図6Hに示すように、タップジェスチャ650dを検出したことに応じて、デバイス600は、カメラディスプレイ領域604の境界(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトアップし、それにより、インジケータ領域602の高さを減少させ、コントロール領域606の高さを増加させる。インジケータ領域602の高さを減少させることに加えて、デバイス600は、コントロール領域606内のフラッシュインジケータ602aを表示することを停止する。いくつかの実施形態では、インジケータ領域602が高さ低減モードにあるときであっても、デバイス600は、インジケータ領域602内に(状態(オン、オフ、自動)にかかわらず)フラッシュインジケータ602aを表示し続ける。コントロール領域606の高さを増加させることに加えて、デバイス600は、カメラモードアフォーダンス620の表示を、調整可能なフラッシュコントロール662に置き換える。調整可能なフラッシュコントロール662は、フラッシュオンコントロール662a及びフラッシュオフコントロール662bを含む。デバイス600は、例えば、フラッシュオフコントロール662b内の「OFF」を強調(例えば、太字、ハイライト)することにより、フラッシュがオフ状態にあることを示す。いくつかの実施形態では、デバイス600はまた、カメラディスプレイ領域604内のズームアフォーダンス610を表示することを停止する。いくつかの実施形態では、デバイス600は、カメラディスプレイ領域604内のズームアフォーダンス610の表示を維持する。 Returning to FIG. 6G, device 600 detects tap gesture 650d using the touch-sensitive surface at a location corresponding to flash control affordance 614c. As shown in FIG. 6H, in response to detecting tap gesture 650d, device 600 shifts up the boundary of camera display area 604 (while maintaining the same size and aspect ratio) and visual boundary 608, thereby decreasing the height of indicator area 602 and increasing the height of control area 606. In addition to decreasing the height of indicator area 602, device 600 stops displaying flash indicator 602a in control area 606. In some embodiments, device 600 continues to display flash indicator 602a in indicator area 602 (regardless of state (on, off, auto)) even when indicator area 602 is in height reduction mode. In addition to increasing the height of control area 606, device 600 replaces the display of camera mode affordance 620 with adjustable flash control 662. The adjustable flash control 662 includes a flash on control 662a and a flash off control 662b. The device 600 indicates that the flash is off, for example, by emphasizing (e.g., bolding, highlighting) "OFF" in the flash off control 662b. In some embodiments, the device 600 also stops displaying the zoom affordance 610 in the camera display area 604. In some embodiments, the device 600 maintains the display of the zoom affordance 610 in the camera display area 604.

図6Hでは、デバイス600は、タッチ感知面を使用して、フラッシュオンコントロール662aに対応する位置でのタップジェスチャ650eを検出する。図6Iに示すように、タップジェスチャ650bを検出したことに応じて、デバイス600は、調整可能なフラッシュコントロール662を更新して、「OFF(オフ)」(フラッシュオフコントロール662bに対応)がもはや選択されておらず、「ON(オン)」(フラッシュオンコントロール662aに対応)が現在は選択されていることを(例えば、太字、ハイライトにより)を示す。 In FIG. 6H, device 600 uses the touch-sensitive surface to detect a tap gesture 650e at a location corresponding to flash on control 662a. As shown in FIG. 6I, in response to detecting tap gesture 650b, device 600 updates adjustable flash control 662 to indicate (e.g., by being bolded, highlighted) that "OFF" (corresponding to flash off control 662b) is no longer selected and that "ON" (corresponding to flash on control 662a) is now selected.

いくつかの実施形態では、更に、タップジェスチャ650eを検出したことに応じて、かつ追加のユーザ入力を受信することなく、デバイス600は、タップジェスチャ650eを検出した後の所定の期間の後に、更新された調整可能なフラッシュコントロール662を表示することを停止し、図6Iに示すユーザインタフェースに遷移する。具体的には、デバイス600は、カメラディスプレイ領域604の境界(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトダウンし、それにより、インジケータ領域602の高さを増加させ、コントロール領域606の高さを低減させる(図6Hのユーザインタフェースと比較して)。インジケータ領域602の高さを増加させることに加えて、デバイス600は、コントロール領域606内にフラッシュインジケータ602a(現在、フラッシュが有効化されていることを示す)を再表示する。コントロール領域606の高さを減少させることに加えて、デバイス600は、調整可能なフラッシュコントロール662の表示を、カメラモードアフォーダンス620に置き換える。更に、デバイス600は、カメラディスプレイ領域604内にズームアフォーダンス610を再表示する。図6Jでは、低光条件が満たされ続けているとの判定に従って、デバイス600は、コントロール領域606内にフラッシュコントロールアフォーダンス614cを(例えば、追加のユーザ入力を必要とせずに)表示する。図6Jでは、低光条件はもはや満たされず(例えば、フラッシュがオンであるため)、その結果、低光モード状態インジケータ602cは、図18A~図18Xに関してより詳細に説明されるように、インジケータ領域602内にもはや表示されない。 In some embodiments, further in response to detecting the tap gesture 650e and without receiving any additional user input, the device 600 stops displaying the updated adjustable flash control 662 after a predetermined period of time after detecting the tap gesture 650e and transitions to the user interface shown in FIG. 6I. Specifically, the device 600 shifts down the boundaries of the camera display area 604 (while maintaining the same size and aspect ratio) and the visual boundary 608, thereby increasing the height of the indicator area 602 and decreasing the height of the control area 606 (compared to the user interface of FIG. 6H). In addition to increasing the height of the indicator area 602, the device 600 redisplays the flash indicator 602a (indicating that the flash is now enabled) in the control area 606. In addition to decreasing the height of the control area 606, the device 600 replaces the display of the adjustable flash control 662 with the camera mode affordance 620. In addition, the device 600 redisplays the zoom affordance 610 in the camera display area 604. In FIG. 6J, pursuant to a determination that the low light condition continues to be satisfied, the device 600 displays (e.g., without requiring additional user input) a flash control affordance 614c within the control region 606. In FIG. 6J, the low light condition is no longer satisfied (e.g., because the flash is on), and as a result, the low light mode status indicator 602c is no longer displayed within the indicator region 602, as described in more detail with respect to FIGS. 18A-18X.

図6Jでは、デバイス600は、タッチ感知面を使用して、追加のコントロールアフォーダンス614に対応する位置でのタップジェスチャ650fを検出する。図6Kに示すように、タップジェスチャ650fを検出したことに応じて、デバイス600は、カメラディスプレイ領域604の境界(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトアップし、それにより、インジケータ領域602の高さを減少させ、コントロール領域606の高さを増加させる。インジケータ領域602の高さを減少させることに加えて、デバイス600は、コントロール領域606内のフラッシュインジケータ602aを表示することを停止する。インジケータ領域602の高さの低減に加えて、デバイス600は、フラッシュインジケータ602aを表示することを停止する。コントロール領域606の高さを増加させることに加えて、デバイス600は、カメラモードアフォーダンス620の表示を、第1の1組のカメラ設定アフォーダンス626a~626eを含むカメラ設定アフォーダンス626に置き換える。カメラ設定アフォーダンス626a~626eは、アクティブ化されると、カメラ設定を変更する(又は変更するためのプロセスを開始する)。例えば、アフォーダンス626aは、アクティブ化されると、フラッシュをオン/オフし、アフォーダンス626dは、アクティブ化されると、セルフ遅延タイマー(シャッター時間としても知られる)を設定するプロセスを開始する。 In FIG. 6J, device 600 detects a tap gesture 650f using the touch-sensitive surface at a location corresponding to additional control affordance 614. As shown in FIG. 6K, in response to detecting tap gesture 650f, device 600 shifts up the boundary of camera display area 604 (while maintaining the same size and aspect ratio) and visual boundary 608, thereby decreasing the height of indicator area 602 and increasing the height of control area 606. In addition to decreasing the height of indicator area 602, device 600 stops displaying flash indicator 602a in control area 606. In addition to reducing the height of indicator area 602, device 600 stops displaying flash indicator 602a. In addition to increasing the height of control area 606, device 600 replaces the display of camera mode affordance 620 with camera settings affordance 626, which includes a first set of camera settings affordances 626a-626e. Camera setting affordances 626a-626e, when activated, change (or initiate a process to change) camera settings. For example, affordance 626a, when activated, turns the flash on/off, and affordance 626d, when activated, initiates a process to set a self-delay timer (also known as the shutter time).

図6Kでは、デバイス600は、タッチ感知面を使用して、アニメーション化された画像コントロールアフォーダンス626bに対応する位置(コントロール領域606内)でのタップジェスチャ650gを検出する。図6Lでは、タップジェスチャ650gを検出したことに応じて、デバイス600は、アニメーション化された画像コントロールアフォーダンス626bの表示を拡張して、調整可能なアニメーション化された画像コントロール664を表示し、これは、アクティブ化されると(例えば、タップにより)、デバイスが単一の画像又は既定の数の画像をキャプチャするかどうかを構成する、複数のアフォーダンス664a~664bを含む。図6Lでは、アニメーション化された画像コントロールオフオプション664bが強調され(例えば、太字化される)、シャッターアフォーダンス610のアクティブ化が、既定の数の画像ではなく単一の画像をキャプチャすることを示す。 In FIG. 6K, device 600 uses the touch-sensitive surface to detect a tap gesture 650g at a location (within control region 606) that corresponds to animated image control affordance 626b. In FIG. 6L, in response to detecting tap gesture 650g, device 600 extends the display of animated image control affordance 626b to display adjustable animated image control 664, which includes a number of affordances 664a-664b that, when activated (e.g., by a tap), configure whether the device captures a single image or a predefined number of images. In FIG. 6L, animated image control off option 664b is highlighted (e.g., bolded) to indicate that activation of shutter affordance 610 will capture a single image rather than a predefined number of images.

図6Lでは、デバイス600は、タッチ感知面を使用して、アニメーション化された画像コントロールアフォーダンス626bに対応する位置(コントロール領域606内)でのタップジェスチャ650hを検出する。図6Mでは、タップジェスチャ650gを検出したことに応じて、デバイス600は、調整可能なアニメーション化された画像コントロール664を更新して、アニメーション化された画像コントロールオフオプション664bの強調を停止し、代わりに、(例えば、「ON」を太字化することによって)オプション664a上のアニメーション化された画像コントロールを強調する。更に、タップジェスチャ650hを検出したことに応じて、デバイス600は、シャッターアフォーダンス610のアクティブ化(例えば、タップオン)が検出されると、既定の数の画像をキャプチャするようにカメラを構成する。 In FIG. 6L, device 600 detects a tap gesture 650h using the touch-sensitive surface at a location (within control region 606) that corresponds to animated image control affordance 626b. In FIG. 6M, in response to detecting tap gesture 650g, device 600 updates adjustable animated image control 664 to de-emphasize animated image control off option 664b and instead highlight the animated image control on option 664a (e.g., by bolding "ON"). Further, in response to detecting tap gesture 650h, device 600 configures the camera to capture a predefined number of images when activation of shutter affordance 610 (e.g., tapping on) is detected.

いくつかの実施形態では、更に、タップジェスチャ650hを検出したことに応じて、かつ追加のユーザ入力を受信することなく、デバイス600は、タップジェスチャ650hを検出した後の所定の期間の後に、更新された調整可能なアニメーション化された画像コントロール664を表示することを停止し、図6Nに示すユーザインタフェースに遷移する。いくつかの実施形態では、タッチ感知面を使用して、カメラディスプレイ領域606内のライブプレビュー630に対応する位置での下スワイプジェスチャ650iを検出したことに応じて、デバイス600は、図6Nに示すユーザインタフェースを表示するように遷移する。 In some embodiments, further in response to detecting tap gesture 650h and without receiving additional user input, device 600 stops displaying updated adjustable animated image control 664 a predetermined period of time after detecting tap gesture 650h and transitions to the user interface shown in FIG. 6N. In some embodiments, in response to detecting a down swipe gesture 650i using the touch-sensitive surface at a location corresponding to live preview 630 in camera display area 606, device 600 transitions to displaying the user interface shown in FIG. 6N.

図6M~図6Nのユーザインタフェースから遷移する際、デバイス600は、カメラディスプレイ領域604の境界(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトダウンし、それにより、インジケータ領域602の高さを増加させ、コントロール領域606の高さを低減させる(図6Mのユーザインタフェースと比較して)。インジケータ領域602の高さを増加させることに加えて、デバイス600は、フラッシュが有効化されていることを示す、フラッシュインジケータ602aを再表示し、カメラがコントロール領域606内の既定の数の画像(上述のように)をキャプチャすることを示す、アニメーション化された画像状態インジケータ602dを更に表示する。コントロール領域606の高さを減少させることに加えて、デバイス600は、調整可能なアニメーション化された画像コントロール664の表示を、カメラモードアフォーダンス620に置き換える。更に、デバイス600は、カメラディスプレイ領域604内にズームアフォーダンス610を再表示する。図6Nでは、低光条件が満たされ続けているとの判定に従って、デバイス600は、コントロール領域606内にフラッシュコントロールアフォーダンス614cを(例えば、追加のユーザ入力を必要とせずに)表示する。 6M-6N, the device 600 shifts down the boundaries of the camera display area 604 (while maintaining the same size and aspect ratio) and the visual border 608, thereby increasing the height of the indicator area 602 and decreasing the height of the control area 606 (compared to the user interface of FIG. 6M). In addition to increasing the height of the indicator area 602, the device 600 redisplays the flash indicator 602a, indicating that the flash is enabled, and further displays an animated image status indicator 602d, indicating that the camera will capture a predefined number of images (as described above) in the control area 606. In addition to decreasing the height of the control area 606, the device 600 replaces the display of the adjustable animated image control 664 with the camera mode affordance 620. Additionally, the device 600 redisplays the zoom affordance 610 in the camera display area 604. In FIG. 6N, pursuant to a determination that low light conditions continue to be met, the device 600 displays a flash control affordance 614c within the control region 606 (e.g., without requiring additional user input).

図6Nでは、カメラフラッシュが有効化され、かつアニメーション化された画像コントロールが有効化されている間に、デバイス600は、タッチ感知面を使用して、シャッターアフォーダンス610に対応する位置でのタップジェスチャ650jを検出する。タップジェスチャ650jを検出したことに応じて、デバイス600は、ライブプレビュー630の現在の状態及びカメラ設定に基づいて、メディア(例えば、既定の数の画像)をキャプチャする。キャプチャされたメディアは、デバイス600にローカルに記憶されるか、及び/又は記憶のためにリモートサーバに送信される。更に、図6Oに示すようにタップジェスチャ650jを検出したことに応じて、デバイス600は、(例えば、追加のコントロールアフォーダンス614の表示を部分的に又は完全に置き換えることによって)メディアコレクション624を表示し、コレクションの上に新たにキャプチャされたメディアの表現を含む。図6Oの例では、メディアコレクション624は、新たにキャプチャされたメディアの表現のみを含み、他のメディアの表現を含まない。シャッターアフォーダンス610がアクティブ化されたときにカメラフラッシュが有効化されていたため、新たにキャプチャされたメディアは、フラッシュを用いてキャプチャされた。シャッターアフォーダンス610がアクティブ化されたときにアニメーション化された画像コントロールが有効化されていたため、新たにキャプチャされたメディアは、既定の数の画像(例えば、静止画像及びビデオ)を含む。 In FIG. 6N, while the camera flash is enabled and the animated image control is enabled, device 600 detects a tap gesture 650j using the touch-sensitive surface at a location corresponding to shutter affordance 610. In response to detecting tap gesture 650j, device 600 captures media (e.g., a predefined number of images) based on the current state of live preview 630 and the camera settings. The captured media is stored locally on device 600 and/or transmitted to a remote server for storage. Further, in response to detecting tap gesture 650j as shown in FIG. 6O, device 600 displays media collection 624 (e.g., by partially or completely replacing the display of additional control affordance 614) and includes a representation of the newly captured media on top of the collection. In the example of FIG. 6O, media collection 624 includes only a representation of the newly captured media and does not include representations of other media. Because the camera flash was enabled when shutter affordance 610 was activated, the newly captured media was captured using a flash. Because the animated image control was enabled when the shutter affordance 610 was activated, the newly captured media includes a default number of images (e.g., still images and video).

図6Oでは、デバイス600は、タッチ感知面を使用して、メディアコレクション624に対応する位置でのタップジェスチャ650kを検出する。図6Pに示すようにタップジェスチャ650kを検出したことに応じて、デバイス600は、ライブプレビュー630を表示することを停止し、代わりに、新たにキャプチャされたメディアの表現642を含む写真ビューワユーザインタフェースを表示する。キャプチャされたメディアは、フラッシュを有効化してキャプチャされたため、新たにキャプチャされたメディアの表現642は、シャッターアフォーダンス610がアクティブ化されたときに表示されたライブプレビュー630のビューよりも明るい(フラッシュがアクティブ化されたため)。キャプチャされたメディアの表示表現642は、画像が撮影されたときにカメラディスプレイ領域604内に表示されたライブプレビュー630の視覚コンテンツを含むが、インジケータ領域602及びコントロール領域606内に表示されたライブプレビュー630の視覚コンテンツを含まない。デバイス600がキャプチャされたメディアを再生するとき、再生には、一連の画像がキャプチャされたときにカメラディスプレイ領域604内に表示されたライブプレビュー630の視覚コンテンツの視覚的再生を含むが、インジケータ領域602及びコントロール領域606内に表示されたライブプレビュー630の視覚コンテンツを含まない(また、記録中にライブプレビュー630内に表示されなかったが、キャプチャされたメディアを記憶する部分として任意選択的に保存された記録された視覚コンテンツも含まない)。いくつかの実施形態では、図10A~図10Kに関して更に説明されるように、キャプチャされたメディアの記録中にインジケータ領域602及びコントロール領域606内に表示されたライブプレビュー630の視覚コンテンツは、保存されたメディアに記憶される。 In Figure 6O, device 600 detects a tap gesture 650k using the touch-sensitive surface at a location corresponding to media collection 624. In response to detecting tap gesture 650k as shown in Figure 6P, device 600 stops displaying live preview 630 and instead displays a photo viewer user interface including a representation 642 of the newly captured media. Because the captured media was captured with the flash enabled, representation 642 of the newly captured media is brighter (because the flash was activated) than the view of live preview 630 that was displayed when shutter affordance 610 was activated. Display representation 642 of captured media includes the visual content of live preview 630 that was displayed in camera display area 604 when the image was taken, but does not include the visual content of live preview 630 that was displayed in indicator area 602 and control area 606. When device 600 plays back the captured media, the playback includes a visual playback of the visual content of live preview 630 that was displayed in camera display area 604 when the sequence of images was captured, but does not include the visual content of live preview 630 that was displayed in indicator area 602 and control area 606 (nor does it include recorded visual content that was not displayed in live preview 630 during recording, but was optionally saved as part of the storage of the captured media). In some embodiments, as further described with respect to FIGS. 10A-10K, the visual content of live preview 630 that was displayed in indicator area 602 and control area 606 during recording of the captured media is stored in the saved media.

図6Pでは、デバイス600は、新たにキャプチャされたメディアの表現642と、新たにキャプチャされたメディアを編集するための編集アフォーダンス644aと、新たにキャプチャされたメディアを送信するための送信アフォーダンス644bと、新たにキャプチャされたメディアをお気に入りのメディアとしてマーキングするためのお気に入りアフォーダンス644cと、新たにキャプチャされたメディアを削除するためのごみ箱アフォーダンス644dと、ライブプレビュー630の表示に戻るための戻るアフォーダンス644eと、を同時に表示する。デバイス600は、アニメーション化された画像コントロールが有効化されている間に表示されたメディアがキャプチャされたと判定し、それに応じて、アニメーション化された画像状態インジケータ644fを表示する。 In FIG. 6P, device 600 simultaneously displays a representation 642 of the newly captured media, an edit affordance 644a for editing the newly captured media, a send affordance 644b for sending the newly captured media, a favorite affordance 644c for marking the newly captured media as favorite media, a trash affordance 644d for deleting the newly captured media, and a back affordance 644e for returning to displaying live preview 630. Device 600 determines that the displayed media was captured while the animated image control was enabled, and accordingly displays animated image status indicator 644f.

図6Pでは、デバイス600は、タッチ感知面を使用して、戻るアフォーダンス644eに対応する位置でのタップジェスチャ650lを検出する。図6Qに示すようにタップジェスチャ650lを検出したことに応じて、デバイス600は、新たにキャプチャされたメディアの表現642を含む写真ビューワユーザインタフェースの表示を、ライブプレビュー630を含むカメラユーザインタフェースの表示に置き換える。 In FIG. 6P, device 600 uses the touch-sensitive surface to detect a tap gesture 650l at a location corresponding to back affordance 644e. In response to detecting tap gesture 650l as shown in FIG. 6Q, device 600 replaces the display of the photo viewer user interface, including the representation 642 of the newly captured media, with a display of the camera user interface, including live preview 630.

図6Qでは、デバイス600は、タッチ感知面を使用して、カメラポートレートモードアフォーダンス620dに対応する位置でのタップジェスチャ650mを検出する。図6Rでは、タップジェスチャ650mを検出したことに応じて、デバイス600は、インジケータ領域602内の訂正された1組のインジケータ、更新されたライブプレビュー630、及び更新されたコントロール領域606を表示する。訂正された1組のインジケータは、以前に表示されたアニメーション化された画像状態インジケータ602dを表示することなく(例えば、新たに選択されたモードは、アニメーション化された画像状態インジケータ602dに対応する機能と不適合であるため)、以前に表示されたフラッシュインジケータ602a及び新たに表示されたf値インジケータ602eを含む(例えば、新たに選択されたモードは、フラッシュインジケータ602a及びf値インジケータ602eに対応する機能と互換性があるため)。いくつかの実施形態では、f値インジケータ602eは、f値(例えば、数値)のインジケーションを提供する。図6Tでは、ズームアフォーダンス622は、左にシフトしており、照明効果コントロール628(アクティブ化されると、照明効果を変更することができる)がカメラディスプレイ領域604内に表示されている。いくつかの実施形態では、カメラディスプレイ領域604のサイズ、アスペクト比、及び位置は、図6Rと図6Qで同一である。図6Rの更新されたライブプレビュー630は、図6Qのライブプレビュー630と比較して、異なる視覚効果を提供する。例えば、更新されたライブプレビュー630は、ボケ効果及び/又は照明効果を提供するのに対し、図6Qのライブプレビュー630は、ボケ効果及び/又は照明効果を提供しない。いくつかの実施形態では、カメラモード(写真モード対ポートレートモード)の変更により、ライブプレビュー630内のオブジェクトのズームは変化する。いくつかの実施形態では、カメラモード(写真モード対ポートレートモード)の変更にかかわらず、ライブプレビュー630内のオブジェクトのズームは変化しない。照明効果コントロール628の自然光選択によって示すように、ライブプレビューは、対象の環境内の自然光を使用して対象640を表示しており、照明効果を適用しない。照明効果コントロール628を使用して、メディアをキャプチャする際に使用/適用される照明効果のレベル(及びタイプ)を調整することができる。いくつかの実施形態では、照明効果の調整はまた、ライブプレビュー630に反映される。 In FIG. 6Q, device 600 detects tap gesture 650m using the touch-sensitive surface at a location corresponding to camera portrait mode affordance 620d. In FIG. 6R, in response to detecting tap gesture 650m, device 600 displays a corrected set of indicators in indicator region 602, an updated live preview 630, and an updated control region 606. The corrected set of indicators includes previously displayed flash indicator 602a and newly displayed f-stop indicator 602e (e.g., because the newly selected mode is incompatible with the functionality corresponding to animated image state indicator 602d) without displaying previously displayed animated image state indicator 602d (e.g., because the newly selected mode is compatible with the functionality corresponding to flash indicator 602a and f-stop indicator 602e). In some embodiments, f-stop indicator 602e provides an indication of the f-stop (e.g., a numerical value). In FIG. 6T, the zoom affordance 622 has shifted to the left and a lighting effects control 628 (which can change the lighting effects when activated) is displayed within the camera display area 604. In some embodiments, the size, aspect ratio, and location of the camera display area 604 are the same in FIG. 6R and FIG. 6Q. The updated live preview 630 of FIG. 6R provides different visual effects compared to the live preview 630 of FIG. 6Q. For example, the updated live preview 630 provides bokeh and/or lighting effects, whereas the live preview 630 of FIG. 6Q does not provide bokeh and/or lighting effects. In some embodiments, the zoom of the object in the live preview 630 changes due to a change in camera mode (photo mode vs. portrait mode). In some embodiments, the zoom of the object in the live preview 630 does not change regardless of the change in camera mode (photo mode vs. portrait mode). As indicated by the natural light selection of the lighting effects control 628, the live preview displays the object 640 using natural light in the object's environment and does not apply lighting effects. Lighting effects controls 628 can be used to adjust the level (and type) of lighting effects used/applied when capturing media. In some embodiments, adjustments to the lighting effects are also reflected in the live preview 630.

図6Rでは、デバイス600は、タッチ感知面を使用して、照明効果コントロール628に対応する位置での左スワイプジェスチャ650nを検出して、スタジオ照明効果を選択する。図6Sでは、左スワイプジェスチャ650nを検出したことに応じて、デバイス600は、照明効果コントロール628を更新して、スタジオ照明効果が選択されることを示し、ライブプレビュー630の表示を更新して、スタジオ照明効果を含み、それにより、スタジオ照明効果を使用してキャプチャされたメディアがどのように見えるかの表現をユーザに提供する。デバイス600はまた、インジケータ領域602内に照明状態インジケータ602fを表示する。照明状態インジケータ602fは、メディアをキャプチャする際に使用/適用される照明効果の現在値のインジケーションを含む。図6Sでは、光調整条件(例えば、カメラがポートレートモードにあるか、又は別の方法で照明効果を変化させることができるときに満たされる条件)が満たされているとの判定に従って、デバイス600は、コントロール領域606内に照明コントロールアフォーダンス614dを(例えば、追加のコントロールアフォーダンス614を拡張することによって、追加のユーザ入力を必要とせずに)表示する。 In FIG. 6R, device 600 detects a left swipe gesture 650n using the touch-sensitive surface at a location corresponding to lighting effects control 628 to select studio lighting effects. In FIG. 6S, in response to detecting left swipe gesture 650n, device 600 updates lighting effects control 628 to indicate that studio lighting effects are selected and updates the display of live preview 630 to include the studio lighting effects, thereby providing the user with a representation of what media captured using the studio lighting effects would look like. Device 600 also displays a lighting state indicator 602f within indicator area 602. Lighting state indicator 602f includes an indication of the current value of the lighting effects used/applied in capturing media. In FIG. 6S, pursuant to a determination that a light adjustment condition (e.g., a condition that is met when the camera is in portrait mode or the lighting effect can otherwise be varied) is met, the device 600 displays a lighting control affordance 614d within the control region 606 (e.g., by extending the additional control affordance 614, without requiring additional user input).

図6Sでは、デバイス600は、タッチ感知面を使用して、照明コントロールアフォーダンス614dに対応する位置でのタップジェスチャ650oを検出する。図6Tでは、タップジェスチャ650oを検出したことに応じて、デバイス600は、カメラモードアフォーダンス620の表示を、調整可能な照明効果コントロール666に置き換え、現在の照明効果値(例えば、800ルクス)のインジケーション(例えば、カメラディスプレイ領域604内)を提供する。いくつかの実施形態では、インジケータ領域602内のインジケータの表示は維持される。いくつかの実施形態では、タップジェスチャ650oによって、インジケータ領域602内にインジケータを表示することが(例えば、上述のように、カメラディスプレイ領域606の境界をシフトすること、及びインジケータ領域602及びコントロール領域606をリサイズすることによって)停止される。 In FIG. 6S, device 600 detects tap gesture 650o using the touch-sensitive surface at a location corresponding to lighting control affordance 614d. In FIG. 6T, in response to detecting tap gesture 650o, device 600 replaces the display of camera mode affordance 620 with adjustable lighting effects control 666 and provides an indication (e.g., in camera display area 604) of the current lighting effects value (e.g., 800 lux). In some embodiments, the display of indicators in indicator area 602 is maintained. In some embodiments, tap gesture 650o causes display of indicators in indicator area 602 to cease (e.g., by shifting the boundaries of camera display area 606 and resizing indicator area 602 and control area 606, as described above).

図6Tでは、調整可能な照明効果コントロール666を表示している間に、デバイス600は、タッチ感知面を使用して、調整可能な照明効果コントロール666に対応する位置でのスワイプジェスチャ650pを検出して、照明効果値を低減する。図6Uでは、スワイプジェスチャ650oを検出したことに応じて、デバイス600は、照明効果値をより低くし、これはライブプレビュー630に反映され、より暗くなり、インジケーション(例えば、カメラディスプレイ領域604内)を更新された照明効果値(例えば、600ルクス)に更新し、インジケータ領域602内の照明状態インジケータ602fを更新して、更新された照明効果値を反映する。 In FIG. 6T, while displaying adjustable lighting effects control 666, device 600 detects a swipe gesture 650p using the touch-sensitive surface at a location corresponding to adjustable lighting effects control 666 to reduce the lighting effects value. In FIG. 6U, in response to detecting swipe gesture 650o, device 600 lowers the lighting effects value, which is reflected in live preview 630, which becomes darker, updates the indication (e.g., in camera display area 604) to an updated lighting effects value (e.g., 600 lux), and updates light status indicator 602f in indicator area 602 to reflect the updated lighting effects value.

図6Uでは、調整可能な照明効果コントロール666が表示される(かつ任意選択的に、インジケータ領域602が高さ低減モードにある)間に、デバイス600は、タッチ感知面を使用して、追加のコントロールアフォーダンス614に対応する位置でのタップジェスチャ650qを検出する。図6Vに示すように、タップジェスチャ650qを検出したことに応じて、デバイス600は、調整可能な照明効果コントロール666の表示を、カメラモードアフォーダンス620の表示に置き換える。いくつかの実施形態では、カメラディスプレイ領域606の境界がシフトアップし、インジケータ領域602及びコントロール領域606がサイズ変更された場合、デバイス600は、カメラディスプレイ領域604の境界(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトダウンして戻り、それにより、インジケータ領域602の高さを増加させ、コントロール領域606の高さを低減させる。デバイス600はまた、カメラディスプレイ領域604内の照明効果値のインジケーションを表示することを停止するが、任意選択的に、照明効果コントロール628の表示を維持する。 6U, while adjustable lighting effects control 666 is displayed (and, optionally, indicator area 602 is in reduced height mode), device 600 detects tap gesture 650q using the touch-sensitive surface at a location corresponding to additional control affordance 614. As shown in FIG. 6V, in response to detecting tap gesture 650q, device 600 replaces the display of adjustable lighting effects control 666 with a display of camera mode affordance 620. In some embodiments, when the border of camera display area 606 shifts up and indicator area 602 and control area 606 are resized, device 600 shifts the border of camera display area 604 (while maintaining the same size and aspect ratio) and visual border 608 back down, thereby increasing the height of indicator area 602 and reducing the height of control area 606. Device 600 also stops displaying an indication of the lighting effects value in camera display area 604, but optionally maintains the display of lighting effects control 628.

図7A~図7Cは、いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための方法を示すフロー図である。方法700は、表示デバイス及び1つ以上のカメラ(例えば、電子デバイスの異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を備えるデバイス(例えば、100、300、500、600)で実行される。方法700のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 7A-7C are flow diagrams illustrating a method for accessing media controls using an electronic device, according to some embodiments. Method 700 is performed on a device (e.g., 100, 300, 500, 600) that includes a display device and one or more cameras (e.g., one or more cameras (e.g., dual camera, triple camera, quad camera, etc.) on different sides (e.g., front camera, rear camera) of the electronic device). Some operations of method 700 are optionally combined, the order of some operations is optionally changed, and some operations are optionally omitted.

いくつかの実施形態では、電子デバイス(例えば、600)は、コンピュータシステムである。コンピュータシステムは、任意選択的に、ディスプレイ生成構成要素と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the electronic device (e.g., 600) is a computer system. The computer system is optionally in communication (e.g., wired communication, wireless communication) with a display generation component and with one or more input devices. The display generation component is configured to provide visual output, such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. The one or more input devices are configured to receive input, such as a touch-sensitive surface that receives user input. In some embodiments, the one or more input devices are integrated with the computer system. In some embodiments, the one or more input devices are separate from the computer system. Thus, the computer system can transmit data (e.g., image data or video data) via a wired or wireless connection to an integrated or external display generation component to visually generate content (e.g., using a display device) and can receive wired or wireless connection input from one or more input devices.

後述するように、方法700は、メディアコントロールにアクセスするための直感的な仕方を提供する。この方法は、メディアコントロールにアクセスする際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアコントロールにアクセスすることを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, the method 700 provides an intuitive way to access media controls. The method reduces the cognitive burden on the user in accessing the media controls, thereby creating a more efficient human-machine interface. For battery-operated computing devices, enabling the user to access media controls more quickly and efficiently conserves power and extends the time between battery charges.

電子デバイス(例えば、600)は、表示デバイスを介して、カメラユーザインタフェースを表示する(702)。カメラユーザインタフェースは、1つ以上のカメラの視野の表現(例えば、630)を含むカメラディスプレイ領域(例えば、606)を含む(704)。 An electronic device (e.g., 600) displays (702) a camera user interface via a display device. The camera user interface includes a camera display area (e.g., 606) that includes a representation (e.g., 630) of one or more camera fields of view (704).

カメラユーザインタフェースはまた、複数のカメラ設定(例えば、フラッシュ、タイマー、フィルタ効果、f値、アスペクト比、ライブフォトなど)を制御する(例えば、カメラモードを変更する)(例えば、写真を撮影する)(例えば、異なるカメラ(例えば、前面から背面)をアクティブ化する)複数のコントロールアフォーダンス(例えば、620、626)(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、プロアクティブコントロールアフォーダンス、シャッターアフォーダンス、カメラ選択アフォーダンス、複数のカメラモードアフォーダンス)を含むカメラコントロール領域(例えば、606)を含む(706)。カメラコントロール領域内の複数のカメラ設定を制御する複数のコントロールアフォーダンスを提供することにより、ユーザが、複数のカメラ設定を迅速かつ容易にかつ変更及び/又は管理することを可能にする。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 The camera user interface also includes a camera control area (e.g., 606) that includes a number of control affordances (e.g., 620, 626) (e.g., selectable user interface objects) (e.g., proactive control affordance, shutter affordance, camera selection affordance, multiple camera mode affordances) that control a number of camera settings (e.g., flash, timer, filter effects, f-stop, aspect ratio, live photos, etc.) (e.g., change camera modes) (e.g., take a photo) (e.g., activate a different camera (e.g., front to back)) (706). Providing a number of control affordances that control a number of camera settings within the camera control area allows a user to quickly and easily change and/or manage a number of camera settings. Providing additional control options without cluttering the UI with additional controls displayed enhances usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

第1の既定の条件及び第2の既定の条件(例えば、デバイスの環境内の環境条件)(例えば、電子デバイスが暗い環境にある)(例えば、電子デバイスが三脚上にある)(例えば、電子デバイスが低光モードにある)(例えば、電子デバイスが特定のカメラモードにある)が満たされていない間に、電子デバイス(例えば、600)は、第1の既定の条件に関連付けられた第1のコントロールアフォーダンス(例えば、602b、602c)(例えば、選択可能ユーザインタフェースオブジェクト)を表示することなく、かつ第2の既定の条件に関連付けられた第2のコントロールアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)を表示することなく、カメラユーザインタフェースを表示する(708)。 While the first predefined condition and the second predefined condition (e.g., an environmental condition in the device's environment) (e.g., the electronic device is in a dark environment) (e.g., the electronic device is on a tripod) (e.g., the electronic device is in a low light mode) (e.g., the electronic device is in a particular camera mode) are not met, the electronic device (e.g., 600) displays a camera user interface without displaying a first control affordance (e.g., 602b, 602c) (e.g., a selectable user interface object) associated with the first predefined condition and without displaying a second control affordance (e.g., a selectable user interface object) associated with the second predefined condition (708).

第1のコントロールアフォーダンスを表示することなく、かつ第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示している間に、電子デバイス(例えば、600)は、条件の変化を検出する(710)。 While displaying the camera user interface without displaying the first control affordance and without displaying the second control affordance, the electronic device (e.g., 600) detects a change in conditions (710).

条件の変化を検出したことに応じて(712)、第1の既定の条件(例えば、電子デバイスが暗い環境にある)が満たされている(例えば、現在満たされた)との判定に従って、電子デバイス(例えば、600)は、第1のコントロールアフォーダンス(例えば、614c、フラッシュ設定アフォーダンス)(例えば、第1の既定の条件が満たされた結果としてアクティブ又は有効化されているカメラの設定に対応するコントロールアフォーダンス)を(例えば、自動的に、更なるユーザ入力を必要とせずに)表示する(714)。第1の既定の条件が満たされているとの判定に従って、第1のコントロールアフォーダンスを表示することは、第1のコントロールアフォーダンスへの迅速かつ便利なアクセスを提供する。動作を実行するために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In response to detecting the change in condition (712), in accordance with a determination that a first predefined condition (e.g., the electronic device is in a dark environment) is met (e.g., is currently met), the electronic device (e.g., 600) displays (e.g., automatically, without requiring further user input) (714) a first control affordance (e.g., 614c, a flash setting affordance) (e.g., a control affordance corresponding to a camera setting that is active or enabled as a result of the first predefined condition being met). Displaying the first control affordance in accordance with a determination that the first predefined condition is met provides quick and convenient access to the first control affordance. Reducing the number of inputs required to perform an action enhances the usability of the device and makes the user-device interface more efficient (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), as well as reducing the device's power usage and improving battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、1つ以上のカメラの視野内の光量(例えば、輝度の量(例えば、20ルクス、5ルクス))が第1の所定の閾値(例えば、10ルクス)を下回ると、第1の既定の条件が満たされ、第1のコントロールアフォーダンスは、フラッシュ動作を制御するアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)である。1つ以上のカメラの視野内の光量が第1の所定の閾値を下回るときに、フラッシュ動作を制御するアフォーダンスである第1のコントロールアフォーダンスを提供することにより、ユーザは、フラッシュ動作の制御へ、このような制御が必要及び/又は使用されそうなときに迅速かつ容易にアクセスする。動作を実行するために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、電子デバイス(例えば、600)は、フラッシュ動作の制御のためのアフォーダンスの選択に対応するユーザ入力を受信し、ユーザ入力を受信したことに応じて、電子デバイスは、フラッシュ動作の状態(例えば、アクティブ(例えば、オン)、非アクティブ(例えば、オフ)、自動(例えば、条件(例えば、カメラの視野内の光量)に基づいてリアルタイムでフラッシュを非アクティブ又はアクティブに変更する必要があるかを電子デバイスが判定する))を変更する、及び/又はフラッシュ動作の状態を変更するユーザインタフェースを表示することができる。 In some embodiments, the first predefined condition is met when the amount of light (e.g., the amount of luminance (e.g., 20 lux, 5 lux)) in the field of view of one or more cameras falls below a first predefined threshold (e.g., 10 lux), and the first control affordance is an affordance (e.g., a selectable user interface object) that controls a flash operation. By providing a first control affordance that is an affordance that controls a flash operation when the amount of light in the field of view of one or more cameras falls below the first predefined threshold, a user has quick and easy access to control of the flash operation when such control is likely to be needed and/or used. Reducing the number of inputs required to perform an operation enhances the usability of the device and makes the user-device interface more efficient (e.g., by helping the user make appropriate inputs and reducing user errors when operating/interacting with the device), as well as reducing power usage and improving battery life of the device by allowing the user to use the device more quickly and efficiently. In some embodiments, the electronic device (e.g., 600) can receive user input corresponding to a selection of an affordance for control of flash operation, and in response to receiving the user input, the electronic device can change the state of the flash operation (e.g., active (e.g., on), inactive (e.g., off), automatic (e.g., the electronic device determines whether the flash should be changed to inactive or active in real time based on conditions (e.g., the amount of light in the camera's field of view))) and/or display a user interface that changes the state of the flash operation.

いくつかの実施形態では、電子デバイス(例えば、600)が第1のタイプのアクセサリ(例えば、601、安定化装置(例えば、三脚))に接続(例えば、物理的に接続)されていると、第1の既定の条件が満たされ、第1のコントロールアフォーダンスは、タイマー動作(例えば、画像キャプチャタイマー、キャプチャ遅延タイマー)を制御するアフォーダンス(例えば、614a)(例えば、選択可能ユーザインタフェースオブジェクト)である。電子デバイスが第1のタイプのアクセサリに接続されているときに、タイマー動作を制御するアフォーダンスである第1のコントロールアフォーダンスを提供することにより、ユーザは、タイマー動作の制御へ、このような制御が必要及び/又は使用されそうなときに迅速かつ容易にアクセスする。動作を実行するために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、電子デバイス(例えば、600)は、タイマー動作を制御するアフォーダンス(例えば、630)の選択に対応するユーザ入力を受信し、ユーザ入力を受信したことに応じて、電子デバイスは、タイマー動作の状態(例えば、メディアのキャプチャを開始した後のキャプチャ時間)を変更するか、及び/又はフラッシュ動作の状態を変更するユーザインタフェースを表示することができる。 In some embodiments, when an electronic device (e.g., 600) is connected (e.g., physically connected) to a first type of accessory (e.g., 601, a stabilizing device (e.g., tripod)), a first predefined condition is met and a first control affordance is an affordance (e.g., 614a) (e.g., a selectable user interface object) that controls a timer operation (e.g., an image capture timer, a capture delay timer). By providing a first control affordance that is an affordance that controls a timer operation when the electronic device is connected to the first type of accessory, a user has quick and easy access to control of the timer operation when such control is likely to be needed and/or used. Reducing the number of inputs required to perform an operation enhances the usability of the device and makes the user-device interface more efficient (e.g., by helping the user make appropriate inputs and reducing user errors when operating/interacting with the device), as well as reducing power usage and improving battery life of the device by allowing the user to use the device more quickly and efficiently. In some embodiments, the electronic device (e.g., 600) receives user input corresponding to a selection of an affordance (e.g., 630) that controls a timer operation, and in response to receiving the user input, the electronic device can display a user interface that changes the state of the timer operation (e.g., the capture time after starting to capture media) and/or changes the state of the flash operation.

いくつかの実施形態では、1つ以上のカメラの視野内の光量(例えば、輝度の量(例えば、20ルクス、5ルクス))が第2の所定の閾値(例えば、20ルクス)を下回ると、第1の既定の条件が満たされ、第1のコントロールアフォーダンスは、低光キャプチャモードを制御するアフォーダンス(例えば、614b)(例えば、選択可能ユーザインタフェースオブジェクト)である。1つ以上のカメラの視野内の光量が第2の所定の閾値を下回るときに、低光キャプチャモードを制御するアフォーダンスである第1のコントロールアフォーダンスを提供することにより、ユーザは、低光キャプチャモードの制御へ、このような制御が必要及び/又は使用されそうなときに迅速かつ容易にアクセスする。動作を実行するために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、電子デバイス(例えば、600)は、低光キャプチャモードを制御するアフォーダンス(例えば、650d)の選択に対応するユーザ入力を受信し、ユーザ入力を受信したことに応じて、電子デバイスは、低光キャプチャモードの状態(例えば、アクティブ(例えば、オン)、非アクティブ(例えば、オフ))を変更するか、及び/又は低光キャプチャモードの状態を変更するユーザインタフェースを表示することができる。 In some embodiments, the first predefined condition is met when the amount of light (e.g., the amount of luminance (e.g., 20 lux, 5 lux)) in the field of view of one or more cameras falls below a second predefined threshold (e.g., 20 lux), and the first control affordance is an affordance (e.g., 614b) (e.g., a selectable user interface object) that controls a low-light capture mode. By providing a first control affordance that is an affordance that controls a low-light capture mode when the amount of light in the field of view of one or more cameras falls below the second predefined threshold, a user has quick and easy access to control of the low-light capture mode when such control is likely to be needed and/or used. Reducing the number of inputs required to perform an action enhances the usability of the device and makes the user-device interface more efficient (e.g., by helping the user make appropriate inputs and reducing user errors when operating/interacting with the device), as well as reducing power usage and improving battery life of the device by allowing the user to use the device more quickly and efficiently. In some embodiments, the electronic device (e.g., 600) receives user input corresponding to a selection of an affordance (e.g., 650d) that controls a low-light capture mode, and in response to receiving the user input, the electronic device can change the state of the low-light capture mode (e.g., active (e.g., on), inactive (e.g., off)) and/or display a user interface that changes the state of the low-light capture mode.

いくつかの実施形態では、第1のキャプチャモード(例えば、ポートレートモード)で画像をキャプチャするように電子デバイス(例えば、600)が構成されているときに、第1の既定の条件が満たされ、第1のコントロールアフォーダンスは、照明効果動作(例えば、メディア照明キャプチャコントロール(例えば、ポートレート照明効果コントロール(例えば、スタジオ照明、輪郭照明、舞台照明)))を制御するアフォーダンス(例えば、614d)(例えば、選択可能ユーザインタフェースオブジェクト)である(718)。第1のキャプチャモードで画像をキャプチャするように電子デバイスが構成されているときに、照明効果動作を制御するアフォーダンスである第1のコントロールアフォーダンスを提供することにより、ユーザは、照明効果動作の制御へ、このような制御が必要及び/又は使用されそうなときに迅速かつ容易にアクセスする。動作を実行するために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、電子デバイス(例えば、600)は、照明効果動作を制御するアフォーダンス(例えば、650o)の選択に対応するユーザ入力を受信し、ユーザ入力を受信したことに応じて、電子デバイスは、照明効果の状態(例えば、照明の量)を変更するか、及び/又は照明効果動作の状態を変更するユーザインタフェースを表示することができる。 In some embodiments, when the electronic device (e.g., 600) is configured to capture an image in a first capture mode (e.g., portrait mode), a first predefined condition is met and the first control affordance is an affordance (e.g., 614d) (e.g., a selectable user interface object) that controls a lighting effects operation (e.g., media lighting capture control (e.g., portrait lighting effects control (e.g., studio lighting, contour lighting, stage lighting)) (718). By providing the first control affordance that is an affordance that controls a lighting effects operation when the electronic device is configured to capture an image in the first capture mode, a user has quick and easy access to control of the lighting effects operation when such control is likely to be needed and/or used. Reducing the number of inputs required to perform an operation enhances the usability of the device and makes the user-device interface more efficient (e.g., by helping the user make appropriate inputs and reducing user errors when operating/interacting with the device), as well as reducing power usage and improving battery life of the device by allowing the user to use the device more quickly and efficiently. In some embodiments, the electronic device (e.g., 600) receives user input corresponding to a selection of an affordance (e.g., 650o) that controls a lighting effects operation, and in response to receiving the user input, the electronic device can change a state of the lighting effects (e.g., amount of illumination) and/or display a user interface that changes a state of the lighting effects operation.

いくつかの実施形態では、照明効果動作を制御するアフォーダンス(例えば、614d)を表示している間に、電子デバイス(例えば、600)は、照明効果動作を制御するアフォーダンス(例えば、614d)の選択(例えば、タップ)を受信する(720)。いくつかの実施形態では、照明効果動作を制御するアフォーダンス(例えば、614d)の選択を受信したことに応じて、電子デバイス(例えば、600)は、調整される(例えば、スライダ上の値(例えば、ティックマーク)間でスライダ上のスライダバーをドラッグする)と、1つ以上のカメラの視野の表現に適用された照明効果(例えば、照明)を調整する、照明効果動作(例えば、スライダ)を調整するアフォーダンス(例えば、666)(例えば、選択可能ユーザインタフェースオブジェクト)を表示する(722)。いくつかの実施形態では、調整された照明効果はまた、キャプチャされたメディアにも適用される(例えば、第1のコントロールアフォーダンスがスタジオ照明効果動作を制御するときに、スタジオ光に関連付けられた照明)。 In some embodiments, while displaying an affordance (e.g., 614d) that controls a lighting effects operation, the electronic device (e.g., 600) receives (720) a selection (e.g., a tap) of an affordance (e.g., 614d) that controls a lighting effects operation. In some embodiments, in response to receiving a selection of an affordance (e.g., 614d) that controls a lighting effects operation, the electronic device (e.g., 600) displays (722) an affordance (e.g., 666) (e.g., a selectable user interface object) that adjusts (e.g., dragging a slider bar on a slider between values (e.g., tick marks) on the slider) a lighting effect (e.g., lighting) applied to the representation of the field of view of one or more cameras. In some embodiments, the adjusted lighting effect is also applied to the captured media (e.g., lighting associated with studio lights when the first control affordance controls a studio lighting effects operation).

いくつかの実施形態では、第1のコントロールアフォーダンスを表示している間に、電子デバイス(例えば、600)は、第1のコントロールアフォーダンスに関連付けられた(例えば、それによって制御され得る)(例えば、第1のコントロールの特性又は状態を示す)電子デバイスの特性(例えば、設定)の現在の状態のインジケーション(例えば、602f)(例えば、コントロールの効果(例えば、フラッシュ動作がアクティブであることのインジケーション))を同時に表示する(724)。第1のコントロールアフォーダンスを表示している間に、同時に、電子デバイスの特性の現在の状態のインジケーションを表示することにより、ユーザが、第1のコントロールアフォーダンスを使用して、特性の現在の状態を迅速かつ容易に閲覧及び/又は変更することを可能にする。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、インジケーション(例えば、602a、602c)は、ユーザインタフェースの上部(例えば、電話の上部)に表示される。いくつかの実施形態では、カメラトグル(例えば、前カメラと後カメラとの間をトグルする)制御を変更したことに応じて、インジケーションが表示される。 In some embodiments, while displaying the first control affordance, the electronic device (e.g., 600) simultaneously displays (724) an indication (e.g., 602f) of a current state of a property (e.g., a setting) of the electronic device (e.g., indicating a property or state of the first control) associated with (e.g., that may be controlled by) the first control affordance. By simultaneously displaying an indication of the current state of the property of the electronic device while displaying the first control affordance, the user can quickly and easily view and/or change the current state of the property using the first control affordance. Providing additional control options without cluttering the UI with additional controls displayed enhances the usability of the device and makes the user-device interface more efficient (e.g., by helping the user make appropriate inputs and reducing user errors when operating/interacting with the device), as well as reducing the device's power usage and improving battery life by allowing the user to use the device more quickly and efficiently. In some embodiments, the indications (e.g., 602a, 602c) are displayed at the top of a user interface (e.g., at the top of the phone). In some embodiments, the indications are displayed in response to changing a camera toggle control (e.g., to toggle between front and rear cameras).

いくつかの実施形態では、特性は1つ以上のアクティブ状態及び1つ以上の非アクティブ状態を有し、インジケーションを表示することは、特性が1つ以上のアクティブ状態のうちの少なくとも1つにあるとの判定に従う。いくつかの実施形態では、いくつかの動作は、動作に関連付けられたインジケーションがカメラユーザインタフェース内に表示される前にアクティブである必要があるが、いくつかの動作は、動作に関連付けられたインジケーションがカメラユーザインタフェース内に表示される前にアクティブである必要はない。いくつかの実施形態では、特性が非アクティブ状態にある(例えば、非アクティブ状態にあるように変更される)との判定に従って、インジケーションは、表示されないか、又は現在表示されている場合は表示されることを停止する。 In some embodiments, the characteristic has one or more active states and one or more inactive states, and displaying the indication is pursuant to a determination that the characteristic is in at least one of the one or more active states. In some embodiments, some actions must be active before an indication associated with the action is displayed in the camera user interface, but some actions do not need to be active before an indication associated with the action is displayed in the camera user interface. In some embodiments, pursuant to a determination that the characteristic is in an inactive state (e.g., is changed to be in an inactive state), the indication is not displayed or ceases to be displayed if currently displayed.

いくつかの実施形態では、特性は、第1のフラッシュ動作設定であり、特性の現在の状態は、フラッシュ動作が有効化されていることである。いくつかの実施形態では、フラッシュが自動に設定されている場合、電子デバイス(例えば、600)が1つ以上のカメラの視野内の光量がフラッシュ範囲内(例えば、0~10ルクスの範囲)にあると判定すると、フラッシュ動作はアクティブである。電子デバイスが1つ以上のカメラの視野内の光量がフラッシュ範囲内にあると判定するとアクティブになるフラッシュ動作は、ユーザがデバイスをより効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the characteristic is a first flash operation setting and the current state of the characteristic is that flash operation is enabled. In some embodiments, when the flash is set to automatic, the flash operation is active when the electronic device (e.g., 600) determines that the amount of light in the field of view of one or more cameras is within the flash range (e.g., in the range of 0-10 lux). A flash operation that is active when the electronic device determines that the amount of light in the field of view of one or more cameras is within the flash range reduces power usage and improves the battery life of the device by allowing a user to use the device more efficiently.

いくつかの実施形態では、特性は、第2のフラッシュ動作設定であり、特性の現在の状態は、フラッシュ動作が無効化されていることである(例えば、示す、示す表現を表示する)。いくつかの実施形態では、フラッシュが自動に設定されている場合、電子デバイス(例えば、600)が1つ以上のカメラの視野内の光量がフラッシュ範囲内(例えば、0~10ルクスの範囲)にないと判定すると、フラッシュ動作は非アクティブである。電子デバイスが1つ以上のカメラの視野内の光量がフラッシュ範囲内にないと判定すると非アクティブになるフラッシュ動作は、ユーザがデバイスをより効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。いくつかの実施形態では、特性は、画像キャプチャモード設定であり、特性の現在の状態は、画像キャプチャモードが有効化されていることであり、電子デバイス(例えば、600)は、メディアをキャプチャする要求に対応する入力(例えば、単一の入力)に応じて、静止画像及びビデオ(例えば、動画)をキャプチャするように構成されている。特性が画像キャプチャモード設定であり、特性の現在の状態が、画像キャプチャモードが有効化されていることであるときに、静止画像及びビデオをキャプチャすることにより、ユーザが、静止画像及びビデオを迅速かつ容易にキャプチャすることを可能にする。更なるユーザ入力を必要とせずに1組の条件が満たされたときに動作を実行することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the characteristic is a second flash operation setting, and the current state of the characteristic is that the flash operation is disabled (e.g., displays a representation indicating). In some embodiments, when the flash is set to automatic, the flash operation is inactive when the electronic device (e.g., 600) determines that the amount of light in the field of view of one or more cameras is not within the flash range (e.g., in the range of 0-10 lux). A flash operation that is inactive when the electronic device determines that the amount of light in the field of view of one or more cameras is not within the flash range reduces power usage and improves the battery life of the device by allowing a user to use the device more efficiently. In some embodiments, the characteristic is an image capture mode setting, and the current state of the characteristic is that the image capture mode is enabled, and the electronic device (e.g., 600) is configured to capture still images and video (e.g., motion pictures) in response to an input (e.g., a single input) corresponding to a request to capture media. Capturing still images and video when the characteristic is an image capture mode setting and the current state of the characteristic is that the image capture mode is enabled allows a user to quickly and easily capture still images and video. Executing an action when a set of conditions is met without requiring further user input enhances the usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、特性は、第2の画像キャプチャモード設定であり、特性の現在の状態は、第2の画像キャプチャモードが有効化されていることである。いくつかの実施形態では、電子デバイス(例えば、600)は、メディアをキャプチャする要求に対応する入力(例えば、単一の入力)に応じて、高ダイナミックレンジイメージング効果を使用してメディアをキャプチャするように構成されている。いくつかの実施形態では、カメラメディアに対する要求を受信したことに応じて、電子デバイス(例えば、600)は、1つ以上のカメラを介して、高ダイナミックレンジイメージング画像であるメディアをキャプチャする。特性が第2の画像キャプチャモード設定であり、特性の現在の状態が、第2の画像キャプチャモードが有効化されていることであるときに、高ダイナミックレンジイメージング効果を使用してメディアをキャプチャすることにより、ユーザが、高ダイナミックレンジイメージング効果を使用してメディアを迅速かつ容易にキャプチャすることを可能にする。更なるユーザ入力を必要とせずに1組の条件が満たされたときに動作を実行することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the characteristic is a second image capture mode setting and the current state of the characteristic is that the second image capture mode is enabled. In some embodiments, the electronic device (e.g., 600) is configured to capture media using high dynamic range imaging effects in response to an input (e.g., a single input) corresponding to a request to capture media. In some embodiments, in response to receiving a request for camera media, the electronic device (e.g., 600) captures media, which is a high dynamic range imaging image, via one or more cameras. Capturing media using high dynamic range imaging effects when the characteristic is a second image capture mode setting and the current state of the characteristic is that the second image capture mode is enabled allows a user to quickly and easily capture media using high dynamic range imaging effects. Performing an action when a set of conditions is met without requiring further user input enhances the usability of the device, making the user-device interface more efficient (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), as well as reducing power usage and improving battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、カメラコントロール領域(例えば、606)は、表示デバイスの第1の側に(例えば、ディスプレイ領域の底部に)隣接して表示され、インジケーションは、第1の側とは反対側(カメラディスプレイ領域の上部)の表示デバイスの第2の側(例えば、1つ以上のカメラの位置に最も近い側)に隣接して表示される。 In some embodiments, the camera control area (e.g., 606) is displayed adjacent to a first side of the display device (e.g., the bottom of the display area) and the indications are displayed adjacent to a second side of the display device opposite the first side (e.g., the top of the camera display area) (e.g., the side closest to the location of one or more cameras).

いくつかの実施形態では、第1のコントロールアフォーダンスを表示したことに応じて(726)、第1のコントロールアフォーダンスが第1のタイプ(例えば、対応するインジケーションが常に示されているタイプ(例えば、フラッシュコントロール))のものであるとの判定に従って、電子デバイス(例えば、600)は、第1のコントロールアフォーダンスに関連付けられた第2のインジケーションを表示する(例えば、第1のコントロールに関連付けられた特性の状態にかかわらず、第2のインジケーションが表示される)(728)。いくつかの実施形態では、第1のコントロールアフォーダンスを表示したことに応じて、第1のコントロールアフォーダンスが第1のタイプとは異なる第2のタイプ(例えば、対応するインジケーションが条件付きで示されるタイプ)のものであるとの判定、及び第1のコントロールアフォーダンスに関連付けられた電子デバイス(例えば、600)の第2の特性(例えば、設定)がアクティブ状態にあるとの判定に従って、電子デバイスは、第1のコントロールに関連付けられた第2のインジケーションを表示する(730)。いくつかの実施形態では、第1のコントロールアフォーダンスを表示したことに応じて、第1のコントロールアフォーダンスが第1のタイプとは異なる第2のタイプ(例えば、対応するインジケーションが条件付きで示されるタイプ)のものであるとの判定、及び第1のコントロールアフォーダンスに関連付けられた電子デバイス(例えば、600)の第2の特性(例えば、設定)が非アクティブ状態にあるとの判定に従って、電子デバイスは、第1のコントロールアフォーダンスに関連付けられた第2のインジケーションの表示をやめる。いくつかの実施形態では、コントロールに関連付けられたいくつかの動作は、動作に関連付けられたインジケーションがカメラユーザインタフェース内に表示される前にアクティブである必要があるが、いくつかの動作は、動作に関連付けられたインジケーションがカメラユーザインタフェース内に表示される前にアクティブである必要はない。 In some embodiments, in response to displaying the first control affordance (726), in accordance with a determination that the first control affordance is of a first type (e.g., a type for which a corresponding indication is always shown (e.g., a flash control)), the electronic device (e.g., 600) displays a second indication associated with the first control affordance (e.g., the second indication is displayed regardless of a state of a property associated with the first control) (728). In some embodiments, in response to displaying the first control affordance, in accordance with a determination that the first control affordance is of a second type different from the first type (e.g., a type for which a corresponding indication is conditionally shown) and a determination that a second property (e.g., a setting) of the electronic device (e.g., 600) associated with the first control affordance is in an active state, the electronic device displays a second indication associated with the first control (730). In some embodiments, in response to displaying the first control affordance, in accordance with determining that the first control affordance is of a second type different from the first type (e.g., a type for which a corresponding indication is conditionally shown) and determining that a second characteristic (e.g., a setting) of the electronic device (e.g., 600) associated with the first control affordance is in an inactive state, the electronic device ceases displaying a second indication associated with the first control affordance. In some embodiments, some actions associated with the control must be active before an indication associated with the action is displayed in the camera user interface, while some actions do not need to be active before an indication associated with the action is displayed in the camera user interface.

条件の変化を検出したことに応じて(712)、第2の既定の条件(例えば、電子デバイスが三脚上に位置する)(例えば、第1の既定の条件とは異なる既定の条件)が満たされている(例えば、現在満たされた)との判定に従って、電子デバイス(例えば、600)は、第2のコントロールアフォーダンス(例えば、タイマー設定アフォーダンス)(例えば、第2の既定の条件が満たされた結果としてアクティブ又は有効化されているカメラの設定に対応するコントロールアフォーダンス)を(例えば、自動的に、更なるユーザ入力を必要とせずに)表示する(716)。第2の既定の条件が満たされているとの判定に従って、第2のコントロールアフォーダンスを表示することは、第2のコントロールアフォーダンスへの迅速かつ便利なアクセスを提供する。動作を実行するために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、コントロールアフォーダンスは、既定の条件に関連付けられたカメラ設定を表す外観(例えば、フラッシュ設定を表すカミナリ)を有する。いくつかの実施形態では、コントロールアフォーダンスが選択されると、既定の条件に関連付けられたカメラ設定の状態を変更するための設定インタフェースが表示される。 In response to detecting the change in condition (712), in accordance with a determination that a second predefined condition (e.g., the electronic device is located on a tripod) (e.g., a predefined condition different from the first predefined condition) is met (e.g., currently met), the electronic device (e.g., 600) displays (e.g., automatically, without requiring further user input) (716) a second control affordance (e.g., a timer setting affordance) (e.g., a control affordance corresponding to a camera setting that is active or enabled as a result of the second predefined condition being met). Displaying the second control affordance in accordance with a determination that the second predefined condition is met provides quick and convenient access to the second control affordance. Reducing the number of inputs required to perform an action enhances the usability of the device and makes the user-device interface more efficient (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), as well as reducing power usage and improving battery life of the device by allowing the user to use the device more quickly and efficiently. In some embodiments, the control affordance has an appearance that represents a camera setting associated with a default condition (e.g., a lightning bolt that represents a flash setting). In some embodiments, when the control affordance is selected, a settings interface is displayed for changing the state of the camera setting associated with the default condition.

いくつかの実施形態では、更に、条件の変化を検出したことに応じて、第1及び第2の既定の条件が満たされているとの判定に従って、電子デバイス(例えば、600)は、第1のコントロールアフォーダンス及び第2のコントロールアフォーダンスを同時に表示する。条件の変化を検出したことに応じて、第1及び第2の既定の条件が満たされているとの判定に従って、第1のコントロールアフォーダンス及び第2のコントロールアフォーダンスを同時に表示することにより、ユーザに、第1のコントロールアフォーダンス及び第2のコントロールアフォーダンスへの迅速かつ便利なアクセスを提供する。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、複数の条件が満たされていると、複数のアフォーダンスが表示される。 In some embodiments, the electronic device (e.g., 600) further displays the first control affordance and the second control affordance simultaneously in response to detecting the change in condition, in accordance with a determination that the first and second predefined conditions are met. By simultaneously displaying the first control affordance and the second control affordance in response to detecting the change in condition, in accordance with a determination that the first and second predefined conditions are met, the electronic device provides the user with quick and convenient access to the first control affordance and the second control affordance. Providing additional control options without cluttering the UI with additional controls displayed enhances usability of the device, makes the user-device interface more efficient (e.g., by helping the user make appropriate inputs and reducing user errors when operating/interacting with the device), and also reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently. In some embodiments, multiple affordances are displayed when multiple conditions are met.

いくつかの実施形態では、更に、条件の変化を検出したことに応じて、第1の既定の条件が満たされており、かつ第2の既定の条件が満たされていないとの判定に従って、電子デバイス(例えば、600)は、第1のコントロールアフォーダンスを表示する一方で、第2のコントロールアフォーダンスを表示することをやめる。条件の変化を検出したことに応じて、第1の既定の条件が満たされており、かつ第2の既定の条件が満たされていないとの判定に従って、第1のコントロールアフォーダンスを表示する一方で、第2のコントロールアフォーダンスを表示することをやめることにより、ユーザは、必要及び/又は使用されそうなコントロールアフォーダンスへ、迅速かつ容易にアクセスし、一方、ユーザは、必要及び/又は使用されそうでないコントロールアフォーダンスへ、迅速かつ容易にアクセスしない。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, further in response to detecting the change in condition, the electronic device (e.g., 600) displays the first control affordance while ceasing to display the second control affordance in accordance with a determination that the first predefined condition is met and the second predefined condition is not met. By displaying the first control affordance while ceasing to display the second control affordance in response to detecting the change in condition, in accordance with a determination that the first predefined condition is met and the second predefined condition is not met, the user has quick and easy access to control affordances that are likely to be needed and/or used, while the user does not have quick and easy access to control affordances that are likely to be needed and/or used. Providing additional control options without cluttering the UI with additional controls displayed enhances the usability of the device and makes the user-device interface more efficient (e.g., by helping the user make appropriate inputs and reducing user errors when operating/interacting with the device), as well as reducing power usage and improving battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、更に、条件の変化を検出したことに応じて、第1の既定の条件が満たされておらず、かつ第2の既定の条件が満たされているとの判定に従って、電子デバイス(例えば、600)は、第2のコントロールアフォーダンスを表示する一方で、第1のコントロールアフォーダンスを表示することをやめる。条件の変化を検出したことに応じて、第1の既定の条件が満たされておらず、かつ第2の既定の条件が満たされているとの判定に従って、第2のコントロールアフォーダンスを表示する一方で、第1のコントロールアフォーダンスを表示することをやめることにより、ユーザは、必要及び/又は使用されそうなコントロールアフォーダンスへ、迅速かつ容易にアクセスし、一方、ユーザは、必要及び/又は使用されそうでないコントロールアフォーダンスへ、迅速かつ容易にアクセスしない。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、それぞれの既定の条件が満たされると、既定の条件に関連付けられたそれぞれのアフォーダンスのみが表示される。いくつかの実施形態では、電子は、複数の追加のコントロールアフォーダンス(例えば、楕円アフォーダンス)にナビゲートするアフォーダンス(例えば、614)の選択を受信する。いくつかの実施形態では、複数の追加のコントロールアフォーダンスにナビゲートするアフォーダンス(例えば、614)の選択を受信したことに応じて、電子デバイス(例えば、600)は、(第1のコントロール及び/又は第2のコントロールアフォーダンスを含む)カメラユーザインタフェース内の複数のコントロールアフォーダンス(例えば、626)のうちの少なくとも一部を表示する。いくつかの実施形態では、既定の条件が満たされると、電子デバイス(例えば、600)は、アフォーダンスが複数の追加のコントロールアフォーダンスにナビゲートするアフォーダンスをポップアウトするとアニメーションを表示することができる。いくつかの実施形態では、複数のコントロールアフォーダンスは、第1又は第2のコントロールアフォーダンスのうちの少なくとも1つを含む、複数の追加のコントロールアフォーダンス(例えば、複数のカメラ設定アフォーダンスを表示するアフォーダンス)にナビゲートするアフォーダンス(例えば、618)を含む。これらの実施形態のうちのいくつかでは、第1の既定の条件が満たされているとの判定に従って、第1のアフォーダンスは、複数の追加のコントロールアフォーダンスにナビゲートするアフォーダンスに隣接して表示される(例えば、追加のコントロールアフォーダンスの隣に、追加のコントロールアフォーダンスを備えたバウンダーによって鳴らされる)。これらの実施形態のうちのいくつかでは、第2の既定の条件が満たされているとの判定に従って、第2のアフォーダンスは、複数の追加のコントロールアフォーダンスにナビゲートするアフォーダンスに隣接して表示される(例えば、追加のコントロールアフォーダンスの隣に、追加のコントロールアフォーダンスを備えたバウンダーによって鳴らされる)。 In some embodiments, further in response to detecting the change in condition, in accordance with a determination that the first predefined condition is not met and the second predefined condition is met, the electronic device (e.g., 600) displays the second control affordance while ceasing to display the first control affordance. By displaying the second control affordance while ceasing to display the first control affordance in response to detecting the change in condition, in accordance with a determination that the first predefined condition is not met and the second predefined condition is met, the user has quick and easy access to control affordances that are likely to be needed and/or used, while the user does not have quick and easy access to control affordances that are likely to be needed and/or used. Providing additional control options without cluttering the UI with additional controls displayed enhances the usability of the device and makes the user-device interface more efficient (e.g., by helping the user make appropriate inputs and reducing user errors when operating/interacting with the device), as well as reducing power usage and improving battery life of the device by allowing the user to use the device more quickly and efficiently. In some embodiments, when the respective predefined conditions are met, only the respective affordances associated with the predefined conditions are displayed. In some embodiments, the electronic device receives a selection of an affordance (e.g., 614) to navigate to a plurality of additional control affordances (e.g., an ellipse affordance). In some embodiments, in response to receiving a selection of an affordance (e.g., 614) to navigate to a plurality of additional control affordances, the electronic device (e.g., 600) displays at least a portion of a plurality of control affordances (e.g., 626) in the camera user interface (including the first control and/or the second control affordance). In some embodiments, when the predefined conditions are met, the electronic device (e.g., 600) can display an animation as the affordance pops out an affordance to navigate to a plurality of additional control affordances. In some embodiments, the plurality of control affordances includes an affordance (e.g., 618) to navigate to a plurality of additional control affordances (e.g., an affordance to display a plurality of camera setting affordances), including at least one of the first or second control affordances. In some of these embodiments, pursuant to a determination that the first predefined condition is met, the first affordance is displayed adjacent to an affordance that navigates to a plurality of additional control affordances (e.g., is rung by a bounder with the additional control affordance next to the additional control affordance). In some of these embodiments, pursuant to a determination that the second predefined condition is met, the second affordance is displayed adjacent to an affordance that navigates to a plurality of additional control affordances (e.g., is rung by a bounder with the additional control affordance next to the additional control affordance).

いくつかの実施形態では、1つ以上のカメラの視野の表現は、第1のコントロールアフォーダンス及び/又は第2のコントロールアフォーダンスを含むカメラユーザインタフェースの一部分にわたって(例えば、その上に)延びる。いくつかの実施形態では、カメラユーザインタフェースは、表示デバイスの表示エリアの全体に対して延びる。いくつかの実施形態では、表現(例えば、プレビュー)は、カメラユーザインタフェースに含まれる全てのコントロールの下に表示される(例えば、ボタンが表現の部分の上に示されるように透明又は半透明に表示される)。 In some embodiments, the representation of the field of view of one or more cameras extends across (e.g., over) a portion of the camera user interface that includes the first control affordance and/or the second control affordance. In some embodiments, the camera user interface extends over the entire display area of the display device. In some embodiments, the representation (e.g., a preview) is displayed below all controls included in the camera user interface (e.g., displayed transparently or semi-transparently such that a button is shown over a portion of the representation).

なお、方法700に関して上述したプロセス(例えば、図7A~図7C)の詳細はまた、後述する方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法900、1100、1300、1500、1700、1900、2000、2100、2300、2500、2700、2800、3000、3200、3400、3600、3800、4000、及び4200は、方法700を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。 It should be noted that the details of the processes (e.g., FIGS. 7A-7C) described above with respect to method 700 are also applicable in a similar manner to the methods described below. For example, methods 900, 1100, 1300, 1500, 1700, 1900, 2000, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3400, 3600, 3800, 4000, and 4200 optionally include one or more of the characteristics of the various methods described above with reference to method 700. For the sake of brevity, these details will not be repeated below.

図8A~図8Vは、いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図9A~図9Cにおける処理を含む、以下で説明する処理を例示するために使用される。 Figures 8A-8V show example user interfaces for displaying media controls using an electronic device, according to some embodiments. The user interfaces in these figures are used to illustrate the processes described below, including the processes in Figures 9A-9C.

図8Aは、ディスプレイの上部からディスプレイの底部まで任意選択的に延びるライブプレビュー630を表示する電子デバイス600を示す。ライブプレビュー630は、1つ以上のカメラセンサによって検出された画像に基づく。いくつかの実施形態では、デバイス600は、複数のカメラセンサを使用して画像をキャプチャし、それらを組み合わせてライブプレビュー630を表示する。いくつかの実施形態では、デバイス600は、単一のカメラセンサを使用して画像をキャプチャして、ライブプレビュー630を表示する。図8Aのカメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含み、これらは、インジケータ及びコントロールがライブプレビューと同時に表示され得るように、ライブプレビュー630上に重ね合わされる。カメラディスプレイ領域604は、インジケータ又はコントロールと実質的に重ね合わされない。この実施例では、ライブプレビューは、対象840及び周囲環境を含む。図8Aのカメラユーザインタフェースは、インジケータ領域602とカメラディスプレイ領域604との境界部及びカメラディスプレイ領域604とコントロール領域606との境界部を示す視覚境界部608を含む。 8A shows an electronic device 600 displaying a live preview 630 that optionally extends from the top of the display to the bottom of the display. The live preview 630 is based on images detected by one or more camera sensors. In some embodiments, the device 600 captures images using multiple camera sensors and combines them to display the live preview 630. In some embodiments, the device 600 captures images using a single camera sensor to display the live preview 630. The camera user interface of FIG. 8A includes an indicator area 602 and a control area 606 that are overlaid on the live preview 630 such that the indicators and controls may be displayed simultaneously with the live preview. The camera display area 604 is not substantially overlaid with the indicators or controls. In this example, the live preview includes the subject 840 and the surrounding environment. The camera user interface of FIG. 8A includes a visual boundary 608 that indicates the boundary between the indicator area 602 and the camera display area 604 and the boundary between the camera display area 604 and the control area 606.

図8Aに示すように、インジケータ領域602は、ライブプレビュー630上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。インジケータ領域602は、フラッシュインジケータ602a及びアニメーション化された画像状態インジケータ602dを含む。フラッシュインジケータ602aは、フラッシュが自動モード、オン、オフ、又は別のモード(例えば、赤目低減モード)であるかどうかを示す。アニメーション化された画像状態インジケータ602dは、(例えば、シャッターアフォーダンス610のアクティブ化を検出したことに応じて、)単一の画像又は複数の画像をキャプチャするようにカメラが構成されているかどうかを示す。 As shown in FIG. 8A, indicator area 602 is superimposed on live preview 630 and optionally includes a colored (e.g., gray, semi-transparent) overlay. Indicator area 602 includes a flash indicator 602a and an animated image status indicator 602d. Flash indicator 602a indicates whether the flash is in auto mode, on, off, or another mode (e.g., red-eye reduction mode). Animated image status indicator 602d indicates whether the camera is configured to capture a single image or multiple images (e.g., in response to detecting activation of shutter affordance 610).

図8Aに示すように、カメラディスプレイ領域604は、ライブプレビュー630及びズームアフォーダンス622を含む。図8Aに示すように、コントロール領域606は、ライブプレビュー630上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。 As shown in FIG. 8A, the camera display area 604 includes a live preview 630 and a zoom affordance 622. As shown in FIG. 8A, the control area 606 is superimposed on the live preview 630 and optionally includes a colored (e.g., gray, semi-transparent) overlay.

図8Aに示すように、コントロール領域606は、カメラモードアフォーダンス620、メディアコレクション624の一部分、追加のコントロールアフォーダンス614、シャッターアフォーダンス610、及びカメラスイッチャアフォーダンス612を含む。カメラモードアフォーダンス620は、どのカメラモードが現在選択されているかを示し、ユーザがカメラモードを変更することを可能にする。図8Aにおいて、カメラモードアフォーダンス620a~620eが表示され、「Photo」カメラモード620cは、カメラが動作している現在のモードとして太字のテキストで示される。メディアコレクション624は、最近キャプチャされた写真などのメディア(例えば、写真)の表現を含む。追加のコントロールアフォーダンス614は、ユーザが追加のカメラコントロールにアクセスすることを可能にする。シャッターアフォーダンス610は、アクティブ化されると、デバイス600に、ライブプレビュー630の現在の状態及び現在選択されているモードに基づいて、メディア(例えば、写真)をキャプチャさせる。キャプチャされたメディアは、電子デバイスにローカルに記憶されるか、及び/又は記憶のためにリモートサーバに送信される。カメラスイッチャアフォーダンス612は、アクティブ化されると、デバイス600に、背面カメラセンサと前面カメラセンサとの間を切り替えることなどによって、ライブプレビュー630内の異なるカメラの視野を示すように切り替えさせる。 As shown in FIG. 8A, the control area 606 includes a camera mode affordance 620, a portion of a media collection 624, additional control affordances 614, a shutter affordance 610, and a camera switcher affordance 612. The camera mode affordance 620 indicates which camera mode is currently selected and allows the user to change the camera mode. In FIG. 8A, camera mode affordances 620a-620e are displayed, with the "Photo" camera mode 620c indicated in bold text as the current mode in which the camera is operating. The media collection 624 includes representations of media (e.g., photos), such as recently captured photos. The additional control affordances 614 allow the user to access additional camera controls. The shutter affordance 610, when activated, causes the device 600 to capture media (e.g., a photo) based on the current state of the live preview 630 and the currently selected mode. The captured media is stored locally on the electronic device and/or transmitted to a remote server for storage. The camera switcher affordance 612, when activated, causes the device 600 to switch to show a different camera's field of view within the live preview 630, such as by switching between a rear camera sensor and a front camera sensor.

図8Aでは、デバイス600は、タッチ感知面を使用して、カメラディスプレイ領域604に対応する位置での上スワイプジェスチャ850a(コントロール領域606からインジケータ領域602に向かうスワイプ入力)を検出する。上スワイプジェスチャ850aを検出したことに応じて、デバイス600は、図8Bのユーザインタフェースを表示する。あるいは、図8Aでは、デバイス600は、タッチ感知面を使用して、追加のコントロールアフォーダンス614に対応する位置でのタップジェスチャ850bを検出する。タップジェスチャ850bを検出したことに応じて、デバイス600は、図8Bのユーザインタフェースを同様に表示する。 In FIG. 8A, device 600 uses the touch-sensitive surface to detect an up swipe gesture 850a (a swipe input from control area 606 towards indicator area 602) at a location corresponding to camera display area 604. In response to detecting up swipe gesture 850a, device 600 displays the user interface of FIG. 8B. Alternatively, in FIG. 8A, device 600 uses the touch-sensitive surface to detect a tap gesture 850b at a location corresponding to additional control affordance 614. In response to detecting tap gesture 850b, device 600 similarly displays the user interface of FIG. 8B.

図8Bに示すように、上スワイプジェスチャ850a又はタップジェスチャ850bを検出したことに応じて、デバイス600は、カメラディスプレイ領域604(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトアップし、それにより、インジケータ領域602の高さを低減し、コントロール領域606の高さを増加させる。インジケータ領域602の高さの低減に加えて、デバイス600は、フラッシュインジケータ602a及びアニメーション化された画像状態インジケータ602dを表示することを停止する。いくつかの例では、デバイス600は、高さ低減モードにある間にインジケータ領域602内の任意のインジケータを表示することを停止する。コントロール領域606の高さを増加させることに加えて、デバイス600は、カメラモードアフォーダンス620の表示を、第1の1組のカメラ設定アフォーダンス626a~626eを含むカメラ設定アフォーダンス626に置き換える。カメラ設定アフォーダンス626a~626eは、アクティブ化されると、カメラ設定を変更する(又は変更するためのプロセスを開始させた)。例えば、アフォーダンス626aは、アクティブ化されると、フラッシュをオン/オフし、アフォーダンス626dは、アクティブ化されると、シャッタータイマーを設定するプロセスを開始する。 8B, in response to detecting the up swipe gesture 850a or the tap gesture 850b, the device 600 shifts up the camera display area 604 (while maintaining the same size and aspect ratio) and the visual border 608, thereby reducing the height of the indicator area 602 and increasing the height of the control area 606. In addition to reducing the height of the indicator area 602, the device 600 stops displaying the flash indicator 602a and the animated image status indicator 602d. In some examples, the device 600 stops displaying any indicators in the indicator area 602 while in the reduced height mode. In addition to increasing the height of the control area 606, the device 600 replaces the display of the camera mode affordance 620 with a camera settings affordance 626, which includes a first set of camera settings affordances 626a-626e. The camera settings affordances 626a-626e, when activated, change (or initiate a process to change) the camera settings. For example, affordance 626a turns the flash on/off when activated, and affordance 626d starts a process to set a shutter timer when activated.

図8Bでは、デバイス600は、タッチ感知面を使用して、カメラディスプレイ領域604に対応する位置での下スワイプジェスチャ850c(インジケータ領域602からコントロール領域606に向かうスワイプ入力)を検出する。下スワイプジェスチャ850cを検出したことに応じて、デバイス600は、図8Cのユーザインタフェースを表示する。あるいは、図8Bでは、デバイス600は、タッチ感知面を使用して、追加のコントロールアフォーダンス614に対応する位置でのタップジェスチャ850dを検出する。タップジェスチャ850dを検出したことに応じて、デバイス600は、図8Cのユーザインタフェースを同様に表示する。 In FIG. 8B, device 600 uses the touch-sensitive surface to detect a down swipe gesture 850c (a swipe input from indicator area 602 toward control area 606) at a location corresponding to camera display area 604. In response to detecting down swipe gesture 850c, device 600 displays the user interface of FIG. 8C. Alternatively, in FIG. 8B, device 600 uses the touch-sensitive surface to detect a tap gesture 850d at a location corresponding to additional control affordance 614. In response to detecting tap gesture 850d, device 600 similarly displays the user interface of FIG. 8C.

図8Cに示すように、下スワイプジェスチャ850c又はタップジェスチャ850dを検出したことに応じて、デバイス600は、カメラディスプレイ領域604(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトダウンし、それにより、インジケータ領域602の高さを増加させ、コントロール領域606の高さを減少させる。いくつかの例では、デバイス600は、フラッシュインジケータ602a及びアニメーション化された画像状態インジケータ602dを再表示する。コントロール領域606の高さの低減に加えて、デバイス600は、カメラ設定アフォーダンス626の表示を、カメラモードアフォーダンス620に置き換える。図8Cでは、デバイス600は、タッチ感知面を使用して、メディアコレクション624に対応する位置での右スワイプジェスチャ850eを検出する。 8C, in response to detecting a down swipe gesture 850c or a tap gesture 850d, device 600 shifts down camera display area 604 (while maintaining the same size and aspect ratio) and visual border 608, thereby increasing the height of indicator area 602 and decreasing the height of control area 606. In some examples, device 600 redisplays flash indicator 602a and animated image status indicator 602d. In addition to reducing the height of control area 606, device 600 replaces the display of camera settings affordance 626 with camera mode affordance 620. In FIG. 8C, device 600 detects a right swipe gesture 850e using the touch-sensitive surface at a location corresponding to media collection 624.

図8Dに示すように、右スワイプジェスチャ850eを検出したことに応じて、デバイス600は、メディアコレクション624の残りの部分をディスプレイ上にスライドし、追加のコントロールアフォーダンス614をカバーする。その結果、デバイス600は、追加のコントロールアフォーダンス614を表示することを停止する。図8Dでは、デバイス600は、タッチ感知面を使用して、メディアコレクション624に対応する位置での左スワイプジェスチャ850fを検出する。 As shown in FIG. 8D, in response to detecting right swipe gesture 850e, device 600 slides the remainder of media collection 624 onto the display to cover additional control affordance 614. As a result, device 600 stops displaying additional control affordance 614. In FIG. 8D, device 600 detects left swipe gesture 850f using the touch-sensitive surface at a location corresponding to media collection 624.

図8Eに示すように、左スワイプジェスチャ850fを検出したことに応じて、デバイス600は、メディアコレクション624を左方向にディスプレイから部分的にオフするようにスライドし、追加のコントロールアフォーダンス614を見せる。その結果、デバイス600は、追加のコントロールアフォーダンス614を表示する。図8Eでは、デバイス600は、タッチ感知面を使用して、カメラディスプレイ領域604(ライブプレビュー630上)に対応する位置での左スワイプジェスチャ850gを検出する。 As shown in FIG. 8E, in response to detecting left swipe gesture 850f, device 600 slides media collection 624 leftward and partially off the display to reveal additional control affordance 614. As a result, device 600 displays additional control affordance 614. In FIG. 8E, device 600 detects left swipe gesture 850g using the touch-sensitive surface at a location corresponding to camera display area 604 (on live preview 630).

左スワイプジェスチャ850g(図8E)を検出したことに応じて、デバイス600は、図8F~図8Hのグラフィカルビュー間で遷移する。あるいは(又は加えて)、左スワイプジェスチャ850g(図8E)の開始を検出したことに応じて、デバイス600は、図8F~図8Hのグラフィカルビュー間での遷移を開始し、図8F~図8Gに示すように、遷移は、(ジェスチャのリフトオフを検出することなく)左スワイプジェスチャ850gが進行するにつれて継続する。 In response to detecting a left swipe gesture 850g (FIG. 8E), the device 600 transitions between the graphical views of FIGS. 8F-8H. Alternatively (or in addition), in response to detecting the start of a left swipe gesture 850g (FIG. 8E), the device 600 initiates a transition between the graphical views of FIGS. 8F-8H, with the transition continuing as the left swipe gesture 850g progresses (without detecting gesture liftoff), as shown in FIGS. 8F-8G.

図8Fに示すように、デバイス600は、ライブプレビュー630をシフトすることなく、カメラディスプレイ領域604の境界を左(左スワイプジェスチャ850gの方向)にシフトする。カメラディスプレイ領域604をシフトすることにより、視覚境界部608の垂直部分が表示され、カメラディスプレイ領域604が退去した領域内に着色された(例えば、灰色)オーバーレイが表示される(例えば、ディスプレイの右側に、それによって、デバイス600が左スワイプジェスチャ850gを検出していることをユーザに示す)。図8Fにおいて、視覚境界部608の一部分は、リーダーによりわかりやすくするためにデバイス600の外側に(左側)表示され、デバイス600のユーザインタフェースのビジュアル要素ではない。図8Fでは、デバイス600は、インジケータ領域602のインジケータ602a及び602dを表示することを停止する。同様に、デバイス600は、カメラモードアフォーダンス620を更新して、620bを左にスライドしてディスプレイからオフにし、かつ「Pano」カメラモード620fを右からディスプレイ上にスライドする。「Photo」カメラモードは、もはや現在のモードであると示されず、代わりに、ポートレートカメラモードが、(「ポートレート」カメラモードアフォーダンス620dのテキストを太字にすることによって、及び/又はディスプレイの中心に置かれることによって)現在のモードであると示される。図8Fでは、左スワイプ入力850gに応じて、デバイス600はまた、任意選択的に触知出力860を提供して、ユーザにカメラモードが変更されていることを示す。 As shown in FIG. 8F, the device 600 shifts the boundary of the camera display area 604 to the left (in the direction of the left swipe gesture 850g) without shifting the live preview 630. By shifting the camera display area 604, a vertical portion of the visual boundary 608 is displayed, and a colored (e.g., gray) overlay is displayed in the area vacated by the camera display area 604 (e.g., on the right side of the display, thereby indicating to the user that the device 600 has detected the left swipe gesture 850g). In FIG. 8F, a portion of the visual boundary 608 is displayed outside the device 600 (on the left side) to make it more visible to the reader and is not a visual element of the user interface of the device 600. In FIG. 8F, the device 600 stops displaying the indicators 602a and 602d of the indicator area 602. Similarly, device 600 updates camera mode affordances 620 to slide 620b left off the display and slide "Pano" camera mode 620f right onto the display. "Photo" camera mode is no longer indicated as the current mode, and instead portrait camera mode is indicated as the current mode (by making the text of "Portrait" camera mode affordance 620d bold and/or centered on the display). In FIG. 8F, in response to left swipe input 850g, device 600 also optionally provides tactile output 860 to indicate to the user that the camera mode has changed.

図8Gでは、デバイス600は、カメラディスプレイ領域604を着色された(例えば、灰色、半透明)オーバーレイと重ね合わせ、及び/又はデバイス600は、ライブプレビュー630を暗くし、及び/又はデバイス600は、ディスプレイを暗くし、かつ/又はデバイス600は、ディスプレイ(ライブプレビュー630を含む)をぼかす。 In FIG. 8G, device 600 overlays camera display area 604 with a colored (e.g., gray, semi-transparent) overlay and/or device 600 dims live preview 630 and/or device 600 dims the display and/or device 600 blurs the display (including live preview 630).

図8Hでは、左スワイプジェスチャ850gを検出したことに応じて、デバイス600は、インジケータ領域602内の訂正された1組のインジケータ、更新されたライブプレビュー630、及び更新されたコントロール領域606を表示する。訂正された1組のインジケータは、以前に表示されたアニメーション化された画像状態インジケータ602dを表示することなく(例えば、新たに選択されたモードは、アニメーション化された画像状態インジケータ602dに対応する機能と不適合であるため)、以前に表示されたフラッシュインジケータ602a及び新たに表示されたf値インジケータ602eを含む(例えば、新たに選択されたモードは、フラッシュインジケータ602a及びf値インジケータ602eに対応する機能と互換性があるため)。いくつかの実施形態では、f値インジケータ602eは、f値(例えば、数値)のインジケーションを提供する。図8Hでは、ズームアフォーダンス622は、左にシフトしており、照明効果コントロール628(アクティブ化されると、照明効果を変更することができる)がカメラディスプレイ領域604内に表示されている。いくつかの実施形態では、カメラディスプレイ領域604のサイズ、アスペクト比、及び位置は、図8Eと図8Hで同一である。図8Hの更新されたライブプレビュー630は、図8Eのライブプレビュー630と比較して、異なる視覚効果を提供する。例えば、更新されたライブプレビュー630は、ボケ効果及び/又は照明効果を提供するのに対し、図8Eのライブプレビュー630は、ボケ効果及び/又は照明効果を提供しない。いくつかの実施形態では、カメラモード(写真モード対ポートレートモード)の変更により、ライブプレビュー630内のオブジェクトのズームは変化する。いくつかの実施形態では、カメラモード(写真モード対ポートレートモード)の変更にかかわらず、ライブプレビュー630内のオブジェクトのズームは変化しない。 In FIG. 8H, in response to detecting a left swipe gesture 850g, the device 600 displays a corrected set of indicators in the indicator region 602, an updated live preview 630, and an updated control region 606. The corrected set of indicators includes the previously displayed flash indicator 602a and the newly displayed f-stop indicator 602e (e.g., because the newly selected mode is compatible with the functionality corresponding to the flash indicator 602a and the f-stop indicator 602e) without displaying the previously displayed animated image status indicator 602d (e.g., because the newly selected mode is compatible with the functionality corresponding to the flash indicator 602a and the f-stop indicator 602e). In some embodiments, the f-stop indicator 602e provides an indication of the f-stop (e.g., a numerical value). In FIG. 8H, the zoom affordance 622 has shifted to the left, and a lighting effects control 628 (which can change the lighting effects when activated) is displayed in the camera display region 604. In some embodiments, the size, aspect ratio, and location of the camera display area 604 are the same in Figures 8E and 8H. The updated live preview 630 in Figure 8H provides different visual effects compared to the live preview 630 in Figure 8E. For example, the updated live preview 630 provides bokeh and/or lighting effects, whereas the live preview 630 in Figure 8E does not provide bokeh and/or lighting effects. In some embodiments, the zoom of the objects in the live preview 630 changes due to a change in camera mode (photo mode vs. portrait mode). In some embodiments, the zoom of the objects in the live preview 630 does not change despite a change in camera mode (photo mode vs. portrait mode).

図8Eに戻ると、デバイス600は、タッチ感知面を使用して、カメラディスプレイ領域604内のライブプレビュー630上ではなく、カメラモードアフォーダンス620に対応する位置(コントロール領域606内)での左スワイプジェスチャ850hを検出する。ポートレートカメラモードに遷移している間にカメラディスプレイ領域604をシフトさせるスワイプジェスチャ850gとは対照的に、デバイスは、カメラディスプレイ領域604をシフトすることなく、図8Hのポートレートカメラモードに遷移する。したがって、デバイスは、カメラモードを遷移するための入力のいずれかを受信することができるが、更新されたカメラモードへの遷移中に異なるアニメーションを表示する。 Returning to FIG. 8E, device 600 uses the touch-sensitive surface to detect left swipe gesture 850h at a location (within control area 606) that corresponds to camera mode affordance 620 but not on live preview 630 in camera display area 604. In contrast to swipe gesture 850g, which shifts camera display area 604 while transitioning to portrait camera mode, the device transitions to the portrait camera mode of FIG. 8H without shifting camera display area 604. Thus, the device can receive either input for transitioning camera modes but displays a different animation during the transition to the updated camera mode.

図8Hでは、デバイス600は、タッチ感知面を使用して、追加のコントロールアフォーダンス614に対応する位置でのタップジェスチャ850iを検出する。図8Iに示すように、タップジェスチャ850iを検出したことに応じて、デバイス600は、カメラディスプレイ領域604(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトアップし、それにより、インジケータ領域602の高さを低減し、コントロール領域606の高さを増加させる。インジケータ領域602の高さの低減に加えて、デバイス600は、フラッシュインジケータ602a及びf値インジケータ602eを表示することを停止する。いくつかの例では、デバイス600は、インジケータ領域の高さ低減モードにある間にインジケータ領域602内の任意のインジケータを表示することを停止する。コントロール領域606の高さを増加させることに加えて、デバイス600は、カメラモードアフォーダンス620の表示を、第2の1組のカメラ設定アフォーダンス626a、626c、626d~626fを含むカメラ設定アフォーダンス626に置き換える。カメラ設定アフォーダンス626a、626c、626d~626fは、アクティブ化されると、カメラ設定を変更する(又は変更するためのプロセスを開始させた)。第1の1組のカメラ設定アフォーダンスは、第2の1組のカメラ設定アフォーダンスとは異なる。例えば、アフォーダンス626aは、写真カメラモード及びポートレートカメラモードの両方に対して表示されるが、ライブフォトを有効化/無効化するアフォーダンス626bは、ポートレートカメラモードに対して表示されず、代わりに、アクティブ化されると、f値を設定するプロセスを開始する、アフォーダンス626fが表示される。いくつかの実施形態では、カメラディスプレイ領域604上の図8Hでの上スワイプジェスチャを検出することにより、デバイス600に、図8Iのユーザインタフェースを同様に表示させる。 In FIG. 8H, device 600 detects a tap gesture 850i using the touch-sensitive surface at a location corresponding to additional control affordance 614. As shown in FIG. 8I, in response to detecting tap gesture 850i, device 600 shifts up camera display area 604 (while maintaining the same size and aspect ratio) and visual boundary 608, thereby reducing the height of indicator area 602 and increasing the height of control area 606. In addition to reducing the height of indicator area 602, device 600 stops displaying flash indicator 602a and f-stop indicator 602e. In some examples, device 600 stops displaying any indicators in indicator area 602 while in the indicator area height reduction mode. In addition to increasing the height of control area 606, device 600 replaces the display of camera mode affordance 620 with camera settings affordance 626, which includes a second set of camera settings affordances 626a, 626c, 626d-626f. Camera settings affordances 626a, 626c, 626d-626f, when activated, change (or initiate a process to change) the camera settings. The first set of camera settings affordances is different from the second set of camera settings affordances. For example, affordance 626a is displayed for both photo camera mode and portrait camera mode, but affordance 626b for enabling/disabling live photos is not displayed for portrait camera mode; instead, affordance 626f, which initiates a process to set an f-stop, is displayed when activated. In some embodiments, detecting a swipe up gesture in FIG. 8H on the camera display area 604 causes device 600 to similarly display the user interface of FIG. 8I.

図8Iでは、デバイス600は、タッチ感知面を使用して、ポートレートカメラモードにある間に、アスペクト比コントロールアフォーダンス626cに対応する位置(コントロール領域606内)でのタップジェスチャ850jを検出する。 In FIG. 8I, device 600 uses the touch-sensitive surface to detect a tap gesture 850j while in portrait camera mode at a location (within control area 606) that corresponds to aspect ratio control affordance 626c.

図8Jでは、タップジェスチャ850jを検出したことに応じて、デバイス600は、アスペクト比コントロールアフォーダンス626cの表示を拡張して、調整可能なアスペクト比コントロール818を表示し、これは、アクティブ化されると(例えば、タップにより)、カメラディスプレイ領域604のアスペクト比を変更する、複数のアフォーダンス818a~1818dを含む。図8Jでは、4:3のアスペクト比アフォーダンス818bは、太字化されて、カメラディスプレイ領域604のアスペクト比が4:3(非正方形のアスペクト比)であることを示す。図8Jでは、調整可能なアスペクト比コントロール818を表示している間に、デバイス600は、タッチ感知面を使用して、正方形(スクエア)のアスペクト比アフォーダンス818aに対応する位置でのタップジェスチャ850kを検出する。 In FIG. 8J, in response to detecting tap gesture 850j, device 600 extends the display of aspect ratio control affordance 626c to display adjustable aspect ratio control 818, which includes a number of affordances 818a-d that, when activated (e.g., by tapping), change the aspect ratio of camera display area 604. In FIG. 8J, 4:3 aspect ratio affordance 818b is bolded to indicate that the aspect ratio of camera display area 604 is 4:3 (a non-square aspect ratio). In FIG. 8J, while displaying adjustable aspect ratio control 818, device 600 detects tap gesture 850k using the touch-sensitive surface at a location corresponding to square aspect ratio affordance 818a.

図8Kでは、タップジェスチャ850kを検出したことに応じて、デバイス600は、カメラディスプレイ領域604のアスペクト比を正方形に変更する。その結果、デバイス600はまた、インジケータ領域602及びコントロール領域606の一方又は両方の高さを増加させる。図8Kに示すように、照明効果コントロール628は、コントロール領域606の高さが増加したため、現在、コントロール領域606内に表示される。 In FIG. 8K, in response to detecting tap gesture 850k, device 600 changes the aspect ratio of camera display region 604 to a square. As a result, device 600 also increases the height of one or both of indicator region 602 and control region 606. As shown in FIG. 8K, lighting effects control 628 is now displayed within control region 606 because the height of control region 606 has increased.

図8Kでは、デバイス600は、タッチ感知面を使用して、「Photo」カメラモード620cに対応する位置でのタップジェスチャ850lを検出して、カメラが動作しているモードを変更する。 In FIG. 8K, device 600 uses the touch-sensitive surface to detect a tap gesture 850l at a location corresponding to “Photo” camera mode 620c to change the mode in which the camera is operating.

図8Lでは、タップジェスチャ850lを検出したことに応じて、デバイス600は、ポートレートカメラモードから写真カメラモードにカメラモードを変更する。カメラモードが変更され、f値インジケータ602eがもはや表示されていないが、カメラディスプレイ領域604のサイズ、アスペクト比、及び位置は、図8K及び図8Lの両方において同じである。「Photo」カメラモードアフォーダンスは、現在、太字化されて、写真カメラモードが現在アクティブであることを示す。 In FIG. 8L, in response to detecting tap gesture 850l, device 600 changes the camera mode from portrait camera mode to photo camera mode. The camera mode has changed and f-stop indicator 602e is no longer displayed, but the size, aspect ratio, and position of camera display area 604 are the same in both FIG. 8K and FIG. 8L. The "Photo" camera mode affordance is now bolded to indicate that photo camera mode is now active.

図8Lでは、デバイス600は、タッチ感知面を使用して、アスペクト比インジケータ602gに対応する位置でのタップジェスチャ850mを検出する。図8Kでは、タップジェスチャ850mを検出したことに応じて、デバイス600は、コントロール領域606内のカメラモードアフォーダンス620の表示を、調整可能なアスペクト比コントロール818の表示に置き換え、これは、アクティブ化されると(例えば、タップにより)、上述のように、カメラディスプレイ領域604のアスペクト比を変更する、アフォーダンス818a~1818dを含む。 In FIG. 8L, device 600 detects a tap gesture 850m using the touch-sensitive surface at a location corresponding to aspect ratio indicator 602g. In FIG. 8K, in response to detecting tap gesture 850m, device 600 replaces the display of camera mode affordance 620 in control area 606 with a display of adjustable aspect ratio control 818, which includes affordances 818a-d that, when activated (e.g., by tapping), change the aspect ratio of camera display area 604, as described above.

図8Mでは、デバイス600は、タッチ感知面を使用して、アスペクト比コントロールアフォーダンス626cに対応する位置でのタップジェスチャ850nを検出する。図8Nでは、タップジェスチャ850nを検出したことに応じて、デバイス600は、アスペクト比コントロールアフォーダンス626cの表示を収縮して、調整可能なアスペクト比コントロール818を表示をすることを停止する。 In FIG. 8M, device 600 uses the touch-sensitive surface to detect a tap gesture 850n at a location that corresponds to aspect ratio control affordance 626c. In FIG. 8N, in response to detecting tap gesture 850n, device 600 contracts the display of aspect ratio control affordance 626c and ceases to display adjustable aspect ratio control 818.

図8N~図8Pのそれぞれでは、デバイス600は、タッチ感知面を使用して、ズームアフォーダンス622に対応する位置でのタップジェスチャ850o、850p、及び850qを検出する。タップジェスチャ850oに応じて、図8Oに示すように、デバイス600は、ライブプレビュー630のズームを(例えば、第1のカメラセンサから異なる視野を有する第2のカメラセンサにカメラセンサを切り替えることによって)更新し、かつズームアフォーダンス622を更新して現在のズームを示す。タップジェスチャ850pに応じて、図8Pに示すように、デバイス600は、ライブプレビュー630のズームを(例えば、第2のカメラセンサから異なる視野を有する第3のカメラセンサに切り替えることによって)更新し、かつズームアフォーダンス622を更新して現在のズームを示す。タップジェスチャ850qに応じて、図8Qに示すように、デバイス600は、ライブプレビュー630のズームを(例えば、第3のカメラセンサから異なる視野を有する第1のカメラセンサに切り替えることによって)更新し、かつズームアフォーダンス622を更新して現在のズームを示す。図8M~図8Qに通じて、コントロール領域606内のコントロールは変更されず、インジケータ領域602内のインジケータは変更されなかった。 8N-8P, device 600 uses the touch-sensitive surface to detect tap gestures 850o, 850p, and 850q at locations corresponding to zoom affordance 622. In response to tap gesture 850o, device 600 updates the zoom of live preview 630 (e.g., by switching the camera sensor from the first camera sensor to a second camera sensor having a different field of view) and updates zoom affordance 622 to indicate the current zoom, as shown in FIG. 8O. In response to tap gesture 850p, device 600 updates the zoom of live preview 630 (e.g., by switching the camera sensor from the second camera sensor to a third camera sensor having a different field of view) and updates zoom affordance 622 to indicate the current zoom, as shown in FIG. 8P. In response to tap gesture 850q, as shown in FIG. 8Q, device 600 updates the zoom of live preview 630 (e.g., by switching from the third camera sensor to the first camera sensor with a different field of view) and updates zoom affordance 622 to indicate the current zoom. Throughout FIGS. 8M-8Q, the controls in control region 606 did not change and the indicators in indicator region 602 did not change.

図8Qでは、カメラ設定アフォーダンス626を表示している間に、デバイス600は、タッチ感知面を使用して、カメラディスプレイ領域604内のライブプレビュー630に対応する位置での下スワイプジェスチャ850rを検出する。下スワイプジェスチャ850rを検出したことに応じて、デバイス600は、カメラ設定アフォーダンス626の表示を、図8Rに示すように、カメラモードアフォーダンス620に置き換える。いくつかの実施形態では、デバイス600はまた、カメラディスプレイ領域604(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトダウンし、それにより、インジケータ領域602の高さを増加させ、コントロール領域606の高さを減少させる。いくつかの実施形態では、正方形のアスペクト比により、カメラ設定アフォーダンス626が表示されている間にインジケータをより容易に収容する高さをインジケータ領域602が有することを可能にするため、デバイス600は、図8K~図8Sのアスペクト比インジケータ602gの表示を維持する。 In FIG. 8Q, while displaying camera settings affordance 626, device 600 detects, using the touch-sensitive surface, a down swipe gesture 850r in camera display area 604 at a location corresponding to live preview 630. In response to detecting down swipe gesture 850r, device 600 replaces the display of camera settings affordance 626 with camera mode affordance 620, as shown in FIG. 8R. In some embodiments, device 600 also shifts down camera display area 604 (while maintaining the same size and aspect ratio) and visual border 608, thereby increasing the height of indicator area 602 and decreasing the height of control area 606. In some embodiments, device 600 maintains the display of aspect ratio indicator 602g of FIGS. 8K-8S because the square aspect ratio allows indicator area 602 to have a height that more easily accommodates the indicator while camera settings affordance 626 is displayed.

図8Rでは、カメラディスプレイ領域604が正方形のアスペクト比を有する間に、デバイス600は、タッチ感知面を使用して、シャッターアフォーダンス610に対応する位置でのタップジェスチャ850sを検出する。タップジェスチャ850sを検出したことに応じて、デバイス600は、ライブプレビュー630の現在の状態に基づいて、メディア(例えば、写真、ビデオ)をキャプチャする。キャプチャされたメディアは、電子デバイスにローカルに記憶されるか、及び/又は記憶のためにリモートサーバに送信される。更に、図8Sに示すようにタップジェスチャ850sを検出したことに応じて、デバイス600は、追加のコントロールアフォーダンス614の表示を、メディアコレクション624に置き換え、コレクションの上に新たにキャプチャされたメディアの表現を含む。 8R, while camera display area 604 has a square aspect ratio, device 600 detects a tap gesture 850s using the touch-sensitive surface at a location corresponding to shutter affordance 610. In response to detecting tap gesture 850s, device 600 captures media (e.g., photo, video) based on the current state of live preview 630. The captured media is stored locally on the electronic device and/or transmitted to a remote server for storage. Further, in response to detecting tap gesture 850s as shown in FIG. 8S, device 600 replaces the display of additional control affordance 614 with media collection 624 and includes a representation of the newly captured media on top of the collection.

図8Sでは、デバイス600は、タッチ感知面を使用して、メディアコレクション624に対応する位置でのタップジェスチャ850tを検出する。図8Tに示すようにタップジェスチャ850tを検出したことに応じて、デバイス600は、ライブプレビュー630を表示することを停止し、代わりに、新たにキャプチャされたメディア(例えば、写真、ビデオのフレーム)の表現842を含む写真ビューワユーザインタフェースを表示する。デバイス600は、新たにキャプチャされたメディアの表現842と、新たにキャプチャされたメディアを編集するための編集アフォーダンス644aと、新たにキャプチャされたメディアを送信するための送信アフォーダンス644bと、新たにキャプチャされたメディアをお気に入りのメディアとしてマーキングするためのお気に入りアフォーダンス644cと、新たにキャプチャされたメディアを削除するためのごみ箱アフォーダンス644dと、を同時に表示する。 In FIG. 8S, device 600 detects a tap gesture 850t using the touch-sensitive surface at a location corresponding to media collection 624. In response to detecting tap gesture 850t as shown in FIG. 8T, device 600 stops displaying live preview 630 and instead displays a photo viewer user interface including a representation 842 of the newly captured media (e.g., a photo, a frame of video). Device 600 simultaneously displays the representation 842 of the newly captured media, an edit affordance 644a for editing the newly captured media, a send affordance 644b for sending the newly captured media, a favorite affordance 644c for marking the newly captured media as a favorite media, and a trash affordance 644d for deleting the newly captured media.

図8Tでは、デバイス600は、タッチ感知面を使用して、編集アフォーダンス644aに対応する位置でのタップジェスチャ850uを検出する。タップジェスチャ850uを検出したことに応じて、図8Uに示すように、デバイス600は、新たにキャプチャされたメディアを編集する編集ユーザインタフェースを表示する。編集ユーザインタフェースは、正方形のアスペクト比でメディアがキャプチャされたことを示すために、ハイライトされた正方形アスペクト編集アフォーダンス846aを備える、アスペクト編集アフォーダンス846a~846dを含む。 In FIG. 8T, device 600 detects a tap gesture 850u using the touch-sensitive surface at a location corresponding to edit affordance 644a. In response to detecting tap gesture 850u, device 600 displays an edit user interface for editing the newly captured media, as shown in FIG. 8U. The edit user interface includes aspect edit affordances 846a-846d, with square aspect edit affordance 846a highlighted to indicate that the media was captured with a square aspect ratio.

図8Uでは、デバイス600は、タッチ感知面を使用して、4:3のアスペクト比編集アフォーダンス846bに対応する位置でタップジェスチャ850vを検出する。タップジェスチャ850vを検出したことに応じて、図8Vに示すように、正方形のアスペクト比で表示されるメディアの視覚コンテンツを維持し、4:3のアスペクト比を超えて視覚コンテンツを拡張する(シャッターアフォーダンス610上のタップジェスチャ850sに応じて、)キャプチャされた視覚コンテンツを追加しながら、デバイス600は、正方形のアスペクト比から4:3のアスペクト比へのメディアの表現の表示を更新する。加えて、4:3のアスペクト編集アフォーダンス846bは、メディアが拡張された4:3のアスペクト比で示されていることを示すためにハイライトされる。 In FIG. 8U, device 600 detects a tap gesture 850v using the touch-sensitive surface at a location corresponding to 4:3 aspect ratio edit affordance 846b. In response to detecting tap gesture 850v, device 600 updates the display of the representation of the media from the square aspect ratio to the 4:3 aspect ratio while preserving the visual content of the media displayed in the square aspect ratio and adding captured visual content (in response to tap gesture 850s on shutter affordance 610) that extends the visual content beyond the 4:3 aspect ratio, as shown in FIG. 8V. In addition, 4:3 aspect edit affordance 846b is highlighted to indicate that the media is presented in an extended 4:3 aspect ratio.

図9A~図9Cは、いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための方法を示すフロー図である。方法900は、表示デバイス及び1つ以上のカメラ(例えば、電子デバイスの異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を備えるデバイス(例えば、100、300、500、600)で実行される。方法900のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 9A-9C are flow diagrams illustrating a method for displaying media controls using an electronic device, according to some embodiments. Method 900 is performed on a device (e.g., 100, 300, 500, 600) that includes a display device and one or more cameras (e.g., one or more cameras (e.g., dual camera, triple camera, quad camera, etc.) on different sides (e.g., front camera, rear camera) of the electronic device). Some operations of method 900 are optionally combined, the order of some operations is optionally changed, and some operations are optionally omitted.

いくつかの実施形態では、電子デバイス(例えば、600)は、コンピュータシステムである。コンピュータシステムは、任意選択的に、ディスプレイ生成構成要素と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the electronic device (e.g., 600) is a computer system. The computer system is optionally in communication (e.g., wired communication, wireless communication) with a display generation component and with one or more input devices. The display generation component is configured to provide visual output, such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. The one or more input devices are configured to receive input, such as a touch-sensitive surface that receives user input. In some embodiments, the one or more input devices are integrated with the computer system. In some embodiments, the one or more input devices are separate from the computer system. Thus, the computer system can transmit data (e.g., image data or video data) via a wired or wireless connection to an integrated or external display generation component to visually generate content (e.g., using a display device) and can receive wired or wireless connection input from one or more input devices.

後述するように、方法900は、メディアコントロールを表示するための直感的な仕方を提供する。この方法は、メディアコントロールを表示する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアコントロールを閲覧することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, the method 900 provides an intuitive way to display media controls. The method reduces the cognitive burden on the user in displaying the media controls, thereby creating a more efficient human-machine interface. For battery-operated computing devices, enabling the user to view media controls more quickly and efficiently conserves power and extends the time between battery charges.

電子デバイス(例えば、600)は、表示デバイスを介して、カメラユーザインタフェースを表示する(902)。カメラユーザインタフェースは、(例えば、電子デバイスがカメラユーザインタフェース内に同時に表示する)カメラディスプレイ領域を含み、カメラディスプレイ領域は、1つ以上のカメラの視野の表現(例えば、630)を含む(904)。 An electronic device (e.g., 600) displays (902) a camera user interface via a display device. The camera user interface includes a camera display area (e.g., which the electronic device simultaneously displays within the camera user interface), which includes (904) a representation of one or more camera fields of view (e.g., 630).

カメラユーザインタフェースは、(例えば、電子デバイスがカメラユーザインタフェース内に同時に表示する)カメラコントロール領域(例えば、606)を含み、カメラコントロール領域は、第1の位置(例えば、画像キャプチャアフォーダンス(例えば、アクティブ化されると、カメラディスプレイ領域内に表示されたコンテンツの画像をキャプチャするシャッターアフォーダンス)の上の位置)に複数のカメラモードアフォーダンス(例えば、620)(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、異なるカメラモード(例えば、スローモーション、ビデオ、写真、ポートレート、正方形、パノラマなど)を選択するアフォーダンス)を含む(906)。いくつかの実施形態では、各カメラモード(例えば、ビデオ、写真(phot)/静止(still)、ポートレート、スローモーション、パノラマモード)は、カメラ(例えば、カメラセンサ)がメディアをキャプチャするように動作している(キャプチャ後に自動的に実行される後処理を含む)モード(例えば、ポートレートモード)の複数の値(例えば、各設定の光のレベル)を有する複数の設定(例えば、ポートレートカメラモードについて:スタジオ照明設定、輪郭照明設定、舞台照明設定)を有する。このようにして、例えば、カメラモードは、メディアをキャプチャするときにカメラがどのように動作するかに影響を及ぼさない又は複数の設定(例えば、複数の値(例えば、非アクティブ、アクティブ、自動)を有する1つの設定を有するフラッシュモード)を含まないモードとは異なる。いくつかの実施形態では、カメラモードにより、ユーザは、異なるタイプのメディア(例えば、写真又はビデオ)をキャプチャすることを可能にし、各モードの設定を最適化して、特定の特性(例えば、形状(例えば、正方形、矩形)、速さ(例えば、スローモーション、時間経過)、オーディオ、ビデオ)を有する特定のモードに対応する特定のタイプのメディアを(例えば、後処理を介して)キャプチャすることができる。例えば、静止写真モードで動作するように電子デバイス(例えば、600)が構成されている場合、電子デバイスの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定、1つ以上のフィルタ設定)を有する第1のタイプ(例えば、矩形の写真)のメディアをキャプチャし、正方形モードで動作するように電子デバイスが構成されているときに、電子デバイスの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定及び1つ以上のフィルタ)を有する第2のタイプ(例えば、正方形の写真)のメディアをキャプチャし、スローモーションモードで動作するように電子デバイスが構成されているときに、電子デバイスの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定、一秒当たりのフレームキャプチャ速度)を有する第3のタイプ(例えば、スローモーションビデオ)のメディアをキャプチャし、ポートレートモードで動作するように電子デバイスが構成されているときに、電子デバイスの1つ以上のカメラは、特定の設定(例えば、特定のタイプの光(例えば、舞台光、スタジオ光、輪郭光)の量、f値、ぼかし)を有する第5のタイプ(例えば、ポートレート写真(例えば、ぼかしをかけた背景を有する写真))のメディアをキャプチャし、パノラマモードで動作するように電子デバイスが構成されているときに、電子デバイスの1つ以上のカメラは、第4のタイプ(例えば、特定の設定(例えば、ズーム、移動しながらキャプチャするための視野の量)を有するパノラマ写真(例えば、広い写真))のメディアをキャプチャする。いくつかの実施形態では、モード間の切り替え時、視野の表現(例えば、630)の表示は、モードによってキャプチャされるメディアのタイプに対応するように変化する(例えば、電子デバイス(例えば、600)が静止写真モードで動作している間、この表現は、矩形モードであり、電子デバイスが正方形モードで動作している間、この表現は、正方形である)。 The camera user interface includes a camera control area (e.g., 606) that the electronic device simultaneously displays within the camera user interface, and the camera control area includes a plurality of camera mode affordances (e.g., 620) (e.g., selectable user interface objects) (e.g., affordances for selecting different camera modes (e.g., slow motion, video, photo, portrait, square, panorama, etc.)) in a first position (e.g., a position above an image capture affordance (e.g., a shutter affordance that, when activated, captures an image of content displayed within the camera display area) (906). In some embodiments, each camera mode (e.g., video, phot/still, portrait, slow motion, panorama mode) has a plurality of settings (e.g., for portrait camera mode: studio lighting setting, contour lighting setting, stage lighting setting) having a plurality of values (e.g., light levels for each setting) for the mode (e.g., portrait mode) in which the camera (e.g., camera sensor) is operating to capture media (including post-processing that is automatically performed after capture). In this manner, for example, a camera mode is distinct from a mode that does not affect how the camera operates when capturing media or does not include multiple settings (e.g., a flash mode having one setting with multiple values (e.g., inactive, active, auto)). In some embodiments, camera modes enable a user to capture different types of media (e.g., photos or videos) and optimize the settings for each mode to capture (e.g., via post-processing) a particular type of media that corresponds to the particular mode with particular characteristics (e.g., shape (e.g., square, rectangular), speed (e.g., slow motion, time lapse), audio, video). For example, when an electronic device (e.g., 600) is configured to operate in a still photography mode, one or more cameras of the electronic device may, when activated, capture media of a first type (e.g., rectangular photos) having particular settings (e.g., flash settings, one or more filter settings); when the electronic device is configured to operate in a square mode, one or more cameras of the electronic device may, when activated, capture media of a second type (e.g., square photos) having particular settings (e.g., flash settings and one or more filters); when the electronic device is configured to operate in a slow motion mode, one or more cameras of the electronic device may, when activated, capture media of a second type (e.g., square photos) having particular settings (e.g., flash settings, one or more filters). When the electronic device is configured to operate in a portrait mode, one or more cameras of the electronic device capture media of a third type (e.g., slow-motion video) having a certain frame capture rate per second; when the electronic device is configured to operate in a portrait mode, one or more cameras of the electronic device capture media of a fifth type (e.g., portrait photographs (e.g., photographs with a blurred background) having certain settings (e.g., amount of a certain type of light (e.g., stage light, studio light, edge light), f-stop, blur); and when the electronic device is configured to operate in a panoramic mode, one or more cameras of the electronic device capture media of a fourth type (e.g., panoramic photographs (e.g., wide photographs) having certain settings (e.g., zoom, amount of field of view to capture while moving). In some embodiments, when switching between modes, the display of the representation of the field of view (e.g., 630) changes to correspond to the type of media captured by the mode (e.g., while the electronic device (e.g., 600) is operating in a still photography mode, the representation is rectangular mode, while the electronic device is operating in a square mode, the representation is square).

いくつかの実施形態では、複数のカメラ設定アフォーダンス(例えば、618a~618d)は、表示されると、メディアをキャプチャする第1の要求に応じて、第1のアスペクト比(例えば、4×3、16×9)で表示されるメディアをキャプチャするように電子デバイス(例えば、600)を構成するアフォーダンス(例えば、618a~618d)(例えば、選択可能ユーザインタフェースオブジェクト)を含む。表示されると、メディアをキャプチャする第1の要求に応じて、第1のアスペクト比で表示されるメディアをキャプチャするように電子デバイスを構成するアフォーダンスを含むことにより、ユーザが、第1のアスペクト比を迅速かつ容易に設定及び/又は変更することを可能にする。表示される追加のコントロールによってUIを雑然とさせることなく、必要な制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、電子デバイス(例えば、600)は、アフォーダンス(例えば、618a~618d)の選択を受信し、それに応じて、電子デバイスは、第1のアスペクト比を第2のアスペクト比に変更するために動かすことができるコントロール(例えば、境界部ボックス608)を表示する。 In some embodiments, the camera setting affordances (e.g., 618a-618d) include affordances (e.g., selectable user interface objects) that, when displayed, configure the electronic device (e.g., 600) to capture media displayed in a first aspect ratio (e.g., 4x3, 16x9) in response to a first request to capture media. Including an affordance that, when displayed, configures the electronic device to capture media displayed in a first aspect ratio in response to a first request to capture media allows a user to quickly and easily set and/or change the first aspect ratio. Providing the necessary control options without cluttering the UI with additional controls displayed enhances usability of the device, making the user-device interface more efficient (e.g., by helping the user make appropriate inputs and reducing user errors when operating/interacting with the device), plus reducing device power usage and improving battery life by allowing the user to use the device more quickly and efficiently. In some embodiments, the electronic device (e.g., 600) receives a selection of an affordance (e.g., 618a-618d) and, in response, the electronic device displays a control (e.g., bounding box 608) that can be moved to change the first aspect ratio to the second aspect ratio.

いくつかの実施形態では、1つ以上のカメラの視野の表現(例えば、630)は、第1のズームレベル(例えば、1×ズーム)で表示される(908)。いくつかの実施形態では、第1のズームレベルで表示される1つ以上のカメラの視野の表現(例えば、630)を表示している間に、電子デバイス(例えば、600)は、表現のズームレベルを変更する第1の要求(例えば、表示デバイス上のタップ)を受信する(910)。いくつかの実施形態では、表現(例えば、630)のズームレベルを変更する第1の要求を受信したことに応じて(912)、表現のズームレベルを変更する要求が表現のズームレベルを上げる要求に対応するとの判定に従って、電子デバイス(例えば、600)は、1つ以上のカメラの第2の表現視野を第1のズームレベルよりも大きい第2のズームレベル(例えば、2×ズーム)で表示する(914)。いくつかの実施形態では、表現のズームレベルを変更する第1の要求を受信したことに応じて(912)、表現のズームレベルを変更する要求が表現(例えば、630)のズームレベルを下げる要求に対応するとの判定に従って、電子デバイス(例えば、600)は、1つ以上のカメラの第3の表現視野を第1のズームレベルよりも小さい第3のズーム(例えば、0.5×ズーム)レベルで表示する(916)。いくつかの実施形態では、ズームレベルの倍率間の差は、不均一である(例えば、0.5×と1×との間(例えば、0.5×差)及び1×と2×との間(例えば、1×差))。 In some embodiments, the representations (e.g., 630) of the fields of view of the one or more cameras are displayed at a first zoom level (e.g., 1× zoom) (908). In some embodiments, while displaying the representations (e.g., 630) of the fields of view of the one or more cameras displayed at the first zoom level, the electronic device (e.g., 600) receives a first request (e.g., a tap on a display device) to change the zoom level of the representation (910). In some embodiments, in response to receiving the first request to change the zoom level of the representations (e.g., 630) (912), in accordance with a determination that the request to change the zoom level of the representation corresponds to a request to increase the zoom level of the representation, the electronic device (e.g., 600) displays a second representation field of view of the one or more cameras at a second zoom level (e.g., 2× zoom) that is greater than the first zoom level (914). In some embodiments, in response to receiving a first request to change the zoom level of the representation (912), and in accordance with a determination that the request to change the zoom level of the representation corresponds to a request to decrease the zoom level of the representation (e.g., 630), the electronic device (e.g., 600) displays a third representational field of view of the one or more cameras at a third zoom level (e.g., 0.5x zoom) that is less than the first zoom level (916). In some embodiments, the difference between the magnifications of the zoom levels is non-uniform (e.g., between 0.5x and 1x (e.g., 0.5x difference) and between 1x and 2x (e.g., 1x difference)).

いくつかの実施形態では、第4のズームレベル(例えば、現在のズームレベル(例えば、0.5×、1×、又は2×ズーム))で1つ以上のカメラの視野の表現(例えば、630)を表示している間に、電子デバイス(例えば、600)は、表現のズームレベルを変更する第2の要求(例えば、表示デバイス上のタップ)を受信する(918)。いくつかの実施形態では、表現のズームレベルを変更する第2の要求を受信したことに応じて(920)、第4のズームレベルが第2のズームレベル(例えば、2×ズーム)である(かつ、いくつかの実施形態では、表現のズームレベルを変更する第2の要求が、表現のズームレベルを上げる第2の要求に対応する)との判定に従って、電子デバイス(例えば、600)は、1つ以上のカメラの視野の第4の表現を第3のズームレベル(例えば、0.5×ズーム)で表示する(922)。いくつかの実施形態では、表現のズームレベルを変更する第2の要求を受信したことに応じて(920)、第4のズームレベルが第3のズームレベル(例えば、0.5×ズーム)である(かつ、いくつかの実施形態では、表現のズームレベルを変更する第2の要求が、表現のズームレベルを上げる第2の要求に対応する)との判定に従って、電子デバイス(例えば、600)は、1つ以上のカメラの視野の第5の表現を第1のズームレベル(例えば、1×ズーム)で表示する(924)。いくつかの実施形態では、表現のズームレベルを変更する第2の要求を受信したことに応じて(920)、第4のズームレベルが第1のズームレベル(例えば、1×)である(かつ、いくつかの実施形態では、表現のズームレベルを変更する第2の要求が、表現のズームレベルを上げる第2の要求に対応する)との判定に従って、電子デバイス(例えば、600)は、1つ以上のカメラの視野の第6の表現を第2のズームレベル(例えば、2×)で表示する(926)。いくつかの実施形態では、カメラユーザインタフェースは、選択されると、1組の所定のズーム値を循環するアフォーダンス(例えば、622)を含む(例えば、0.5×から1×に、2×に循環し、0.5×に戻る、又は2×から1×に、0.5×に循環し、2×に戻る)。選択されると、1組の所定のズーム値を循環するアフォーダンスを提供することにより、選択可能な所定のズーム値の視覚的フィードバックをユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。いくつかの実施形態では、ズームレベルが上限ズームレベル(例えば、2×)である場合、及びズームを上げる要求に応じて、電子デバイス(例えば、600)は、ズームレベルを0.5×に変更する。いくつかの実施形態では、ズームレベルが下限ズームレベル(例えば、0.5×)である場合、及びズームを下げる要求に応じて、電子デバイス(例えば、600)は、ズームレベルを2×に変更する。 In some embodiments, while displaying the representation (e.g., 630) of the field of view of the one or more cameras at a fourth zoom level (e.g., a current zoom level (e.g., 0.5x, 1x, or 2x zoom)), the electronic device (e.g., 600) receives (918) a second request (e.g., a tap on a display device) to change the zoom level of the representation. In some embodiments, in response to receiving (920) the second request to change the zoom level of the representation, in accordance with a determination that the fourth zoom level is the second zoom level (e.g., 2x zoom) (and in some embodiments, the second request to change the zoom level of the representation corresponds to a second request to increase the zoom level of the representation), the electronic device (e.g., 600) displays (922) the fourth representation of the field of view of the one or more cameras at a third zoom level (e.g., 0.5x zoom). In some embodiments, in response to receiving the second request to change the zoom level of the representation (920), in accordance with a determination that the fourth zoom level is a third zoom level (e.g., 0.5× zoom) (and in some embodiments, the second request to change the zoom level of the representation corresponds to a second request to increase the zoom level of the representation), the electronic device (e.g., 600) displays a fifth representation of the field of view of the one or more cameras at the first zoom level (e.g., 1× zoom) (924). In some embodiments, in response to receiving the second request to change the zoom level of the representation (920), in accordance with a determination that the fourth zoom level is the first zoom level (e.g., 1×) (and in some embodiments, the second request to change the zoom level of the representation corresponds to a second request to increase the zoom level of the representation), the electronic device (e.g., 600) displays a sixth representation of the field of view of the one or more cameras at the second zoom level (e.g., 2×) (926). In some embodiments, the camera user interface includes an affordance (e.g., 622) that, when selected, cycles through a set of predefined zoom values (e.g., from 0.5x to 1x to 2x and back to 0.5x, or from 2x to 1x to 0.5x and back to 2x). Providing an affordance that, when selected, cycles through a set of predefined zoom values provides the user with visual feedback of the selectable predefined zoom values. Providing improved feedback increases usability of the device, provides a more efficient user-device interface (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently. In some embodiments, when the zoom level is at the upper zoom level (e.g., 2x) and in response to a request to increase the zoom, the electronic device (e.g., 600) changes the zoom level to 0.5x. In some embodiments, if the zoom level is at a lower limit zoom level (e.g., 0.5x) and in response to a request to decrease the zoom, the electronic device (e.g., 600) changes the zoom level to 2x.

カメラユーザインタフェースを表示している間に、電子デバイス(例えば、600)は、カメラユーザインタフェース上で第1のジェスチャ(例えば、850g、850h、タッチジェスチャ(例えば、スワイプ))を検出する(928)。 While displaying the camera user interface, the electronic device (e.g., 600) detects a first gesture (e.g., 850g, 850h, a touch gesture (e.g., a swipe)) on the camera user interface (928).

第1のジェスチャ(例えば、850g、850h)を検出したことに応じて、電子デバイス(例えば、600)は、カメラコントロール領域(例えば、606)の外観を修正し(930)、この修正することには、第1のジェスチャが第1のタイプ(例えば、カメラモードアフォーダンス上のスワイプジェスチャ)(例えば、第1の位置でのジェスチャ)のジェスチャであるとの判定に従って、第1の位置に1つ以上の追加のカメラモードアフォーダンス(例えば、620f、選択可能ユーザインタフェースオブジェクト)を表示する(932)(例えば、1つ以上の表示されたカメラモードアフォーダンスがもはや表示されず、かつ1つ以上の追加のカメラモードアフォーダンスが第1の位置に表示されるように、複数のカメラモードアフォーダンスをスクロールする)ことを含む。第1のジェスチャが第1のタイプのジェスチャであるとの判定に従って、1つ以上の追加のカメラモードアフォーダンスを表示することにより、ユーザが、他のカメラモードアフォーダンスに迅速かつ容易にアクセスすることを可能にする。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In response to detecting a first gesture (e.g., 850g, 850h), the electronic device (e.g., 600) modifies (930) the appearance of the camera control area (e.g., 606), including displaying (932) one or more additional camera mode affordances (e.g., 620f, selectable user interface objects) in the first position (e.g., scrolling through the camera mode affordances such that one or more of the displayed camera mode affordances are no longer displayed and one or more additional camera mode affordances are displayed in the first position) in accordance with a determination that the first gesture is a gesture of a first type (e.g., a swipe gesture on a camera mode affordance) (e.g., a gesture at a first position). Displaying one or more additional camera mode affordances in accordance with a determination that the first gesture is a gesture of a first type allows a user to quickly and easily access other camera mode affordances. Providing additional control options without cluttering the UI with additional controls displayed enhances usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のタイプのジェスチャは、複数のカメラモードアフォーダンス(例えば、620)(例えば、2つ以上のカメラモードアフォーダンス又は複数のカメラアフォーダンスに関連付けられた領域の一部分に対するスワイプ)のうちの少なくとも1つ上の接触の移動(例えば、850h、表示デバイス上のスワイプ)である。 In some embodiments, the first type of gesture is a movement of contact (e.g., 850h, a swipe on a display device) over at least one of a plurality of camera mode affordances (e.g., 620) (e.g., a swipe over a portion of an area associated with two or more camera mode affordances or a plurality of camera affordances).

いくつかの実施形態では、第1のジェスチャは、第1のタイプのものであり、第1のジェスチャを検出することは、第1のジェスチャの第1の部分(例えば、初期部分、接触、それに続く第1の量の移動)及び第1のジェスチャの第2の部分(後続の部分、接触の移動の継続)を検出することを含む。いくつかの実施形態では、第1のジェスチャの第1の部分を検出したことに応じて、電子デバイス(例えば、600)は、表示デバイスを介して、1つ以上のカメラの視野の表現の少なくとも一部分を取り囲む(例えば、包囲する、範囲内にある)(例えば、1つ以上のカメラの視野の表現(例えば、カメラプレビュー)の周囲に表示された境界部(例えば、フレーム))別個の1つ以上の境界部要素を含む境界部(例えば、608)(例えば、単一の連続する境界部又は各角部で別個の要素からなる境界部)を表示する。第1のジェスチャの第1の部分を検出したことに応じて、1つ以上のカメラの視野の表現の少なくとも一部分を取り囲む別個の1つ以上の境界部要素を含む境界部を表示することにより、第1のジェスチャの第1の部分が検出されたという視覚的フィードバックをユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。いくつかの実施形態では、第1のジェスチャの第2の部分を検出したことに応じて、電子デバイス(例えば、600)は、境界部(例えば、図8Fの608)を第1の方向に表示デバイスのディスプレイを横切って、境界部の少なくとも一部分がディスプレイから外れて平行移動され(表示デバイスの第1の縁部から平行移動され)、表示されることを停止されるまで、平行移動させる(例えば、動く、摺動する、遷移する)。第1のジェスチャの第2の部分を検出したことに応じて、境界部を第1の方向に表示デバイスのディスプレイを横切って、境界部の少なくとも一部分がディスプレイから外れて平行移動され、表示されることを停止されるまで、平行移動させることにより、第1のジェスチャが(例えば、完全に)検出されたという視覚的フィードバックをユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the first gesture is of a first type, and detecting the first gesture includes detecting a first portion of the first gesture (e.g., an initial portion, contact followed by a first amount of movement) and a second portion of the first gesture (subsequent portion, continuation of the contact movement). In some embodiments, in response to detecting the first portion of the first gesture, the electronic device (e.g., 600) displays, via the display device, a boundary (e.g., 608) including one or more separate boundary elements (e.g., a single continuous boundary or a boundary consisting of separate elements at each corner) that surrounds (e.g., encircles, is within) at least a portion of a representation of the field of view of the one or more cameras (e.g., a boundary (e.g., a frame) displayed around the representation (e.g., camera preview) of the field of view of the one or more cameras). In response to detecting a first portion of the first gesture, a boundary including one or more distinct boundary elements that surround at least a portion of the representation of the field of view of the one or more cameras is displayed to provide visual feedback to the user that the first portion of the first gesture has been detected. Providing improved feedback may improve usability of the device, provide a more efficient user-device interface (e.g., by assisting the user in providing appropriate inputs and reducing user errors when manipulating/interacting with the device), which may further reduce power usage and improve battery life of the device by allowing the user to use the device more quickly and efficiently. In some embodiments, in response to detecting a second portion of the first gesture, the electronic device (e.g., 600) translates (e.g., moves, slides, transitions) the boundary (e.g., 608 of FIG. 8F) in a first direction across a display of the display device until at least a portion of the boundary is translated off the display (translated from a first edge of the display device) and ceases to be displayed. In response to detecting a second portion of the first gesture, the boundary is translated in a first direction across a display of the display device until at least a portion of the boundary is translated off the display and ceases to be displayed, thereby providing visual feedback to the user that the first gesture has been detected (e.g., completely). Providing improved feedback improves usability of the device and provides a more efficient user-device interface (e.g., by assisting the user in providing appropriate inputs and reducing user errors when operating/interacting with the device), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のジェスチャの第2の部分を検出することは、第1の方向に動く第2の接触を検出することを含む。 In some embodiments, detecting a second portion of the first gesture includes detecting a second contact that moves in the first direction.

いくつかの実施形態では、第2の接触は、1つ以上のカメラの視野の表現上(例えば、表現の一部分上)で検出される。いくつかの実施形態では、境界部を平行移動が行われる速度は、第1の方向の第2の接触の移動速度に比例する(例えば、接触が動くと境界部も動く)。境界部を平行移動させるが行われる速度が第1の方向の第2の接触の移動速度に比例することにより、境界部の平行移動の速度が第2の接触の平行移動速度に対応するという視覚的フィードバックをユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the second contact is detected on a representation (e.g., on a portion of the representation) of the field of view of one or more cameras. In some embodiments, the rate at which the boundary is translated is proportional to the rate at which the second contact is moved in the first direction (e.g., the boundary moves as the contact moves). The rate at which the boundary is translated is proportional to the rate at which the second contact is moved in the first direction, thereby providing visual feedback to the user that the rate at which the boundary is translated corresponds to the rate at which the second contact is translated. Providing improved feedback improves usability of the device, provides a more efficient user-device interface (e.g., by helping the user provide appropriate inputs and reducing user errors when operating/interacting with the device), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、境界部を平行移動させることは、境界部によって囲まれた1つ以上のカメラの視野の表現(例えば、630)の少なくとも一部分の視覚外観(例えば、図8Gのように薄暗い)を変更することを含む。いくつかの実施形態では、電子デバイス(例えば、600)は、表示デバイス全体の輝度レベルを低下させる。 In some embodiments, translating the boundary includes changing the visual appearance (e.g., dimming as in FIG. 8G) of at least a portion of the representation (e.g., 630) of the field of view of one or more cameras that is enclosed by the boundary. In some embodiments, the electronic device (e.g., 600) reduces the brightness level of the entire display device.

第1のジェスチャを検出したことに応じて、電子デバイス(例えば、600)は、カメラコントロール領域(例えば、606)の外観を修正し(930)、この修正することは、第1のジェスチャが第1のタイプとは異なる第2のタイプのジェスチャ(例えば、カメラモードアフォーダンスのうちの1つ以外のカメラコントロール領域内のアフォーダンスの選択)(例えば、第1の位置以外の位置でのジェスチャ(例えば、カメラの視野の表現上での上スワイプ))であるとの判定に従って、複数のカメラモードアフォーダンス(例えば、620)(例えば、選択可能ユーザインタフェースオブジェクト)を表示することを停止し、かつ第1の位置で複数のカメラ設定(例えば、626、カメラ動作を制御する)アフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、選択されたカメラモードのカメラ設定(例えば、フラッシュ、タイマー、フィルタ効果、f値、アスペクト比、ライブフォトなど)を選択又は変更するアフォーダンス)を表示すること(934)を含む。いくつかの実施形態では、カメラ設定アフォーダンスは、現在選択されているカメラモードの画像キャプチャを調整する(例えば、カメラモードアフォーダンスをカメラ設定アフォーダンスに置き換える)設定(例えば、画像キャプチャの動作を調整するコントロール)である。 In response to detecting the first gesture, the electronic device (e.g., 600) modifies (930) the appearance of the camera control area (e.g., 606), which includes ceasing to display a plurality of camera mode affordances (e.g., 620) (e.g., selectable user interface objects) in accordance with a determination that the first gesture is a gesture of a second type (e.g., selection of an affordance in the camera control area other than one of the camera mode affordances) different from the first type (e.g., a gesture at a position other than the first position (e.g., swiping up on a representation of the camera field of view)), and displaying (934) a plurality of camera setting (e.g., 626, controlling camera operation) affordances (e.g., selectable user interface objects) at the first position (e.g., affordances to select or change camera settings for the selected camera mode (e.g., flash, timer, filter effects, f-stop, aspect ratio, live photo, etc.). In some embodiments, the camera settings affordance is a setting (e.g., a control that adjusts the behavior of image capture) that adjusts image capture for the currently selected camera mode (e.g., replacing the camera mode affordance with the camera settings affordance).

いくつかの実施形態では、第2のタイプのジェスチャは、カメラディスプレイ領域内の接触の移動(例えば、表示デバイス上のスワイプ)である。 In some embodiments, the second type of gesture is a movement of a contact within the camera display area (e.g., a swipe on a display device).

いくつかの実施形態では、カメラコントロール領域(例えば、606)は、複数のカメラ設定アフォーダンスを表示するアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)を更に含み、第2のタイプのジェスチャは、複数のカメラ設定アフォーダンスを表示するアフォーダンスの選択(例えば、タップ)である。いくつかの実施形態では、1つ以上のカメラ設定を表示するアフォーダンスを表示している間に、かつ1つ以上のカメラモードアフォーダンス、1つ以上のカメラ設定アフォーダンス、1つ以上のカメラ設定アフォーダンスに対応する1つ以上のオプションを表示している間に、電子デバイス(例えば、600)は、1つ以上のカメラ設定を表示するアフォーダンスの選択を受信する。いくつかの実施形態では、要求を受信したことに応じて、電子デバイス(例えば、600)は、1つ以上のカメラモードアフォーダンス(例えば、620)又は1つ以上のカメラ設定アフォーダンスを表示することを停止する。 In some embodiments, the camera control area (e.g., 606) further includes an affordance (e.g., a selectable user interface object) that displays a plurality of camera setting affordances, and the second type of gesture is a selection (e.g., a tap) of the affordance that displays the plurality of camera setting affordances. In some embodiments, while displaying the affordance that displays the one or more camera settings and while displaying one or more camera mode affordances, one or more camera setting affordances, or one or more options corresponding to the one or more camera setting affordances, the electronic device (e.g., 600) receives a selection of the affordance that displays the one or more camera settings. In some embodiments, in response to receiving the request, the electronic device (e.g., 600) stops displaying the one or more camera mode affordances (e.g., 620) or the one or more camera setting affordances.

いくつかの実施形態では、カメラユーザインタフェースを表示することは、キャプチャ設定の状態のグラフィカルインジケーション(例えば、フラッシュ状態インジケータ)を含むアフォーダンス(例えば、602a)(例えば、選択可能ユーザインタフェースオブジェクト)を表示することを更に含む。キャプチャ設定の状態のグラフィカルインジケーションを含むアフォーダンスを表示することにより、ユーザが、キャプチャ設定の状態を迅速かつ容易に認識することを可能にする。改善されたフィードバックを提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。いくつかの実施形態では、第2のタイプのジェスチャは、インジケーションの選択に対応する。 In some embodiments, displaying the camera user interface further includes displaying an affordance (e.g., 602a) (e.g., a selectable user interface object) that includes a graphical indication of the state of the capture settings (e.g., a flash state indicator). Displaying the affordance that includes the graphical indication of the state of the capture settings allows the user to quickly and easily recognize the state of the capture settings. Providing improved feedback increases usability of the device and makes the user-device interface more efficient (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), which further reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently. In some embodiments, the second type of gesture corresponds to selecting the indication.

いくつかの実施形態では、電子デバイス(例えば、600)は、以前にキャプチャされたメディアの第1の表現を表示する要求に対応する、カメラユーザインタフェース上の第2のジェスチャ(例えば、624、以前にキャプチャされた)(例えば、スワイプ(例えば、ディスプレイスクリーンの縁部からのスワイプ))を検出する。いくつかの実施形態では、第2のジェスチャを検出したことに応じて、電子デバイス(例えば、600)は、以前にキャプチャされたメディアの第1の表現(例えば、624)(例えば、互いの上に積み重ねられて表示されるメディアの1つ以上の表現)を表示する。第2のジェスチャを検出したことに応じて、以前にキャプチャされたメディアの第1の表現を表示することにより、ユーザが、以前にキャプチャされたメディアの第1の表現を迅速かつ容易に閲覧することを可能にする。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、第1の表現は、カメラコントロール領域(例えば、606)内に表示される。 In some embodiments, the electronic device (e.g., 600) detects a second gesture (e.g., 624, previously captured) on the camera user interface (e.g., a swipe (e.g., a swipe from an edge of a display screen)) corresponding to a request to display a first representation of the previously captured media. In some embodiments, in response to detecting the second gesture, the electronic device (e.g., 600) displays the first representation of the previously captured media (e.g., 624) (e.g., one or more representations of the media displayed stacked on top of each other). Displaying the first representation of the previously captured media in response to detecting the second gesture allows a user to quickly and easily view the first representation of the previously captured media. Providing additional control options without cluttering the UI with additional controls displayed enhances usability of the device and makes the user-device interface more efficient (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), as well as reducing power usage and improving battery life of the device by allowing the user to use the device more quickly and efficiently. In some embodiments, the first representation is displayed within a camera control area (e.g., 606).

いくつかの実施形態では、第1の位置に複数のカメラ設定アフォーダンスを表示することは、第2のタイプのジェスチャが検出されていた間に、メディアを第1のカメラモード(例えば、ポートレートモード)でキャプチャするように電子デバイス(例えば、600)が構成されているとの判定に従って、第1の位置に第1の1組のカメラ設定アフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、照明効果アフォーダンス)を表示することを含む。第2のタイプのジェスチャが検出されていた間に、メディアを第1のカメラモードでキャプチャするように電子デバイスが構成されているとの判定に従って、第1の位置に第1の1組のカメラ設定アフォーダンスを表示することにより、ユーザに、第1の1組のカメラ設定アフォーダンスへの迅速かつ便利なアクセスを提供する。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、第1の位置に複数のカメラ設定アフォーダンス(例えば、626)を表示することは、第2のタイプのジェスチャが検出されていた間に、メディアを第1のカメラモードとは異なる第2のカメラモード(例えば、ビデオモード)でキャプチャするように電子デバイス(例えば、600)が構成されているとの判定に従って、第1の位置に第1の複数のカメラ設定とは異なる第2の1組のカメラ設定アフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、ビデオ効果アフォーダンス)を表示することを含む。 In some embodiments, displaying the plurality of camera setting affordances at the first location includes displaying a first set of camera setting affordances (e.g., selectable user interface objects) (e.g., lighting effects affordances) at the first location pursuant to a determination that the electronic device (e.g., 600) is configured to capture media in a first camera mode (e.g., portrait mode) while the second type of gesture was detected. Displaying the first set of camera setting affordances at the first location pursuant to a determination that the electronic device is configured to capture media in the first camera mode while the second type of gesture was detected provides the user with quick and convenient access to the first set of camera setting affordances. Providing additional control options without cluttering the UI with additional controls displayed enhances usability of the device and makes the user-device interface more efficient (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), as well as reducing device power usage and improving battery life by allowing the user to use the device more quickly and efficiently. In some embodiments, displaying a plurality of camera setting affordances (e.g., 626) at the first location includes displaying a second set of camera setting affordances (e.g., selectable user interface objects) (e.g., video effect affordances) at the first location that are different from the first plurality of camera settings pursuant to a determination that the electronic device (e.g., 600) is configured to capture media in a second camera mode (e.g., a video mode) that is different from the first camera mode while the second type gesture was detected.

いくつかの実施形態では、第1の1組のカメラ設定アフォーダンスは、第1のカメラ設定アフォーダンス(例えば、626a)を含み、第2の1組のカメラ設定アフォーダンスは、第1のカメラ設定アフォーダンス(例えば、626a、ポートレートモード及びビデオモードの両方に含まれるフラッシュアフォーダンス)を含む。 In some embodiments, the first set of camera setting affordances includes a first camera setting affordance (e.g., 626a) and the second set of camera setting affordances includes a first camera setting affordance (e.g., 626a, a flash affordance included in both portrait mode and video mode).

いくつかの実施形態では、第1のカメラモードは、静止写真キャプチャモードであり、第1の1組のカメラ設定アフォーダンスは、フラッシュ設定に対応するインジケーション(例えば、視覚インジケーション)を含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)と、ライブ設定(例えば、オンのとき、動画(例えば、ファイル拡張子がGIFの画像)を作成する設定)に対応するインジケーションを含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)と、からなる群から選択される1つ以上のアフォーダンスを含む。いくつかの実施形態では、電子デバイスは、ライブ設定に対応するインジケーションを含むアフォーダンスの選択を受信する。いくつかの実施形態では、インジケーションの選択を受信したことに応じて、電子デバイスは、ライブ設定)、アスペクト比設定に対応するインジケーションを含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)をオン/オフする。いくつかの実施形態では、電子デバイスは、アスペクト比設定に対応するインジケーションを含むアフォーダンスの選択を受信し、いくつかの実施形態では、インジケーションの選択を受信したことに応じて、電子デバイスは、アスペクト比設定をオン/オフし、かつ/又は調整可能なコントロールを表示して、表示デバイス上に表示された表現(例えば、画像、ビデオ)のアスペクト比)、タイマー設定に対応するインジケーションを含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)を調整する。いくつかの実施形態では、電子デバイスは、タイマー設定に対応するインジケーションを含むアフォーダンスの選択を受信し、いくつかの実施形態では、インジケーションの選択を受信したことに応じて、電子デバイスは、タイマー設定をオン/オフし、かつ/又は調整可能なコントロールを表示して、キャプチャが開始された後、画像がキャプチャされる前の時間)、フィルタ設定に対応するインジケーションを含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)を調整する。いくつかの実施形態では、電子デバイスは、フィルタ設定に対応するインジケーションを含むアフォーダンスの選択を受信し、いくつかの実施形態では、インジケーションの選択を受信したことに応じて、電子デバイスは、フィルタ設定をオン/オフし、かつ/又は調整可能なコントロールを表示して、画像をキャプチャするときに電子デバイスが使用するフィルタを調整する。いくつかの実施形態では、アフォーダンスの選択により、電子デバイス(例えば、600)に、アフォーダンスに対応する設定を設定させるか、又は設定を設定するためのユーザインタフェース(例えば、オプション(例えば、スライダ、アフォーダンス))を表示させる。 In some embodiments, the first camera mode is a still photo capture mode, and the first set of camera setting affordances includes one or more affordances selected from the group consisting of an affordance (e.g., a selectable user interface object) including an indication (e.g., a visual indication) corresponding to a flash setting, and an affordance (e.g., a selectable user interface object) including an indication corresponding to a live setting (e.g., a setting that, when on, creates a moving image (e.g., an image with a GIF file extension). In some embodiments, the electronic device receives a selection of an affordance including an indication corresponding to the live setting. In some embodiments, in response to receiving the selection of the indication, the electronic device turns on/off an affordance (e.g., a selectable user interface object) including an indication corresponding to the live setting, aspect ratio setting. In some embodiments, the electronic device receives a selection of an affordance including an indication corresponding to an aspect ratio setting, and in some embodiments, in response to receiving the selection of the indication, the electronic device turns the aspect ratio setting on/off and/or displays an adjustable control to adjust an affordance (e.g., a selectable user interface object) including an indication corresponding to a timer setting) of an aspect ratio of a representation (e.g., image, video) displayed on the display device. In some embodiments, the electronic device receives a selection of an affordance including an indication corresponding to a timer setting, and in some embodiments, in response to receiving the selection of the indication, the electronic device turns the timer setting on/off and/or displays an adjustable control to adjust an affordance (e.g., a selectable user interface object) including an indication corresponding to a filter setting) of a time after capture is initiated and before the image is captured. In some embodiments, the electronic device receives a selection of an affordance including an indication corresponding to a filter setting, and in some embodiments, in response to receiving the selection of the indication, the electronic device turns the filter setting on/off and/or displays an adjustable control to adjust a filter used by the electronic device when capturing an image. In some embodiments, selection of an affordance causes the electronic device (e.g., 600) to set a setting corresponding to the affordance or to display a user interface (e.g., options (e.g., sliders, affordances)) for setting the setting.

いくつかの実施形態では、第1のカメラモードは、ポートレートモードであり、第1の1組のカメラ設定アフォーダンス(例えば、626)は、深度コントロール設定に対応するインジケーションを含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(いくつかの実施形態では、電子デバイスは、深度コントロール設定に対応するインジケーションを含むアフォーダンスの選択を受信する;いくつかの実施形態では、インジケーションの選択を受信したことに応じて、電子デバイスは、深度コントロール設定をオン/オフする、及び/又は調整可能なコントロールを表示して、被写界深度を調整して、デバイスの背景をぼかす)と、フラッシュ設定に対応する視覚インジケーションを含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(いくつかの実施形態では、電子デバイスは、フラッシュ設定に対応するインジケーションを含むアフォーダンスの選択を受信する;いくつかの実施形態では、インジケーションの選択を受信したことに応じて、電子デバイスは、選択可能ユーザインタフェース要素を表示して、電子デバイスのフラッシュ設定を構成する(例えば、フラッシュ設定を自動、オン、オフに設定する))と、タイマー設定に対応する視覚インジケーションを含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(いくつかの実施形態では、電子デバイスは、タイマー設定に対応するインジケーションを含むアフォーダンスの選択を受信する;いくつかの実施形態では、インジケーションの選択を受信したことに応じて、電子デバイスは、タイマー設定をオン/オフする、及び/又は調整可能なコントロールを表示して、キャプチャが開始された後、画像がキャプチャされる前の時間を調整する)と、フィルタ設定に対応する視覚インジケーションを含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(いくつかの実施形態では、電子デバイスは、フィルタ設定に対応するインジケーションを含むアフォーダンスの選択を受信する;いくつかの実施形態では、インジケーションの選択を受信したことに応じて、電子デバイスは、フィルタ設定をオン/オフする、及び/又は調整可能なコントロールを表示して、画像をキャプチャするときに電子デバイスが使用するフィルタを調整する)と、照明設定に対応するインジケーションを含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(いくつかの実施形態では、電子デバイスは、照明設定に対応するインジケーションを含むアフォーダンスの選択を受信する;いくつかの実施形態では、インジケーションの選択を受信したことに応じて、電子デバイスは、照明設定をオン/オフする、及び/又は調整可能なコントロールを表示して、画像をキャプチャするときに電子デバイスが使用する特定の光設定(例えば、スタジオ光設定、舞台照明設定)を調整する(例えば、光量を増加/減少させる))と、からなる群から選択される1つ以上のアフォーダンスを含む。いくつかの実施形態では、アフォーダンスの選択により、電子デバイス(例えば、600)に、アフォーダンスに対応する設定を設定させるか、又は設定を設定するためのユーザインタフェース(例えば、オプション(例えば、スライダ、アフォーダンス))を表示させる。 In some embodiments, the first camera mode is a portrait mode, and the first set of camera setting affordances (e.g., 626) include an affordance (e.g., a selectable user interface object) that includes an indication corresponding to a depth control setting (in some embodiments, the electronic device receives a selection of an affordance that includes an indication corresponding to a depth control setting; in some embodiments, in response to receiving the selection of the indication, the electronic device turns the depth control setting on/off and/or displays an adjustable control to adjust the depth of field and blur the background of the device), an affordance (e.g., a selectable user interface object) that includes a visual indication corresponding to a flash setting (in some embodiments, the electronic device receives a selection of an affordance that includes an indication corresponding to a flash setting; in some embodiments, in response to receiving the selection of the indication, the electronic device displays a selectable user interface element to configure a flash setting of the electronic device (e.g., set the flash setting to automatic, on, off)), and an affordance (e.g., a selectable user interface object) that includes a visual indication corresponding to a timer setting (in some embodiments, the electronic device receives a selection of an affordance that includes an indication corresponding to a timer setting). in some embodiments, in response to receiving a selection of the indication, the electronic device turns a timer setting on/off and/or displays an adjustable control to adjust the amount of time before the image is captured after capture is initiated); an affordance (e.g., a selectable user interface object) including a visual indication corresponding to a filter setting (in some embodiments, the electronic device receives a selection of an affordance including an indication corresponding to a filter setting; in some embodiments, in response to receiving a selection of the indication, the electronic device turns a filter setting on/off and/or displays an adjustable control to adjust a filter that the electronic device uses when capturing the image); and an affordance (e.g., a selectable user interface object) including an indication corresponding to a lighting setting (in some embodiments, the electronic device receives a selection of an affordance including an indication corresponding to a lighting setting; in some embodiments, in response to receiving a selection of the indication, the electronic device turns a lighting setting on/off and/or displays an adjustable control to adjust (e.g., increase/decrease the amount of light) a particular light setting (e.g., studio light setting, stage light setting) that the electronic device uses when capturing the image). In some embodiments, selection of an affordance causes the electronic device (e.g., 600) to set a setting corresponding to the affordance or to display a user interface (e.g., options (e.g., sliders, affordances)) for setting the setting.

いくつかの実施形態では、以前にキャプチャされたメディアの表現(例えば、任意の表現)を表示していない間に、電子デバイス(例えば、600)は、1つ以上のカメラを使用して第1のメディアのキャプチャ(例えば、写真又はビデオのキャプチャ)を検出する(936)。いくつかの実施形態では、キャプチャは、カメラアクティブ化アフォーダンス又はメディアキャプチャリングアフォーダンス(例えば、シャッターボタン)上のタップに応じて行われる。いくつかの実施形態では、第1のメディアのキャプチャを検出したことに応じて、電子デバイス(例えば、600)は、第1のメディアの表現を含む、キャプチャされたメディアの1つ以上の表現(例えば、6)を表示する(938)。いくつかの実施形態では、1つ以上のカメラの視野の表現に対応するメディアの表現は、以前にキャプチャされたメディアの複数の表現の上に表示される。以前にキャプチャされたメディアの複数の表現の上に1つ以上のカメラの視野の表現に対応するメディアの表現を表示することにより、ユーザが、1つ以上のカメラの視野の表現に対応するメディアの表現を閲覧している間に、以前にキャプチャされたメディアを少なくとも部分的に閲覧及び/又は認識することを可能にする。改善されたフィードバックを提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。いくつかの実施形態では、以前にキャプチャされたメディアの複数の表現は、互いの上に積み重ねられた複数の表現として表示される。 In some embodiments, while not displaying a representation (e.g., any representation) of previously captured media, the electronic device (e.g., 600) detects a capture (e.g., capture of a photo or video) of a first media using one or more cameras (936). In some embodiments, the capture occurs in response to a tap on a camera activation affordance or a media capturing affordance (e.g., a shutter button). In some embodiments, in response to detecting the capture of the first media, the electronic device (e.g., 600) displays one or more representations (e.g., 6) of the captured media including the representation of the first media (938). In some embodiments, a representation of the media corresponding to the representation of the field of view of the one or more cameras is displayed over a plurality of representations of previously captured media. Displaying a representation of the media corresponding to the representation of the field of view of the one or more cameras over a plurality of representations of previously captured media allows a user to at least partially view and/or appreciate the previously captured media while viewing a representation of the media corresponding to the representation of the field of view of the one or more cameras. Providing improved feedback increases usability of the device and makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs and reducing user errors when operating/interacting with the device), which in turn reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently. In some embodiments, multiple representations of previously captured media are displayed as multiple representations stacked on top of each other.

いくつかの実施形態では、表示されると、第1のアスペクト比で表示されるメディアをキャプチャするように電子デバイス(例えば、600)が構成されている間に、電子デバイスは、メディアをキャプチャする第3の要求を受信する(940)。いくつかの実施形態では、メディアをキャプチャする第3の要求を受信したことに応じて、電子デバイス(例えば、600)は、第1のアスペクト比を有するキャプチャされたメディアの表現を表示する(942)。いくつかの実施形態では、電子デバイス(例えば、600)は、第1のアスペクト比を有するキャプチャされたメディアの表現を、第2のアスペクト比を有するキャプチャされたメディアの表現に変更する要求を受信する(944)。いくつかの実施形態では、要求を受信したことに応じて、電子デバイス(例えば、600)は、第2のアスペクト比を有するキャプチャされたメディアの表現を表示する(946)。いくつかの実施形態では、スペクト比を調整することは、非破壊的である(例えば、写真を変更した後に、キャプチャされたメディアのアスペクト比を変更することができる(増加させる又は減少させる))。 In some embodiments, while the electronic device (e.g., 600) is configured to capture media that, when displayed, is displayed in a first aspect ratio, the electronic device receives a third request to capture media (940). In some embodiments, in response to receiving the third request to capture media, the electronic device (e.g., 600) displays a representation of the captured media having the first aspect ratio (942). In some embodiments, the electronic device (e.g., 600) receives a request to change the representation of the captured media having the first aspect ratio to a representation of the captured media having a second aspect ratio (944). In some embodiments, in response to receiving the request, the electronic device (e.g., 600) displays a representation of the captured media having the second aspect ratio (946). In some embodiments, adjusting the aspect ratio is non-destructive (e.g., the aspect ratio of the captured media can be changed (increased or decreased) after the picture is altered).

いくつかの実施形態では、第2のアスペクト比を有するキャプチャされたメディアの表現は、第1のアスペクト比を有するキャプチャされたメディアの表現内に存在しない視覚コンテンツ(例えば、画像コンテンツ、第1のアスペクト比での表現に含まれなかった、キャプチャの時点で1つ以上のカメラの視野内の追加の画像コンテンツ)を含む。 In some embodiments, the representation of the captured media having the second aspect ratio includes visual content (e.g., image content, additional image content within the field of view of one or more cameras at the time of capture that was not included in the representation in the first aspect ratio) that is not present in the representation of the captured media having the first aspect ratio.

いくつかの実施形態では、第3のカメラモード(例えば、ポートレートモード)でメディアをキャプチャするように電子デバイス(例えば、600)が構成されている間に、電子デバイス(例えば、600)は、メディアをキャプチャする第2の要求を検出する。いくつかの実施形態では、メディアをキャプチャする第2の要求を受信したことに応じて、電子デバイス(例えば、600)は、第3のカメラモードに対応する設定及び複数のカメラ設定アフォーダンス(例えば、626)のアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、照明効果アフォーダンス)に対応する少なくとも1つの設定に基づいて、1つ以上のカメラを使用してメディアをキャプチャする。第3のカメラモードでメディアをキャプチャするように電子デバイスが構成されている間に、要求を受信したことに応じて、第3のカメラモードに対応する設定及びアフォーダンスに対応する少なくとも1つの設定に基づいて、1つ以上のカメラを使用してメディアをキャプチャすることにより、ユーザに、キャプチャされたメディアに適用されたカメラモードのより容易な制御を提供する。更なるユーザ入力を必要とせずに1組の条件が満たされたときに動作を実行することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the electronic device (e.g., 600) detects a second request to capture media while the electronic device (e.g., 600) is configured to capture media in a third camera mode (e.g., portrait mode). In some embodiments, in response to receiving the second request to capture media, the electronic device (e.g., 600) captures media using one or more cameras based on at least one setting corresponding to a setting corresponding to the third camera mode and an affordance (e.g., selectable user interface object) (e.g., lighting effects affordance) of the plurality of camera setting affordances (e.g., 626). In response to receiving the request while the electronic device is configured to capture media in the third camera mode, capturing media using one or more cameras based on at least one setting corresponding to a setting and an affordance corresponding to the third camera mode provides the user with easier control of the camera mode applied to the captured media. Executing an action when a set of conditions is met without requiring further user input enhances the usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

方法900に関して上述された処理(例えば、図9A~図9C)の詳細はまた、上記及び以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、1100、1300、1500、1700、1900、2000、2100、2300、2500、2700、2800、3000、3200、3400、3600、3800、4000、及び4200は、方法900を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。 It should be noted that the details of the processes described above with respect to method 900 (e.g., FIGS. 9A-9C) are also applicable in a similar manner to the methods described above and below. For example, methods 700, 1100, 1300, 1500, 1700, 1900, 2000, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3400, 3600, 3800, 4000, and 4200 optionally include one or more of the characteristics of the various methods described above with reference to method 900. For the sake of brevity, these details will not be repeated below.

図10A~図10Kは、いくつかの実施形態による、電子デバイスを使用してカメラ視野を表示するための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図11A~図11Cにおける処理を含む、以下で説明する処理を例示するために使用される。 10A-10K show example user interfaces for displaying a camera view using an electronic device, according to some embodiments. The user interfaces in these figures are used to illustrate the processes described below, including the processes in FIGS. 11A-11C.

図10Aは、ディスプレイの上部からディスプレイの底部まで任意選択的に延びるライブプレビュー630を表示する電子デバイス600を示す。ライブプレビュー630は、1つ以上のカメラセンサによって検出された画像に基づく。いくつかの実施形態では、デバイス600は、複数のカメラセンサを使用して画像をキャプチャし、それらを組み合わせてライブプレビュー630を表示する。いくつかの実施形態では、デバイス600は、単一のカメラセンサを使用して画像をキャプチャして、ライブプレビュー630を表示する。図10Aのカメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含み、これらは、インジケータ及びコントロールがライブプレビューと同時に表示され得るように、ライブプレビュー630上に重ね合わされる。カメラディスプレイ領域604は、インジケータ又はコントロールと実質的に重ね合わされない。この実施例では、ライブプレビュー630は、周囲環境とともに水ビュー1040を含む。水ビュー1040は、ユーザがデバイス600をどのように配向しているかの理由から、デバイス600からの角度だけオフセットして表示される水平線1040aを含む。理解を向上させるために、図10A~図10Kのいくつかは、対応する図の水平線に対するデバイス600の向きに関する詳細を提供するグラフ的な説明図1060を含む。図10Aのカメラユーザインタフェースは、インジケータ領域602とカメラディスプレイ領域604との境界部及びカメラディスプレイ領域604とコントロール領域606との境界部を示す視覚境界部608を含む。 FIG. 10A shows an electronic device 600 displaying a live preview 630 that optionally extends from the top of the display to the bottom of the display. The live preview 630 is based on images detected by one or more camera sensors. In some embodiments, the device 600 captures images using multiple camera sensors and combines them to display the live preview 630. In some embodiments, the device 600 captures images using a single camera sensor to display the live preview 630. The camera user interface of FIG. 10A includes an indicator area 602 and a control area 606 that are overlaid on the live preview 630 such that the indicators and controls may be displayed simultaneously with the live preview. The camera display area 604 is not substantially overlaid with the indicators or controls. In this example, the live preview 630 includes a water view 1040 along with the surrounding environment. The water view 1040 includes a horizon line 1040a that is displayed offset by an angle from the device 600 because of how the user is orienting the device 600. To improve understanding, some of Figures 10A-10K include graphical illustrations 1060 that provide details regarding the orientation of device 600 relative to the horizon of the corresponding figure. The camera user interface of Figure 10A includes visual boundaries 608 that indicate the boundaries between indicator region 602 and camera display region 604 and between camera display region 604 and control region 606.

図10Aに示すように、インジケータ領域602は、ライブプレビュー630上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。インジケータ領域602は、アニメーション化された画像状態インジケータ602dを含み、これは、(例えば、シャッターアフォーダンス610のアクティブ化を検出したことに応じて、)単一の画像又は複数の画像をキャプチャするようにカメラが構成されているかどうかを示す。 10A, indicator area 602 is superimposed on live preview 630 and optionally includes a colored (e.g., gray, semi-transparent) overlay. Indicator area 602 includes an animated image status indicator 602d that indicates whether the camera is configured to capture a single image or multiple images (e.g., in response to detecting activation of shutter affordance 610).

図10Aに示すように、カメラディスプレイ領域604は、ライブプレビュー630及びズームアフォーダンス622を含む。図10Aに示すように、コントロール領域606は、ライブプレビュー630上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。 As shown in FIG. 10A, the camera display area 604 includes a live preview 630 and a zoom affordance 622. As shown in FIG. 10A, the control area 606 is superimposed on the live preview 630 and optionally includes a colored (e.g., gray, semi-transparent) overlay.

図10Aに示すように、コントロール領域606は、カメラモードアフォーダンス620、追加のコントロールアフォーダンス614、シャッターアフォーダンス610、及びカメラスイッチャアフォーダンス612を含む。カメラモードアフォーダンス620は、どのカメラモードが現在選択されているかを示し、ユーザがカメラモードを変更することを可能にする。図10Aにおいて、カメラモード620a~620eが表示され、「Photo」カメラモード620cは、カメラが動作している現在のモードとして太字のテキストで示される。追加のコントロールアフォーダンス614は、ユーザが追加のカメラコントロールにアクセスすることを可能にする。シャッターアフォーダンス610は、アクティブ化されると、デバイス600に、ライブプレビュー630の現在の状態に基づいて、メディア(例えば、写真)をキャプチャさせる。キャプチャされたメディアは、電子デバイスにローカルに記憶されるか、及び/又は記憶のためにリモートサーバに送信される。カメラスイッチャアフォーダンス612は、アクティブ化されると、デバイスに、背面カメラセンサと前面カメラセンサとの間を切り替えることなどによって、ライブプレビュー630内の異なるカメラの視野を示すように切り替えさせる。 As shown in FIG. 10A, the control area 606 includes a camera mode affordance 620, additional control affordances 614, a shutter affordance 610, and a camera switcher affordance 612. The camera mode affordance 620 indicates which camera mode is currently selected and allows the user to change the camera mode. In FIG. 10A, camera modes 620a-620e are displayed, with the "Photo" camera mode 620c indicated in bold text as the current mode in which the camera is operating. The additional control affordances 614 allow the user to access additional camera controls. The shutter affordance 610, when activated, causes the device 600 to capture media (e.g., a photo) based on the current state of the live preview 630. The captured media is stored locally on the electronic device and/or transmitted to a remote server for storage. The camera switcher affordance 612, when activated, causes the device to switch to show a different camera's field of view in the live preview 630, such as by switching between a rear camera sensor and a front camera sensor.

図10Aでは、デバイス600は、タッチ感知面を使用して、ビデオカメラモードアフォーダンス620bに対応する位置でのタップジェスチャ1050aを検出する。タップジェスチャ1050aを検出したことに応じて、デバイス600は、図10Bのユーザインタフェースを表示する。あるいは、図10Aでは、デバイス600は、タッチ感知面を使用して、カメラディスプレイ領域604内のライブプレビュー630に対応する位置での右スワイプジェスチャ1050bを検出する。右スワイプジェスチャ1050bを検出したことに応じて、デバイス600は、図10Bのユーザインタフェースを同様に表示する。図10Aと図10Bとの間の遷移は、図8E~図8Hに関して上で更に詳細に説明される。 In FIG. 10A, device 600 uses the touch-sensitive surface to detect a tap gesture 1050a at a location corresponding to video camera mode affordance 620b. In response to detecting tap gesture 1050a, device 600 displays the user interface of FIG. 10B. Alternatively, in FIG. 10A, device 600 uses the touch-sensitive surface to detect a right swipe gesture 1050b at a location corresponding to live preview 630 in camera display area 604. In response to detecting right swipe gesture 1050b, device 600 similarly displays the user interface of FIG. 10B. The transition between FIG. 10A and FIG. 10B is described in further detail above with respect to FIG. 8E-8H.

図10Bに示すように、タップジェスチャ1050a又は右スワイプジェスチャ1050bを検出したことに応じて、デバイス600は、写真カメラモードからビデオカメラモードに遷移した。デバイス600は、インジケータ領域602内の訂正された1組のインジケータ、(任意選択的に)更新されたライブプレビュー630、及び更新されたカメラモードアフォーダンス620を表示する。 10B, in response to detecting a tap gesture 1050a or a right swipe gesture 1050b, the device 600 transitions from the photo camera mode to the video camera mode. The device 600 displays a corrected set of indicators in the indicator area 602, an (optionally) updated live preview 630, and an updated camera mode affordance 620.

インジケータ領域602内の訂正された1組のインジケータは、以前に表示されたアニメーション化された画像状態インジケータ602dを表示することなく(例えば、新たに選択されたモードは、ライブアニメーション化された画像状態インジケータ602dに対応する機能と不適合であるため)、新たに表示されたビデオ品質インジケータ602h(例えば、新たに選択されたモード(ビデオ(記録)モード)は、ビデオ品質インジケータ602hに対応する機能と互換性があるため)及び新たに表示された記録時間インジケータ602iを含む。ビデオ品質インジケータ602hは、ビデオが記録されるビデオ品質(例えば、解像度)のインジケーションを提供する(例えば、シャッターアフォーダンス610がアクティブ化されたとき)。図10Bにおいて、ビデオ品質インジケータ602hは、デバイスが4Kビデオ品質記録モードにあり、その結果、記録がアクティブ化されている場合、ビデオが4Kビデオ品質で記録されることを示す。いくつかの実施形態では、記録時間インジケータ602iは、現在の進行中のバイド(vide)の時間量(例えば、秒、分、及び/又は時間)を示す(indicators)。図10Bにおいて、記録時間インジケータ602iは、現在ビデオが記録されていないため、00:00:00を示す。いくつかの実施形態では、カメラモード(写真モード対ビデオモード)の変更により、ライブプレビュー630内のオブジェクトのズームは変化する。いくつかの実施形態では、カメラモード(写真モード対ビデオモード)の変更にかかわらず、ライブプレビュー630内のオブジェクトのズームは変化しない。デバイス600の向き1060は、水平線からオフセットされ続け、その結果、水平線1040aは、デバイス600からの角度だけオフセットして表示され続けることに留意されたい。 The corrected set of indicators in indicator area 602 includes a newly displayed video quality indicator 602h (e.g., because the newly selected mode is incompatible with the functionality corresponding to live animated image status indicator 602d) without displaying the previously displayed animated image status indicator 602d (e.g., because the newly selected mode (video (record) mode) is compatible with the functionality corresponding to video quality indicator 602h) and a newly displayed record time indicator 602i. Video quality indicator 602h provides an indication of the video quality (e.g., resolution) at which the video will be recorded (e.g., when shutter affordance 610 is activated). In FIG. 10B, video quality indicator 602h indicates that the device is in a 4K video quality record mode and thus, if record is activated, the video will be recorded in 4K video quality. In some embodiments, record time indicator 602i indicates the amount of time (e.g., seconds, minutes, and/or hours) of the current ongoing vide. In FIG. 10B, the recording time indicator 602i shows 00:00:00 because no video is currently being recorded. In some embodiments, the zoom of the object in the live preview 630 changes due to a change in camera mode (photo mode vs. video mode). In some embodiments, the zoom of the object in the live preview 630 does not change, regardless of the change in camera mode (photo mode vs. video mode). Note that the orientation 1060 of the device 600 continues to be offset from the horizon, so that the horizon 1040a continues to appear offset by an angle from the device 600.

図10Bでは、デバイスが4Kビデオ品質記録モードにある間に(ビデオ品質インジケータ602hによって示すように)、ライブプレビュー630は、カメラディスプレイ領域604内に表示され続けながら、インジケータ領域602及びコントロール領域606内にもはや表示されないように更新される。いくつかの実施形態では、インジケータ領域602及びコントロール領域606の背景もまた、黒になるように更新される。その結果、ユーザは、インジケータ領域602及びコントロール領域606内のライブプレビュー630をもはや見ることができない。 10B, while the device is in 4K video quality recording mode (as indicated by video quality indicator 602h), the live preview 630 is updated to no longer be displayed in the indicator area 602 and control area 606 while continuing to be displayed in the camera display area 604. In some embodiments, the background of the indicator area 602 and control area 606 is also updated to be black. As a result, the user can no longer see the live preview 630 in the indicator area 602 and control area 606.

図10Bでは、デバイス600は、タッチ感知面を使用して、ビデオ品質インジケータ602hに対応する位置(インジケータ領域602内)でのタップジェスチャ1050cを検出する。 In FIG. 10B, device 600 uses the touch-sensitive surface to detect a tap gesture 1050c at a location (within indicator area 602) that corresponds to video quality indicator 602h.

図10Cに示すように、タップジェスチャ1050cを検出したことに応じて、デバイス600は、調整可能なビデオ品質コントロール1018を表示し、これは、720pビデオ品質アフォーダンス1018a、HDビデオ品質アフォーダンス1018b、及び4Kビデオ品質アフォーダンス1018cを含む(4Kビデオ品質記録モードが現在アクティブであることを示すために太字化された)。図10Cでは、デバイス600は、タッチ感知面を使用して、HDビデオ品質アフォーダンス1018bに対応する位置でのタップジェスチャ1050dを検出する。 As shown in FIG. 10C, in response to detecting tap gesture 1050c, device 600 displays adjustable video quality controls 1018, which include a 720p video quality affordance 1018a, an HD video quality affordance 1018b, and a 4K video quality affordance 1018c (bolded to indicate that the 4K video quality recording mode is currently active). In FIG. 10C, device 600 detects tap gesture 1050d using the touch-sensitive surface at a location corresponding to HD video quality affordance 1018b.

図10Dに示すように、タップジェスチャ1050dを検出したことに応じて、デバイス600は、(アクティブにビデオを記録していない間に)デバイスを4Kビデオ品質記録モードからHDビデオ品質記録モードに遷移させる。デバイス600は、デバイスがHDビデオ品質記録モードにあることを示すためにビデオ品質インジケータ602hを更新する(例えば、「HD」と表示するため)。その結果、HDビデオ品質記録モードに遷移すると、デバイス600は、インジケータ領域602、カメラディスプレイ領域604、及びコントロール領域606内にライブプレビュー630を表示する(図10Aと同様)。これは、視覚コンテンツ(カメラディスプレイ領域604内に表示される視覚コンテンツを超えた、任意選択的にまた、インジケータ領域602及びコントロール領域606内に表示される視覚コンテンツを超えた)が、ビデオ記録の一部として記憶されることをユーザに示す。 10D, in response to detecting tap gesture 1050d, device 600 transitions the device from 4K video quality recording mode to HD video quality recording mode (while not actively recording video). Device 600 updates video quality indicator 602h to indicate that the device is in HD video quality recording mode (e.g., to display "HD"). As a result, upon transitioning to HD video quality recording mode, device 600 displays live preview 630 in indicator area 602, camera display area 604, and control area 606 (similar to FIG. 10A). This indicates to the user that visual content (beyond the visual content displayed in camera display area 604, and optionally beyond the visual content displayed in indicator area 602 and control area 606) will be stored as part of the video recording.

図10Dでは、デバイス600がHDビデオ品質記録モードにあり、デバイス600の向き1060が、水平線からオフセットされ続け、その結果、水平線1040aが、デバイス600からの角度だけオフセットして表示され続けている間、デバイス600は、タッチ感知面を使用して、シャッターアフォーダンス610に対応する位置でのタップジェスチャ1050eを検出する。 In FIG. 10D, while device 600 is in HD video quality recording mode and the orientation 1060 of device 600 continues to be offset from the horizon such that horizon 1040a continues to appear offset by an angle from device 600, device 600 detects tap gesture 1050e using its touch-sensitive surface at a location corresponding to shutter affordance 610.

図10Eに示すように、タップジェスチャ1050eを検出したことに応じて、デバイス600は、HDビデオ品質記録モードでビデオの記録を開始する。図10Eにおいて(図10A~図10Dのように)、ライブプレビュー630のコンテンツは、カメラ(単数又は複数)の視野内のシーンが変化するにつれて更新し続ける。シャッターアフォーダンス610のビジュアル要素は、デバイスがビデオを記録しており、シャッターアフォーダンス610を再アクティブ化することにより、記録が終了することを示すために更新された。記録時間インジケータ602iは、図10Eにおいて進行しており、5秒のビデオがそれまで記録されていることを示した。ビデオ品質インジケータ602hはもはや表示されず、それによって、ユーザにライブプレビュー630のより完全なビューを提供し、任意選択的に、それはビデオ品質記録モードがビデオを録画している間に変更することができないためである。記録中、デバイス600の向き1060は、水平線からオフセットされ続け、その結果、水平線1040aは、デバイス600からの角度だけオフセットして表示され続けることに留意されたい。いくつかの実施形態では、デバイス600の向き1060は、水平線1040aがデバイス600からのオフセット度を変化させて記録されるように、ビデオ記録中に変化する。 As shown in FIG. 10E, in response to detecting tap gesture 1050e, device 600 begins recording video in HD video quality recording mode. In FIG. 10E (as in FIGS. 10A-10D), the content of live preview 630 continues to update as the scene in the field of view of the camera(s) changes. The visual element of shutter affordance 610 has been updated to indicate that the device is recording video, and by reactivating shutter affordance 610, recording ends. Recording time indicator 602i has progressed in FIG. 10E to indicate that 5 seconds of video have been recorded so far. Video quality indicator 602h is no longer displayed, thereby providing the user with a more complete view of live preview 630, and optionally, because video quality recording mode cannot be changed while recording video. Note that during recording, orientation 1060 of device 600 continues to be offset from the horizon, such that horizon 1040a continues to be displayed offset by an angle from device 600. In some embodiments, the orientation 1060 of the device 600 changes during video recording such that the horizon 1040a is recorded with varying degrees of offset from the device 600.

図10Eでは、デバイス600は、タッチ感知面を使用して、シャッターアフォーダンス610に対応する位置でのタップジェスチャ1050gを検出する。タップジェスチャ1050gに応じて、デバイス600は記録を停止する。記録は、後で検索、編集、及び再生するためにデバイス600のメモリに記憶される。記憶された記録は、インジケータ領域602、カメラディスプレイ領域604、及びコントロール領域606内に表示されたライブプレビュー630の視覚コンテンツを含む。更に、記憶された記録はまた、ライブプレビュー630の一部として表示されなかったデバイス600のカメラ(単数又は複数)によってビデオ記録中にキャプチャされた視覚コンテンツも含む。 10E, device 600 uses the touch-sensitive surface to detect a tap gesture 1050g at a location corresponding to shutter affordance 610. In response to tap gesture 1050g, device 600 stops recording. The recording is stored in device 600's memory for later retrieval, editing, and playback. The stored recording includes the visual content of live preview 630 displayed in indicator area 602, camera display area 604, and control area 606. In addition, the stored recording also includes visual content captured during video recording by device 600's camera(s) that was not displayed as part of live preview 630.

ビデオ記録を記録及び記憶することに続いて、デバイス600は、1つ以上のユーザ入力を受信して、ビデオ記録にアクセスする。図10Fに示すように、デバイス600は、再生、編集、削除、及び他のユーザへの送信に利用可能なビデオ記録1032のフレームを表示する。ビデオ記録1032の表示されたフレームは、記録中にカメラディスプレイ領域604内に表示されたライブプレビュー630の視覚コンテンツを含むが、インジケータ領域602及びコントロール領域606内に表示されたライブプレビュー630の視覚コンテンツを含まない。デバイス600は、ビデオ記録1032の表示されたフレーム上に再生アフォーダンス1038を重ねる。再生アフォーダンス1038のアクティブ化(例えば、タップオン)により、再生アフォーダンス1038に、表示を停止させ、ビデオ記録1032を再生させ、これは、記録中にカメラディスプレイ領域604内に表示されたライブプレビュー630の視覚コンテンツの視覚再生を含むが、インジケータ領域602及びコントロール領域606内に表示されたライブプレビュー630の視覚コンテンツを含まない(また、記録中にライブプレビュー630内に表示されなかった記録された視覚コンテンツも含まない)。図10Fのユーザインタフェースはまた、(ビデオ記録を編集するためのプロセスを開始するための)編集アフォーダンス644a及び(ビデオ記録を自動的に編集するための)自動調整アフォーダンス1036bを含む。 Following recording and storing the video recording, the device 600 receives one or more user inputs to access the video recording. As shown in FIG. 10F, the device 600 displays frames of the video recording 1032 available for playback, editing, deletion, and transmission to other users. The displayed frames of the video recording 1032 include the visual content of the live preview 630 displayed in the camera display area 604 during recording, but do not include the visual content of the live preview 630 displayed in the indicator area 602 and the control area 606. The device 600 overlays a playback affordance 1038 over the displayed frames of the video recording 1032. Activation (e.g., tapping on) of the play affordance 1038 causes the play affordance 1038 to stop displaying and play the video recording 1032, including a visual playback of the visual content of the live preview 630 displayed in the camera display area 604 during recording, but not including the visual content of the live preview 630 displayed in the indicator area 602 and the control area 606 (nor including any recorded visual content that was not displayed in the live preview 630 during recording). The user interface of FIG. 10F also includes an edit affordance 644a (for initiating a process for editing the video recording) and an auto-adjust affordance 1036b (for automatically editing the video recording).

図10Fでは、デバイス600は、タッチ感知面を使用して、編集アフォーダンス644aに対応する位置でのタップジェスチャ1050gを検出する。図10Gに示すように、タップジェスチャ1050gを検出したことに応じて、デバイス600は、ビデオ編集オプション1060を表示し、ビデオ編集オプション1060には、(ビデオ記録をクロッピング及び同時に回転させるための)アフォーダンス1060a、(記録の水平線を調整するための)水平線調整アフォーダンス1060b、(ビデオ記録をクロッピングするための)アフォーダンス1060c、及び(ビデオ記録を回転させるための)アフォーダンス1060dが含まれる。いくつかの実施形態では、記録をクロッピングすることは、例えば、図10Fの再生アフォーダンス1038をアクティブ化することによって表示されるライブプレビュー630の一部分を更に除外することにより、再生のための視覚コンテンツを(図10Fと比較して)低減するだけである。 In FIG. 10F, device 600 detects a tap gesture 1050g using the touch-sensitive surface at a location corresponding to edit affordance 644a. As shown in FIG. 10G, in response to detecting tap gesture 1050g, device 600 displays video editing options 1060, which include affordance 1060a (for cropping and simultaneously rotating the video recording), horizon adjustment affordance 1060b (for adjusting the horizon of the recording), affordance 1060c (for cropping the video recording), and affordance 1060d (for rotating the video recording). In some embodiments, cropping the recording only reduces the visual content for playback (compared to FIG. 10F), e.g., by further excluding a portion of live preview 630 displayed by activating playback affordance 1038 of FIG. 10F.

理解を向上させるために、図10Gはまた、ビデオ記録の一部として記録及び記憶されるが、記録中にカメラディスプレイ領域604の一部として表示されなかった視覚コンテンツの表現を含む。デバイス600の外側に示されるこれらの表現は、デバイス600のユーザインタフェースの一部ではないが、理解の向上のために提供される。例えば、図10Gは、インジケータ領域602及びコントロール領域606内に表示されたライブプレビュー630の視覚コンテンツは、ビデオ記録の一部として記録され、記録中にライブプレビュー630内に表示されなかったいくつかの視覚コンテンツはまた、ビデオ記録1032の一部として記憶され、これらの全ては、デバイス600で、ビデオ記録1032を回転させて水平線のオフセットを補正するためのに利用可能であることを示す。 To improve understanding, FIG. 10G also includes representations of visual content that was recorded and stored as part of the video recording, but was not displayed as part of the camera display area 604 during recording. These representations, shown outside of the device 600, are not part of the user interface of the device 600, but are provided to improve understanding. For example, FIG. 10G illustrates that the visual content of the live preview 630 displayed in the indicator area 602 and the control area 606 was recorded as part of the video recording, and that some visual content that was not displayed in the live preview 630 during recording was also stored as part of the video recording 1032, all of which is available to the device 600 to rotate the video recording 1032 to correct for horizon offset.

図10Gでは、ビデオ編集オプション1060を表示している間に、デバイス600は、タッチ感知面を使用して、水平線調整アフォーダンス1060bに対応する位置でのタップジェスチャ1050iを検出する。図10Hに示すように、タップジェスチャ1050iを検出したことに応じて、デバイス600は、ビデオ記録中にカメラディスプレイ領域604内に表示されなかった及び/又はビデオ記録中にライブプレビュー630内に表示されなかった視覚コンテンツを使用する(例えば、導入する)ことによって、水平線1040aがオフセットで(例えば、デバイス600のディスプレイの上部(又は底部)に平行である)表示されないように、ビデオ記録1032を修正する。完了アフォーダンス1036cのアクティブ化は、ビデオ記録1032に行われた修正を保存する一方で、取消アフォーダンス1036dのアクティブ化は、ビデオ記録1032に行われた修正を復元する。 In FIG. 10G, while displaying video editing options 1060, device 600 detects a tap gesture 1050i using the touch-sensitive surface at a location corresponding to horizon adjustment affordance 1060b. As shown in FIG. 10H, in response to detecting tap gesture 1050i, device 600 modifies video recording 1032 so that horizon line 1040a does not appear offset (e.g., parallel to the top (or bottom) of the display of device 600) by using (e.g., introducing) visual content that was not displayed in camera display area 604 during video recording and/or that was not displayed in live preview 630 during video recording. Activation of completion affordance 1036c preserves the modifications made to video recording 1032, while activation of undo affordance 1036d restores the modifications made to video recording 1032.

図10Gに戻ると、デバイス600がタップジェスチャ1050gを検出して、編集モードに入る代わりに、デバイス600は、タッチ感知面を使用して、自動調整アフォーダンス1036bに対応する位置でのタップジェスチャ1050hを検出する。図10Hに示すように、タップジェスチャ1050gを検出したことに応じて、デバイス600は、ビデオ記録中にカメラディスプレイ領域604内に表示されなかった及び/又はビデオ記録中にライブプレビュー630内に表示されなかった視覚コンテンツを使用する(例えば、導入する)ことによって、水平線1040aがオフセットで(例えば、デバイス600のディスプレイの上部(又は底部)に平行である)表示されないように、ビデオ記録1032を自動的に(かつ更なるユーザ入力を必要とせずに)修正する。いくつかの実施形態では、自動調整は、ビデオ記録中にカメラディスプレイ領域604内に表示されなかった及び/又はビデオ記録中にライブプレビュー630内に表示されなかった視覚コンテンツを使用することができる、水平線補正(例えば、鮮明化、露光補正)を超える追加の調整を含む。 Returning to FIG. 10G, instead of device 600 detecting tap gesture 1050g and entering edit mode, device 600 uses the touch-sensitive surface to detect tap gesture 1050h at a location corresponding to auto-adjust affordance 1036b. As shown in FIG. 10H, in response to detecting tap gesture 1050g, device 600 automatically (and without requiring further user input) modifies video recording 1032 so that horizon 1040a does not appear offset (e.g., parallel to the top (or bottom) of the display of device 600) by using (e.g., introducing) visual content that was not displayed in camera display area 604 during video recording and/or that was not displayed in live preview 630 during video recording. In some embodiments, the auto-adjustment includes additional adjustments beyond horizon correction (e.g., sharpening, exposure correction) that can use visual content that was not displayed in camera display area 604 during video recording and/or that was not displayed in live preview 630 during video recording.

いくつかの実施形態では、図10I~図10Kに示すように、様々なユーザ入力は、ライブプレビュー630の倍率を変更する。図10Iにおいて、デバイス600は、タッチ感知面を使用して、ズームアフォーダンス622に対応する位置でのタップジェスチャ1050jを検出し、それに応じて、ズームアフォーダンス622のビジュアル要素を更新し、図10Jに示すように、ライブプレビュー630を、タップジェスチャ1050jの大きさに基づかない所定のズームレベル(例えば、2×)までズームする。図10Jにおいて、デバイス600は、タッチ感知面を使用して、ズームアフォーダンス622に対応する位置でのタップジェスチャ1050kを検出し、それに応じて、ズームアフォーダンス622のビジュアル要素を更新し、図10Kに示すように、ライブプレビュー630を、タップジェスチャ1050kの大きさに基づかない第2の所定のズームレベル(例えば、1×)までズームする。タップジェスチャ1050kを検出する代わりに、デバイス600は、タッチ感知面を使用して、カメラディスプレイ領域604内のライブプレビュー630に対応する位置でのピンチ(又はデピンチ)ジェスチャ1050lを検出し、それに応じて、ライブプレビュー630を、ピンチ(又はデピンチ)ジェスチャ1050lの大きさに基づかないズームレベル(例えば、1.7×)までズームする(及び、任意選択的に、ズームアフォーダンス622のビジュアル要素を更新する)。 In some embodiments, as shown in FIGS. 10I-10K, various user inputs change the magnification of live preview 630. In FIG. 10I, device 600 uses the touch-sensitive surface to detect a tap gesture 1050j at a location corresponding to zoom affordance 622, updates the visual elements of zoom affordance 622 accordingly, and zooms live preview 630 to a predefined zoom level (e.g., 2×) that is not based on the magnitude of tap gesture 1050j, as shown in FIG. 10J. In FIG. 10J, device 600 uses the touch-sensitive surface to detect a tap gesture 1050k at a location corresponding to zoom affordance 622, updates the visual elements of zoom affordance 622 accordingly, and zooms live preview 630 to a second predefined zoom level (e.g., 1×) that is not based on the magnitude of tap gesture 1050k, as shown in FIG. 10K. Instead of detecting a tap gesture 1050k, device 600 uses the touch-sensitive surface to detect a pinch (or de-pinch) gesture 1050l at a location in camera display area 604 that corresponds to live preview 630, and in response zooms live preview 630 to a zoom level (e.g., 1.7x) that is not based on the magnitude of pinch (or de-pinch) gesture 1050l (and, optionally, updates visual elements of zoom affordance 622).

図11A~図11Cは、いくつかの実施形態による、電子デバイスを使用してカメラ視野を表示するための方法を示すフロー図である。方法1100は、表示デバイス及び1つ以上のカメラ(例えば、電子デバイスの異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を備えるデバイス(例えば、100、300、500、600)で実行される。方法1100のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 11A-11C are flow diagrams illustrating a method for displaying a camera view using an electronic device, according to some embodiments. Method 1100 is performed on a device (e.g., 100, 300, 500, 600) that includes a display device and one or more cameras (e.g., one or more cameras (e.g., dual camera, triple camera, quad camera, etc.) on different sides (e.g., front camera, rear camera) of the electronic device). Some operations of method 1100 are optionally combined, the order of some operations is optionally changed, and some operations are optionally omitted.

いくつかの実施形態では、電子デバイス(例えば、600)は、コンピュータシステムである。コンピュータシステムは、任意選択的に、ディスプレイ生成構成要素と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the electronic device (e.g., 600) is a computer system. The computer system is optionally in communication (e.g., wired communication, wireless communication) with a display generation component and with one or more input devices. The display generation component is configured to provide visual output, such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. The one or more input devices are configured to receive input, such as a touch-sensitive surface that receives user input. In some embodiments, the one or more input devices are integrated with the computer system. In some embodiments, the one or more input devices are separate from the computer system. Thus, the computer system can transmit data (e.g., image data or video data) via a wired or wireless connection to an integrated or external display generation component to visually generate content (e.g., using a display device) and can receive wired or wireless connection input from one or more input devices.

後述するように、方法1100は、カメラ視野を表示するための直感的な仕方を提供する。この方法は、カメラ視野を表示する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にカメラ視野にアクセスすることを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, method 1100 provides an intuitive way to display the camera view. The method reduces the cognitive burden on the user in displaying the camera view, thereby creating a more efficient human-machine interface. For battery-operated computing devices, enabling the user to access the camera view more quickly and efficiently conserves power and extends the time between battery charges.

電子デバイス(例えば、600)は、カメラユーザインタフェースを表示する要求を受信する(1102)。 An electronic device (e.g., 600) receives a request to display a camera user interface (1102).

カメラユーザインタフェースを表示する要求を受信したことに応じて、かつそれぞれの基準が満たされていないとの判定に従って(1104)(例えば、基準は、デバイスが特定のメディア(例えば、4Kビデオ)をキャプチャするように構成されているとき又は特定のモード(例えば、ポートレートモード)で動作するように構成されているときに満たされる基準を含むことができる)、電子デバイス(例えば、600)は、表示デバイスを介して、カメラユーザインタフェースを表示する(1106)。カメラユーザインタフェースは、1つ以上のカメラの視野(例えば、630)の第1の部分の表現を含む第1の領域(例えば、604)(例えば、カメラディスプレイ領域)を含む(1108)。カメラユーザインタフェースは、1つ以上のカメラの視野(例えば、630)の第2の部分の表現を含む第2の領域(例えば、606)(例えば、カメラコントロール領域)を含む(1110)。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分は、第1の部分と視覚的に区別される(例えば、暗色外観を有する)(例えば、1つ以上のカメラの視野の第2の部分上に半透明オーバーレイを有する)。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分の表現は、1つ以上のカメラの視野の第1の部分の表現と比較して、暗色外観を有する。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分の表現は、カメラユーザインタフェース内のカメラディスプレイ領域(例えば、604)の上方及び/又は下方に位置する。カメラユーザインタフェースを表示する要求を受信したことに応じて、かつそれぞれの基準が満たされていないとの判定に従って、カメラユーザインタフェース(カメラユーザインタフェースは、第1の領域及び第2の領域を含む)を表示することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされたときに動作を実行し、これにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In response to receiving a request to display a camera user interface and following a determination that the respective criteria are not met (1104) (e.g., the criteria may include criteria that are met when the device is configured to capture a particular media (e.g., 4K video) or configured to operate in a particular mode (e.g., portrait mode)), the electronic device (e.g., 600) displays the camera user interface via the display device (1106). The camera user interface includes a first region (e.g., 604) (e.g., a camera display region) that includes a representation of a first portion of the field of view (e.g., 630) of the one or more cameras (1108). The camera user interface includes a second region (e.g., 606) (e.g., a camera control region) that includes a representation of a second portion of the field of view (e.g., 630) of the one or more cameras (1110). In some embodiments, the second portion of the field of view of the one or more cameras is visually distinct (e.g., has a dark appearance) from the first portion (e.g., has a semi-transparent overlay over the second portion of the field of view of the one or more cameras). In some embodiments, the representation of the second portion of the field of view of the one or more cameras has a darkened appearance compared to the representation of the first portion of the field of view of the one or more cameras. In some embodiments, the representation of the second portion of the field of view of the one or more cameras is located above and/or below a camera display area (e.g., 604) in the camera user interface. By displaying the camera user interface (including the first area and the second area) in response to receiving a request to display the camera user interface and following a determination that the respective criteria are not met, the electronic device performs an action when a set of conditions are met without requiring further user input, thereby enhancing usability of the device and making the user-device interface more efficient (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), as well as reducing power usage and improving battery life of the device by allowing the user to use the device more quickly and efficiently.

カメラユーザインタフェースが表示されている間に、電子デバイス(例えば、600)は、1つ以上のカメラでメディア(例えば、画像データ(例えば、静止画像、ビデオ))をキャプチャする要求に対応する入力(例えば、画像キャプチャアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)の選択(例えば、アクティブ化されると、第1の領域内に表示されたコンテンツの画像をキャプチャするシャッターアフォーダンス))を検出する(1112)。 While the camera user interface is displayed, the electronic device (e.g., 600) detects an input (e.g., selection of an image capture affordance (e.g., a selectable user interface object) (e.g., a shutter affordance that, when activated, captures an image of content displayed within the first region)) corresponding to a request to capture media (e.g., image data (e.g., still image, video)) with one or more cameras (1112).

1つ以上のカメラでメディア(例えば、ビデオ、写真)をキャプチャする要求に対応する入力を検出したことに応じて、電子デバイス(例えば、600)は、1つ以上のカメラの視野(例えば、630)の第1の部分に対応する(例えば、由来する)視覚コンテンツと、1つ以上のカメラの視野の第2の部分に対応する(例えば、由来する)視覚コンテンツと、を含むメディアアイテム(例えば、ビデオ、写真)を、1つ以上のカメラでキャプチャする(1114)。 In response to detecting an input corresponding to a request to capture media (e.g., video, photo) with one or more cameras, the electronic device (e.g., 600) captures (1114) with one or more cameras a media item (e.g., video, photo) including visual content corresponding to (e.g., originating from) a first portion of the field of view (e.g., 630) of the one or more cameras and visual content corresponding to (e.g., originating from) a second portion of the field of view of the one or more cameras.

メディアアイテムをキャプチャした後に、電子デバイス(例えば、600)は、メディアアイテムを表示する要求(例えば、表示する要求)を受信する(1116)。 After capturing the media item, the electronic device (e.g., 600) receives a request to display (e.g., a request to display) the media item (1116).

いくつかの実施形態では、メディアアイテムをキャプチャした後に、電子デバイス(例えば、600)は、1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも第3の部分を使用して、オブジェクト追跡(例えば、オブジェクト識別)動作を実行する(1118)。メディアアイテムをキャプチャした後に、1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも第3の部分を使用して、オブジェクト追跡動作を(例えば、自動的に、ユーザ入力なしで)実行することは、操作を実行するために必要な入力の数を減らし、これにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, after capturing the media item, the electronic device (e.g., 600) performs an object tracking (e.g., object identification) operation (1118) using at least a third portion of the visual content from the second portion of the field of view of the one or more cameras. Performing the object tracking operation (e.g., automatically, without user input) using at least a third portion of the visual content from the second portion of the field of view of the one or more cameras after capturing the media item reduces the number of inputs required to perform the operation, thereby enhancing usability of the device and making the user-device interface more efficient (e.g., by helping the user make appropriate inputs and reducing user errors when operating/interacting with the device), as well as allowing the user to use the device more quickly and efficiently, thereby reducing power usage and improving battery life of the device.

メディアアイテムを表示する要求を受信したことに応じて、電子デバイス(例えば、600)は、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの少なくとも一部分(又は全て)の表現を表示することなく、1つ以上のカメラの視野(例えば、630)の第1の部分に対応する視覚コンテンツの第1の表現を表示する(1120)。いくつかの実施形態では、キャプチャされた画像データは、1つ以上のカメラの視野(例えば、630)の第1及び第2の部分の両方の表現を含む。いくつかの実施形態では、第2の部分の表現は、キャプチャされた画像データの表示表現から省略されるが、キャプチャされた画像データの表示表現を修正するために使用することができる。例えば、第2の部分は、カメラ安定化、オブジェクト追跡、カメラ視点の変更(例えば、ズーミングなし)、カメラの向きの変更(例えば、ズーミングなし)、及び/又はキャプチャされた画像データの表示表現に組み込むことができる追加の画像データを提供するために使用することができる。 In response to receiving a request to display the media item, the electronic device (e.g., 600) displays (1120) a first representation of visual content corresponding to a first portion of the field of view of the one or more cameras (e.g., 630) without displaying a representation of at least a portion (or all) of the visual content corresponding to a second portion of the field of view of the one or more cameras. In some embodiments, the captured image data includes representations of both the first and second portions of the field of view of the one or more cameras (e.g., 630). In some embodiments, the representation of the second portion is omitted from the display representation of the captured image data, but can be used to modify the display representation of the captured image data. For example, the second portion can be used for camera stabilization, object tracking, changing the camera viewpoint (e.g., no zooming), changing the camera orientation (e.g., no zooming), and/or providing additional image data that can be incorporated into the display representation of the captured image data.

いくつかの実施形態では、視覚コンテンツの第1の表現を表示している間に、電子デバイス(例えば、600)は、視覚コンテンツの表現を修正(例えば、編集)する要求に対応する1組の1つ以上の入力を検出する(1122)。いくつかの実施形態では、1組の1つ以上の入力を検出したことに応じて、電子デバイス(例えば、600)は、視覚コンテンツの第2の(例えば、修正された又は編集された)表現を表示する(1124)。いくつかの実施形態では、視覚コンテンツの第2の表現は、1つ以上のカメラの視野の第1の部分の少なくとも一部分からの視覚コンテンツと、視覚コンテンツの第1の表現に含まれなかった1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも一部分に基づく(例えば、由来する)視覚コンテンツと、を含む。1組の1つ以上の入力を検出したことに応じて、視覚コンテンツの第2の表現を表示することにより、ユーザが、1つ以上のカメラの視野の第1の部分の少なくとも一部分からの視覚コンテンツ及び視覚コンテンツの第1の表現に含まれなかった1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも一部分に基づく視覚コンテンツにアクセスすることを可能にし、したがって、ユーザが、視覚コンテンツのより多く及び/又は視覚コンテンツの異なる部分にアクセスすることを可能にする。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、視覚コンテンツの第2の表現は、編集動作に応じて、生成及び表示される。いくつかの実施形態では、第2の表現は、第1の表現に含まれなかった、キャプチャされた視覚コンテンツの少なくとも一部分を含む。 In some embodiments, while displaying the first representation of the visual content, the electronic device (e.g., 600) detects (1122) a set of one or more inputs corresponding to a request to modify (e.g., edit) the representation of the visual content. In some embodiments, in response to detecting the set of one or more inputs, the electronic device (e.g., 600) displays (1124) a second (e.g., modified or edited) representation of the visual content. In some embodiments, the second representation of the visual content includes visual content from at least a portion of the first portion of the field of view of the one or more cameras and visual content based on (e.g., derived from) at least a portion of the visual content from the second portion of the field of view of the one or more cameras that was not included in the first representation of the visual content. Displaying the second representation of the visual content in response to detecting the set of one or more inputs allows a user to access visual content from at least a portion of the first portion of the field of view of the one or more cameras and visual content based on at least a portion of the visual content from the second portion of the field of view of the one or more cameras that was not included in the first representation of the visual content, thus allowing a user to access more of the visual content and/or different portions of the visual content. Providing additional control options without cluttering the UI with additional controls displayed enhances usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs and reducing user errors when operating/interacting with the device), and reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently. In some embodiments, a second representation of the visual content is generated and displayed in response to the editing operation. In some embodiments, the second representation includes at least a portion of the captured visual content that was not included in the first representation.

いくつかの実施形態では、視覚コンテンツの第1の表現は、第1の視覚的視点からの表現である(例えば、メディアアイテムがキャプチャされた時点での1つ以上のカメラの視覚的視点、元の視点、未修正の視点)。いくつかの実施形態では、視覚コンテンツの第2の表現は、視覚コンテンツの第1の表現に含まれなかった、1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも一部分に基づいて生成された、第1の視覚的視点とは異なる第2の視覚的視点からの表現である(例えば、第1の視覚的視点から第2の視覚的視点へ表現を変更することは、第2の部分に対応する視覚コンテンツのいくらかを追加又は、代替的に、除去する)。視覚コンテンツの第1の表現に含まれなかった、1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも一部分に基づいて生成された、第1の視覚的視点とは異なる第2の視覚的視点からの表現である視覚コンテンツの第2の表現を提供することにより、ユーザに、追加の視覚コンテンツへのアクセスを提供し、かつユーザが追加の視覚コンテンツを閲覧することを可能にする。改善されたフィードバックを提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the first representation of the visual content is a representation from a first visual perspective (e.g., the visual perspective of one or more cameras at the time the media item was captured, an original perspective, an unmodified perspective). In some embodiments, the second representation of the visual content is a representation from a second visual perspective different from the first visual perspective, generated based on at least a portion of the visual content from a second portion of the field of view of the one or more cameras that was not included in the first representation of the visual content (e.g., changing the representation from the first visual perspective to the second visual perspective adds or, alternatively, removes some of the visual content corresponding to the second portion). Providing a second representation of the visual content that is a representation from a second visual perspective different from the first visual perspective, generated based on at least a portion of the visual content from a second portion of the field of view of the one or more cameras that was not included in the first representation of the visual content, provides the user with access to additional visual content and enables the user to view the additional visual content. Providing improved feedback may improve usability of the device, provide a more efficient user-device interface (e.g., by assisting the user in providing appropriate inputs and reducing user errors when operating/interacting with the device), which in turn may reduce the device's power usage and improve battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、視覚コンテンツの第1の表現は、第1の向きの表現である(例えば、メディアアイテムがキャプチャされた時点での1つ以上のカメラの視覚的視点、元の視点、未修正の視点)。いくつかの実施形態では、視覚コンテンツの第2の表現は、視覚コンテンツの第1の表現に含まれなかった、1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも一部分に基づいて生成された、第1の向きとは異なる第2の向きの表現である(例えば、第1の向きから第2の向き(例えば、水平線、縦、横)へ表現を変更することは、第2の部分に対応する視覚コンテンツのいくらかを追加又は、代替的に、除去する)。視覚コンテンツの第1の表現に含まれなかった、1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも一部分に基づいて生成された、第1の向きとは異なる第2の向きの表現である視覚コンテンツの第2の表現を提供することにより、ユーザに、追加の視覚コンテンツへのアクセスを提供し、かつユーザが追加の視覚コンテンツを閲覧することを可能にする。改善されたフィードバックを提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the first representation of the visual content is a representation in a first orientation (e.g., the visual viewpoint of one or more cameras at the time the media item was captured, an original viewpoint, an unmodified viewpoint). In some embodiments, the second representation of the visual content is a representation in a second orientation different from the first orientation that is generated based on at least a portion of the visual content from a second portion of the field of view of one or more cameras that was not included in the first representation of the visual content (e.g., changing the representation from the first orientation to a second orientation (e.g., horizontal, portrait, landscape) adds or, alternatively, removes some of the visual content corresponding to the second portion). Providing a second representation of the visual content in a second orientation different from the first orientation that is generated based on at least a portion of the visual content from a second portion of the field of view of one or more cameras that was not included in the first representation of the visual content provides the user with access to additional visual content and enables the user to view the additional visual content. Providing improved feedback may improve usability of the device, provide a more efficient user-device interface (e.g., by assisting the user in providing appropriate inputs and reducing user errors when operating/interacting with the device), which in turn may reduce the device's power usage and improve battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1の表現は、第1のズームレベルで表示される。いくつかの実施形態では、視覚コンテンツの第1の表現は、第1のズームレベルの表現である(例えば、メディアアイテムがキャプチャされた時点での1つ以上のカメラの視覚的視点、元の視点、未修正の視点)。いくつかの実施形態では、視覚コンテンツの第2の表現は、視覚コンテンツの第1の表現に含まれなかった、1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも一部分に基づいて生成された、第1のズームレベルとは異なる第2のズームレベルでの表現である(例えば、第1のズームレベルから第2のズームレベルへ表現を変更することは、第2の部分に対応する視覚コンテンツのいくらかを追加又は、代替的に、除去する)。いくつかの実施形態では、デバイスがポートレートキャプチャモードで動作している間に、第1のズームレベルを第2のズームレベルに変更する要求は、デバイスがポートレートモードで動作するように構成されている間に表示されるズームオプションアフォーダンスの選択に対応する。 In some embodiments, the first representation is displayed at a first zoom level. In some embodiments, the first representation of the visual content is a representation at a first zoom level (e.g., a visual viewpoint of one or more cameras at the time the media item was captured, an original viewpoint, an unmodified viewpoint). In some embodiments, the second representation of the visual content is a representation at a second zoom level different from the first zoom level that is generated based on at least a portion of visual content from a second portion of the field of view of the one or more cameras that was not included in the first representation of the visual content (e.g., changing the representation from the first zoom level to the second zoom level adds or, alternatively, removes some of the visual content corresponding to the second portion). In some embodiments, the request to change from the first zoom level to the second zoom level while the device is operating in portrait capture mode corresponds to a selection of a zoom option affordance displayed while the device is configured to operate in portrait mode.

いくつかの実施形態では、視覚コンテンツの第1の表現は、1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも第2の部分を使用して(例えば、カメラのキャプチャを安定化させるために第2の部分に対応する視覚コンテンツからのピクセルを使用して)、デジタル画像安定化動作に少なくとも部分的に基づいて生成される。 In some embodiments, the first representation of the visual content is generated based at least in part on a digital image stabilization operation using at least a second portion of the visual content from a second portion of the field of view of one or more cameras (e.g., using pixels from the visual content corresponding to the second portion to stabilize the camera capture).

いくつかの実施形態では、メディアアイテムを表示する要求は、メディアアイテムを表示する第1の要求である(1126)。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの少なくとも一部分(又は全て)の表現を表示することなく、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツの第1の表現を表示した後に、電子デバイス(例えば、600)は、メディアアイテムを表示する第2の要求(例えば、メディアアイテムを編集する要求(例えば、第2の要求を第2の受信することは、メディアアイテムを表示する要求に対応する1つ以上の入力を検出することを含む))を受信する(1128)。いくつかの実施形態では、メディアアイテムを表示する第2の要求(例えば、メディアアイテムを編集する要求)を受信したことに応じて、電子デバイス(例えば、600)は、1つ以上のカメラの視野(例えば、630)の第1の部分に対応する視覚コンテンツの第1の表現及び1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの表現を表示する(1130)。いくつかの実施形態では、1つ以上のカメラの視野(例えば、630)の第2の部分の表現は、表示されたメディア内の1つ以上のカメラの視野の第1の部分の表現と比較して、暗色外観を有する。いくつかの実施形態では、表示されたメディアは、表現を含む第1の領域と、1つ以上のカメラの視野(例えば、630)の第2の部分に対応する視覚コンテンツの表現を含む第2のメディアとを有する。 In some embodiments, the request to display the media item is a first request to display the media item (1126). In some embodiments, after displaying the first representation of the visual content corresponding to the first portion of the field of view of the one or more cameras without displaying a representation of at least a portion (or all) of the visual content corresponding to the second portion of the field of view of the one or more cameras, the electronic device (e.g., 600) receives a second request to display the media item (e.g., a request to edit the media item (e.g., the second receiving of the second request includes detecting one or more inputs corresponding to the request to display the media item)) (1128). In some embodiments, in response to receiving the second request to display the media item (e.g., a request to edit the media item), the electronic device (e.g., 600) displays (1130) the first representation of the visual content corresponding to the first portion of the field of view of the one or more cameras (e.g., 630) and a representation of the visual content corresponding to the second portion of the field of view of the one or more cameras. In some embodiments, the representation of the second portion of the field of view of the one or more cameras (e.g., 630) has a darkened appearance compared to the representation of the first portion of the field of view of the one or more cameras in the displayed media. In some embodiments, the displayed media has a first region including a representation and a second media including a representation of visual content corresponding to a second portion of the field of view (e.g., 630) of one or more cameras.

いくつかの実施形態では、カメラユーザインタフェースを表示する要求を受信したことに応じて、かつそれぞれの基準が満たされているとの判定に従って、電子デバイス(例えば、600)は、表示デバイスを介して、第2のカメラユーザインタフェースを表示し、第2のカメラユーザインタフェースが、1つ以上のカメラの視野の第2の部分の表現を含むことなく、1つ以上のカメラの視野の第1の部分の表現を含む(1132)。カメラユーザインタフェースを表示する要求を受信したことに応じて、かつそれぞれの基準が満たされているとの判定に従って、1つ以上のカメラの視野の第2の部分の表現を含むことなく、1つ以上のカメラの視野の第1の部分の表現を含む第2のカメラユーザインタフェースを表示することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされたときに動作を実行し、これにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、メディアをキャプチャする要求に対応する入力を検出したことに応じて、電子デバイス(例えば、600)は、1つ以上のカメラの視野の第2の部分に対応するメディアをキャプチャすることなく、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツを含むメディアアイテムをキャプチャする。 In some embodiments, in response to receiving a request to display the camera user interface and in accordance with a determination that the respective criteria are met, the electronic device (e.g., 600) displays, via the display device, a second camera user interface, the second camera user interface including a representation of the first portion of the field of view of the one or more cameras without including a representation of the second portion of the field of view of the one or more cameras (1132). By displaying, in response to receiving a request to display the camera user interface and in accordance with a determination that the respective criteria are met, the second camera user interface including a representation of the first portion of the field of view of the one or more cameras without including a representation of the second portion of the field of view of the one or more cameras, the electronic device performs an action when a set of conditions is met without requiring further user input, thereby enhancing usability of the device and making the user-device interface more efficient (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), as well as reducing power usage and improving battery life of the device by allowing the user to use the device more quickly and efficiently. In some embodiments, in response to detecting an input corresponding to a request to capture media, the electronic device (e.g., 600) captures a media item including visual content corresponding to a first portion of the field of view of the one or more cameras without capturing media corresponding to a second portion of the field of view of the one or more cameras.

いくつかの実施形態では、電子デバイス(例えば、600)は、以前にキャプチャされたメディアアイテムを表示する要求(例えば、メディアアイテムを編集する要求)を受信する(1134)。いくつかの実施形態では、以前にキャプチャされたメディアアイテムを表示する要求(例えば、メディアアイテムを編集する要求)を受信したことに応じて(1136)、それぞれの基準が満たされなかったときに以前にキャプチャされたメディアアイテムがキャプチャされたとの判定に従って、電子デバイス(例えば、600)は、追加のコンテンツのインジケーションを表示する(例えば、インジケーションは、アラートを含み、メディアアイテムは、使用可能な追加のコンテンツを含み、追加のコンテンツを含まないメディアアイテムがキャプチャされた場合に、インジケーションが表示される)。以前にキャプチャされたメディアアイテムを表示する要求を受信したことに応じて、それぞれの基準が満たされなかったときに以前にキャプチャされたメディアアイテムがキャプチャされたとの判定に従って、追加のコンテンツのインジケーションを表示することによって、電子デバイスは、ユーザに(例えば、メディアアイテムを編集するための)追加の制御オプションを提供し、これにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、以前にキャプチャされたメディアアイテムを表示する要求(例えば、メディアアイテムを編集する要求)を受信したことに応じて(1136)、それぞれの基準が満たされたときに以前にキャプチャされたメディアアイテムがキャプチャされたとの判定に従って、電子デバイス(例えば、600)は、追加のコンテンツのインジケーションを表示することをやめる(例えば、追加のコンテンツを含まないメディアアイテムがキャプチャされた場合、メディアアイテムは、表示されない)(1140)。 In some embodiments, the electronic device (e.g., 600) receives a request to view a previously captured media item (e.g., a request to edit a media item) (1134). In some embodiments, in response to receiving the request to view a previously captured media item (e.g., a request to edit a media item) (1136), the electronic device (e.g., 600) displays an indication of additional content in accordance with a determination that the previously captured media item was captured when a respective criterion was not met (e.g., the indication includes an alert, the media item includes additional content available, and an indication is displayed if a media item was captured that does not include the additional content). In response to receiving a request to view a previously captured media item, the electronic device provides the user with additional control options (e.g., for editing the media item) by displaying an indication of the additional content in accordance with a determination that the previously captured media item was captured when the respective criteria were not met, thereby enhancing usability of the device and making the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs and reducing user errors when operating/interacting with the device), as well as allowing the user to use the device more quickly and efficiently, thereby reducing device power usage and improving battery life. In some embodiments, in response to receiving a request to view a previously captured media item (e.g., a request to edit a media item) (1136), in accordance with a determination that the previously captured media item was captured when the respective criteria were met, the electronic device (e.g., 600) ceases to display the indication of the additional content (e.g., if a media item that does not include additional content was captured, the media item is not displayed) (1140).

いくつかの実施形態では、それぞれの基準は、4000水平ピクセル以上の解像度でメディアアイテムをキャプチャするように電子デバイス(例えば、600)が構成されているときに満たされる基準を含む。 In some embodiments, each criterion includes a criterion that is met when the electronic device (e.g., 600) is configured to capture media items at a resolution of 4000 horizontal pixels or greater.

いくつかの実施形態では、それぞれの基準は、所定のズームレベルにてポートレートモードで動作するように電子デバイス(例えば、600)が構成されているときに満たされる基準を含む(例えば、ポートレートモードでは、ズームレベル(例えば、0.5×、1×、2×ズーム)の間にある間は、追加のコンテンツを含まない)。 In some embodiments, each criterion includes a criterion that is met when the electronic device (e.g., 600) is configured to operate in portrait mode at a given zoom level (e.g., portrait mode does not include additional content while between zoom levels (e.g., 0.5x, 1x, 2x zoom)).

いくつかの実施形態では、それぞれの基準は、1つ以上のカメラのうちの少なくとも1つのカメラ(例えば、周辺カメラ)が所定の期間(例えば、5秒)にわたって焦点を(例えば、視野内の1つ以上のオブジェクト上に)維持できないときに満たされる基準を含む。 In some embodiments, each criterion includes a criterion that is met when at least one of the one or more cameras (e.g., a peripheral camera) fails to maintain focus (e.g., on one or more objects in the field of view) for a predetermined period of time (e.g., 5 seconds).

いくつかの実施形態では、1つ以上のカメラでメディアをキャプチャする要求に対応する入力は、1つ以上のカメラでメディアをキャプチャする要求に対応する第1の入力である。いくつかの実施形態では、カメラユーザインタフェースが表示されている間に、電子デバイスは、1つ以上のカメラでメディアをキャプチャする要求に対応する第2の入力を検出する。いくつかの実施形態では、1つ以上のカメラでメディアをキャプチャする要求に対応する第2の入力を検出したことに応じて、かつ追加のコンテンツ設定(例えば、図37の3702a、3702a2、3702a3)に基づいて1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツをキャプチャするように電子デバイスが構成されているとの判定に従って、電子デバイスは、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツの第1の表現(例えば、領域604内に表示された)をキャプチャし、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの少なくとも一部分の表現(例えば、領域602及び/又は606内に表示された)をキャプチャする。いくつかの実施形態では、電子デバイスは、追加のコンテンツキャプチャ設定アフォーダンスを含む設定ユーザインタフェースを表示し、これは、選択されると、電子デバイスに、メディアをキャプチャする要求に応じて、電子デバイスが自動的に(追加のユーザ入力なしで)第2のコンテンツをキャプチャする状態に又は状態から変更させる。いくつかの実施形態では、追加のコンテンツキャプチャ設定は、ユーザが構成可能である。いくつかの実施形態では、1つ以上のカメラでメディアをキャプチャする要求に対応する第2の入力を検出したことに応じて、かつ追加のコンテンツ設定に基づいて1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツをキャプチャするように電子デバイスが構成されていないとの判定に従って、電子デバイスは、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの少なくとも一部分の表現をキャプチャすることなく、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツの第1の表現をキャプチャする。いくつかの実施形態では、電子デバイスは、1つ以上のカメラの視野の第2の部分をキャプチャすることをやめる。 In some embodiments, the input corresponding to a request to capture media with one or more cameras is a first input corresponding to a request to capture media with one or more cameras. In some embodiments, while the camera user interface is displayed, the electronic device detects a second input corresponding to a request to capture media with one or more cameras. In some embodiments, in response to detecting the second input corresponding to a request to capture media with one or more cameras, and in accordance with a determination that the electronic device is configured to capture visual content corresponding to a second portion of the field of view of the one or more cameras based on additional content settings (e.g., 3702a, 3702a2, 3702a3 of FIG. 37 ), the electronic device captures a first representation of visual content corresponding to the first portion of the field of view of the one or more cameras (e.g., displayed in region 604) and captures a representation of at least a portion of visual content corresponding to the second portion of the field of view of the one or more cameras (e.g., displayed in region 602 and/or 606). In some embodiments, the electronic device displays a settings user interface including an additional content capture setting affordance that, when selected, causes the electronic device to change to or from a state in which the electronic device automatically (without additional user input) captures second content in response to a request to capture media. In some embodiments, the additional content capture setting is user configurable. In some embodiments, in response to detecting a second input corresponding to a request to capture media with one or more cameras, and in accordance with a determination that the electronic device is not configured to capture visual content corresponding to a second portion of the field of view of the one or more cameras based on the additional content setting, the electronic device captures a first representation of visual content corresponding to a first portion of the field of view of the one or more cameras without capturing a representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras. In some embodiments, the electronic device ceases capturing the second portion of the field of view of the one or more cameras.

方法1100に関して上述された処理(例えば、図11A~図11C)の詳細はまた、上記及び以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1300、1500、1700、1900、2000、2100、2300、2500、2700、2800、3000、3200、3400、3600、3800、4000、及び4200は、方法1100を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。 It should be noted that the details of the processes described above with respect to method 1100 (e.g., FIGS. 11A-11C) are also applicable in a similar manner to the methods described above and below. For example, methods 700, 900, 1300, 1500, 1700, 1900, 2000, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3400, 3600, 3800, 4000, and 4200 optionally include one or more of the characteristics of the various methods described above with reference to method 1100. For the sake of brevity, these details will not be repeated below.

図12A~図12Iは、いくつかの実施形態による、電子デバイスを使用してメディアアイテムにアクセスするための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図13A~図13Bにおける処理を含む、以下で説明する処理を例示するために使用される。 12A-12I show example user interfaces for accessing media items using an electronic device, according to some embodiments. The user interfaces in these figures are used to illustrate the processes described below, including the processes in FIGS. 13A-13B.

図12Aに示すように、デバイス600は、カメラ起動アイコン1202を含むホームユーザインタフェーススクリーン1200を表示する。ホームユーザインタフェース1200を表示している間に、デバイス600は、カメラ起動アイコン1202上の入力1295aを検出する。 As shown in FIG. 12A, the device 600 displays a home user interface screen 1200 that includes a camera activation icon 1202. While displaying the home user interface 1200, the device 600 detects an input 1295a on the camera activation icon 1202.

入力1295aを検出したことに応じて、デバイス600は、図12Bに見られるように、インジケータ領域602、カメラディスプレイ領域604、及びコントロール領域606を含むユーザインタフェースを表示する。インジケータ領域602は、フラッシュインジケータ602aと、アニメーション化された画像をキャプチャする(例えば、メディアをキャプチャする要求に応じて、既定の数の画像をキャプチャする)ようにデバイス600が現在構成されていることを示すアニメーション化された画像状態インジケータ602dと、を含む。カメラディスプレイ領域604は、ライブプレビュー630を含む。ライブプレビュー630は、デバイス600の1つ以上のカメラ(例えば、背面カメラ)の視野の表現である。 In response to detecting input 1295a, device 600 displays a user interface including indicator area 602, camera display area 604, and control area 606, as seen in FIG. 12B. Indicator area 602 includes a flash indicator 602a and an animated image status indicator 602d that indicates that device 600 is currently configured to capture animated images (e.g., capture a predefined number of images in response to a request to capture media). Camera display area 604 includes a live preview 630. Live preview 630 is a representation of the field of view of one or more cameras (e.g., rear-facing camera) of device 600.

コントロール領域606は、メディアコレクション624を含む。デバイス600は、メディアコレクション624を、積み重ねられているものとして、かつデバイス縁部1214に近接させて表示する。メディアコレクション624は、メディアコレクションの第1の部分1212a(例えば、メディアコレクション624の左半分)と、メディアコレクションの第2の部分1212b(例えば、メディアコレクション624の積み重ね内の上部表現)と、を含む。いくつかの実施形態では、カメラユーザインタフェースが起動されると、デバイス600は、自動的に、ユーザ入力なしで、デバイス縁部1214からデバイス600の中心に向かってスライドするメディアコレクション624のアニメーションを表示する。いくつかの実施形態では、アニメーションが開始されると、メディアコレクション1212bの第1の部分は、最初に表示されない(例えば、上部表現のみが最初に視認可能である)。更には、カメラコントロール領域612は、シャッターアフォーダンス610を含む。図12Bにおいて、デバイス600は、ライブプレビュー630が横断歩道を歩いている女性を示している間に、シャッターアフォーダンス610上のタップ入力1295bを検出する。 The control area 606 includes a media collection 624. The device 600 displays the media collection 624 as a stack and proximate to the device edge 1214. The media collection 624 includes a first portion 1212a of the media collection (e.g., the left half of the media collection 624) and a second portion 1212b of the media collection (e.g., the top representation within the stack of media collections 624). In some embodiments, when the camera user interface is activated, the device 600 automatically and without user input displays an animation of the media collection 624 sliding from the device edge 1214 toward the center of the device 600. In some embodiments, when the animation is started, the first portion of the media collection 1212b is not displayed initially (e.g., only the top representation is initially visible). Furthermore, the camera control area 612 includes a shutter affordance 610. In FIG. 12B, the device 600 detects a tap input 1295b on the shutter affordance 610 while the live preview 630 shows a woman walking across a crosswalk.

図12C~図12Fは、入力1295bに応じて、アニメーション化されたメディアのキャプチャを示す。 Figures 12C-12F show animated media capture in response to input 1295b.

図12Cにおいて、アニメーション化されたメディアのキャプチャ(例えば、シーケンスでの既定の複数の画像のキャプチャ)中の第1の時点に対応して、ライブプレビュー630は、横断歩道を更に進んでいる女性と、横断歩道に進入している男性と、を示す。コントロール領域606は、メディアコレクション624を含まず、メディアコレクション624は、メディアがキャプチャされている間に示されない。いくつかの実施形態では、メディアコレクション624は、メディアをキャプチャしている間に表示される。いくつかの実施形態では、メディアコレクション624は、メディアをキャプチャしている間に単一の表現(例えば、積み重ねの上部表現)のみで表示される。 12C, corresponding to a first time point during the capture of the animated media (e.g., capture of a predefined number of images in a sequence), the live preview 630 shows the woman further along the crosswalk and the man entering the crosswalk. The control area 606 does not include the media collection 624, and the media collection 624 is not shown while the media is being captured. In some embodiments, the media collection 624 is displayed while the media is being captured. In some embodiments, the media collection 624 is displayed in only a single representation (e.g., the top representation of the stack) while the media is being captured.

図12Dにおいて、アニメーション化されたメディアのキャプチャ中の第2の時点に対応して、ライブプレビュー630は、横断歩道から出始めている女性と、一方、横断歩道を更に進んでいる男性と、を示す。メディアコレクション624が示されており、アニメーション化されたメディアの進行中のキャプチャ中にキャプチャされた複数の画像の第1の画像(例えば、入力1295bが検出された0.5秒後にキャプチャされた画像)の表現を含む。 12D, corresponding to a second time point during the capture of the animated media, live preview 630 shows the woman beginning to exit the crosswalk while the man continues through the crosswalk. Media collection 624 is shown and includes a representation of a first image of the multiple images captured during the ongoing capture of the animated media (e.g., the image captured 0.5 seconds after input 1295b was detected).

図12Eにおいて、アニメーション化されたメディアのキャプチャ中の第3の時点に対応して、ライブプレビュー630は、横断歩道から部分的に出ている女性と、横断歩道の中央にいる男性と、を示す。メディアコレクション624が示されており、アニメーション化されたメディアの進行中のキャプチャ中にキャプチャされた複数の画像の第2の画像(例えば、入力1295bが検出された1秒後にキャプチャされた画像)の表現を含む。いくつかの実施形態では、第2の画像は、図12Dに示される表現の上に重ね合わされる(例えば、スタックとして)。 In FIG. 12E, corresponding to a third time point during the capture of the animated media, live preview 630 shows a woman partially exiting the crosswalk and a man in the center of the crosswalk. Media collection 624 is shown and includes a representation of a second image of the plurality of images captured during the ongoing capture of the animated media (e.g., an image captured one second after input 1295b is detected). In some embodiments, the second image is overlaid (e.g., as a stack) on top of the representation shown in FIG. 12D.

図12Fにおいて、デバイス600は、アニメーション化されたメディアのキャプチャを完了した。メディアコレクション624は、スタックの上部に、他の以前にキャプチャされたメディア(例えば、アニメーション化されたメディアキャプチャ動作中にキャプチャされたもの以外のメディア)上に重ね合わされたキャプチャされたアニメーション化されたメディアの単一の表現(例えば、既定の複数のキャプチャされた画像を表す単一の表現)を現在含む。 In FIG. 12F, device 600 has completed capturing the animated media. Media collection 624 now includes, at the top of the stack, a single representation of the captured animated media (e.g., a single representation representing the default multiple captured images) superimposed over other previously captured media (e.g., media other than that captured during the animated media capture operation).

図12Gに示すように、表現メディアコレクション624が所定の期間にわたって表示されたことを検出したことに応じて、デバイス600は、メディアコレクション624のメディアコレクションの第1の部分1212aを表示することを停止する。図12Gに示すように、デバイス600は、メディアコレクションの第2の部分1212bの表示を維持する一方で、メディアコレクションの第1の部分1212aを表示することを停止する。いくつかの実施形態では、メディアコレクションの第1の部分1212aを表示することを停止することとは、メディアコレクション624をデバイス縁部1214に向かってスライドするアニメーションを表示することを含む。メディアコレクションの第1の部分1212aを表示すること及びメディアコレクションの第2の部分1212bの維持すること停止した後で、追加のコントロールアフォーダンス614は、メディアコレクション624によって以前に占有された位置に表示される。更には、メディアコレクションの第1の部分1212aを表示することを停止した後で、デバイス600は、デバイス縁部1214から離れて動くスワイプ入力1295cを検出する。 As shown in FIG. 12G, in response to detecting that the representation media collection 624 has been displayed for a predetermined period of time, the device 600 stops displaying the first portion 1212a of the media collection 624. As shown in FIG. 12G, the device 600 stops displaying the first portion 1212a of the media collection while maintaining the display of the second portion 1212b of the media collection. In some embodiments, stopping displaying the first portion 1212a of the media collection includes displaying an animation of the media collection 624 sliding towards the device edge 1214. After ceasing to display the first portion 1212a of the media collection and maintaining the second portion 1212b of the media collection, the additional control affordance 614 is displayed in a position previously occupied by the media collection 624. Furthermore, after ceasing to display the first portion 1212a of the media collection, the device 600 detects a swipe input 1295c moving away from the device edge 1214.

図12Hに示すように、スワイプ入力1295cを検出したことに応じて、デバイス600は、メディアコレクション624のメディアコレクション1212bの第1の部分を再表示する。メディアコレクション1212bの第1の部分を再表示した後、デバイス600は、メディアコレクション624が追加のコントロールアフォーダンス614が占有された位置を覆うため、追加のコントロールアフォーダンス614を表示することを停止する。メディアコレクション624を表示している間に、デバイス600は、メディアコレクション624上のタップ入力1295dを検出する。 As shown in FIG. 12H, in response to detecting the swipe input 1295c, the device 600 redisplays the first portion of the media collection 1212b in the media collection 624. After redisplaying the first portion of the media collection 1212b, the device 600 stops displaying the additional control affordances 614 because the media collection 624 covers the location occupied by the additional control affordances 614. While displaying the media collection 624, the device 600 detects a tap input 1295d on the media collection 624.

図12Iに示すように、タップ入力1295dを検出したことに応じて、デバイス600は、拡大表現1226(例えば、図12B~図12Fでキャプチャされたアニメーション化されたメディアの表現)を表示する。表現1226は、図12Hのメディアコレクション624のスタックの上部に表示された小表現に対応する。いくつかの実施形態では、閾値強度よりも高い特性強度又は閾値持続時間よりも長い持続時間を有する表現1226上の接触に応じて、デバイス600は、表現1226に対応するアニメーション化されたメディアを再生する。拡大表現1226を表示している間に、デバイス600は、戻るアフォーダンス1236上の入力1295eを検出する。 As shown in FIG. 12I, in response to detecting tap input 1295d, device 600 displays enlarged representation 1226 (e.g., a representation of the animated media captured in FIGS. 12B-12F). Representation 1226 corresponds to the mini-representation displayed at the top of the stack of media collection 624 in FIG. 12H. In some embodiments, in response to a contact on representation 1226 having a characteristic intensity greater than a threshold intensity or a duration greater than a threshold duration, device 600 plays the animated media corresponding to representation 1226. While displaying enlarged representation 1226, device 600 detects input 1295e on back affordance 1236.

図12Jに示すように、入力1295eを検出したことに応じて、デバイス600は、メディアの拡大表現1226から出て、デバイス縁部1214付近にメディアコレクション624を表示する。メディアコレクション624を表示している間に、デバイス600は、デバイス縁部1214に向かって動くスワイプジェスチャである入力1295fを検出する。 As shown in FIG. 12J, in response to detecting input 1295e, device 600 moves out of the enlarged representation of media 1226 and displays media collection 624 near device edge 1214. While displaying media collection 624, device 600 detects input 1295f, which is a swipe gesture moving toward device edge 1214.

図12Kに示すように、スワイプ入力1295fを検出したことに応じて、デバイス600は、メディアコレクション624のメディアコレクションの第1の部分1212aを表示することを停止し、追加のコントロールアフォーダンス616を再表示する。 As shown in FIG. 12K, in response to detecting swipe input 1295f, device 600 stops displaying first portion 1212a of media collection 624 and redisplays additional control affordances 616.

図13A~図13Bは、いくつかの実施形態による、電子デバイスを使用してメディアアイテムにアクセスするための方法を示すフロー図である。方法1300は、表示デバイス及び1つ以上のカメラ(例えば、電子デバイスの異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を備えるデバイス(例えば、100、300、500、600)で実行される。方法1300のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 13A-13B are flow diagrams illustrating a method for accessing media items using an electronic device, according to some embodiments. Method 1300 is performed on a device (e.g., 100, 300, 500, 600) that includes a display device and one or more cameras (e.g., one or more cameras (e.g., dual camera, triple camera, quad camera, etc.) on different sides (e.g., front camera, rear camera) of the electronic device). Some operations of method 1300 are optionally combined, the order of some operations is optionally changed, and some operations are optionally omitted.

いくつかの実施形態では、電子デバイス(例えば、600)は、コンピュータシステムである。コンピュータシステムは、任意選択的に、ディスプレイ生成構成要素と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the electronic device (e.g., 600) is a computer system. The computer system is optionally in communication (e.g., wired communication, wireless communication) with a display generation component and with one or more input devices. The display generation component is configured to provide visual output, such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. The one or more input devices are configured to receive input, such as a touch-sensitive surface that receives user input. In some embodiments, the one or more input devices are integrated with the computer system. In some embodiments, the one or more input devices are separate from the computer system. Thus, the computer system can transmit data (e.g., image data or video data) via a wired or wireless connection to an integrated or external display generation component to visually generate content (e.g., using a display device) and can receive wired or wireless connection input from one or more input devices.

後述するように、方法1300は、メディアアイテムにアクセスするための直感的な仕方を提供する。この方法は、メディアアイテムにアクセスする際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアアイテムにアクセスすることを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, method 1300 provides an intuitive way to access media items. The method reduces the cognitive burden on the user in accessing media items, thereby creating a more efficient human-machine interface. For battery-operated computing devices, enabling users to access media items more quickly and efficiently conserves power and extends the time between battery charges.

電子デバイス(例えば、600)は、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースは、1つ以上のカメラの視野の表現(例えば、630)を含むカメラディスプレイ領域(例えば、604)を含む(例えば、同時に表示する)(1302)。 The electronic device (e.g., 600) displays, via a display device, a camera user interface that includes (e.g., simultaneously displays) a camera display area (e.g., 604) that includes a representation (e.g., 630) of the field of view of one or more cameras (1302).

カメラユーザインタフェースを表示している間に、電子デバイス(例えば、600)は、1つ以上のカメラの視野(例えば、630)に対応するメディアをキャプチャする要求(例えば、物理カメラシャッターボタン又は仮想カメラシャッターボタンなどのキャプチャアフォーダンスのアクティブ化)を検出する(1304)。 While displaying the camera user interface, the electronic device (e.g., 600) detects (1304) a request to capture media corresponding to one or more camera fields of view (e.g., 630) (e.g., activation of a capture affordance, such as a physical or virtual camera shutter button).

1つ以上のカメラの視野(例えば、630)に対応するメディアをキャプチャする要求を検出したことに応じて、電子デバイス(例えば、600)は、1つ以上のカメラの視野に対応するメディアをキャプチャし、キャプチャされたメディアの表現(例えば、1224)を表示する(1306)。 In response to detecting a request to capture media corresponding to one or more camera fields of view (e.g., 630), the electronic device (e.g., 600) captures media corresponding to the one or more camera fields of view and displays (1306) a representation (e.g., 1224) of the captured media.

キャプチャされたメディアの表現を表示している間に、電子デバイス(例えば、600)は、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出する(1308)。いくつかの実施形態では、イベントに応じて、所定の時間が開始される(例えば、画像をキャプチャする、カメラアプリケーションを起動するなど)。いくつかの実施形態では、所定の時間の長さは、検出されたイベントに基づいて判定される。例えば、イベントが第1のタイプ(例えば、静止画像)の画像データをキャプチャしている場合、所定の時間は、一定時間(例えば、0.5秒)であり、イベントが第2のタイプ(例えば、ビデオ)の画像データをキャプチャしている場合、所定の時間量は、キャプチャされた画像データの量(例えば、キャプチャされたビデオの長さ)に対応する。 While displaying the representation of the captured media, the electronic device (e.g., 600) detects (1308) that the representation of the captured media has been displayed for a predetermined period of time. In some embodiments, the predetermined period of time is initiated in response to an event (e.g., capturing an image, launching a camera application, etc.). In some embodiments, the length of the predetermined period of time is determined based on the detected event. For example, if the event is capturing image data of a first type (e.g., a still image), the predetermined period of time is a fixed period of time (e.g., 0.5 seconds), and if the event is capturing image data of a second type (e.g., video), the predetermined amount of time corresponds to the amount of image data captured (e.g., the length of the captured video).

いくつかの実施形態では、キャプチャされたメディアの表現が表示されている間に、電子デバイス(例えば、600)は、キャプチャされたメディアの拡大表現を表示する要求に対応するユーザ入力(例えば、キャプチャされたメディアの表現上の選択(例えば、タップ)に対応するユーザ入力)を検出する(1310)。いくつかの実施形態では、キャプチャされたメディアの表現の選択に対応するユーザ入力を検出したことに応じて、電子デバイス(例えば、600)は、表示デバイスを介して、(例えば、メディアの表現を拡大する)キャプチャされたメディアの拡大表現を表示する(1312)。 In some embodiments, while the representation of the captured media is being displayed, the electronic device (e.g., 600) detects (1310) a user input corresponding to a request to display an enlarged representation of the captured media (e.g., a user input corresponding to a selection (e.g., a tap) on the representation of the captured media). In some embodiments, in response to detecting the user input corresponding to a selection of the representation of the captured media, the electronic device (e.g., 600) displays (1312) the enlarged representation of the captured media (e.g., enlarging the representation of the media) via the display device.

いくつかの実施形態では、キャプチャされたメディアの表現は、ディスプレイ上の第5の位置に表示される。いくつかの実施形態では、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも一部分を表示することを停止した後に、電子デバイス(例えば、600)は、第5の位置に複数のカメラ設定を制御するアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)を表示する。カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも一部分を表示することを停止した後、複数のカメラ設定を制御するアフォーダンスを表示することにより、ユーザに、容易にアクセス可能及び使用可能な制御オプションを提供する。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプションを提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを低減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the representation of the captured media is displayed in a fifth position on the display. In some embodiments, after ceasing to display at least a portion of the representation of the captured media while maintaining the display of the camera user interface, the electronic device (e.g., 600) displays an affordance (e.g., a selectable user interface object) for controlling multiple camera settings in the fifth position. Displaying an affordance for controlling multiple camera settings after ceasing to display at least a portion of the representation of the captured media while maintaining the display of the camera user interface provides the user with easily accessible and usable control options. Providing additional control options without cluttering the UI with additional controls displayed improves usability of the device, makes the user-device interface more efficient (e.g., by helping the user make appropriate inputs and reducing user errors when operating/interacting with the device), and also reduces power usage and improves the battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、1つ以上のカメラの視野(例えば、630)に対応するメディア(例えば、ビデオ、動画(例えば、ライブフォト))をキャプチャすることは、画像のシーケンスをキャプチャすることを含む。1つ以上のカメラの視野に対応するメディアをキャプチャするときに画像のシーケンスを(例えば、自動的に、追加のユーザ入力なしで)キャプチャすることによって、電子デバイスは、改善されたフィードバックを提供し、これにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、キャプチャされたメディアの表現を表示することは、少なくとも2つの画像(例えば、ビデオ、写真)を含むキャプチャされた画像のシーケンスの少なくとも一部分を再生することを含む。いくつかの実施形態では、キャプチャされたビデオは、所定の期間にわたってループされる。 In some embodiments, capturing media (e.g., video, moving images (e.g., Live Photos)) corresponding to the field of view (e.g., 630) of one or more cameras includes capturing a sequence of images. By capturing a sequence of images (e.g., automatically, without additional user input) when capturing media corresponding to the field of view of one or more cameras, the electronic device provides improved feedback, which enhances usability of the device and makes the user-device interface more efficient (e.g., by assisting the user in making appropriate inputs when operating/interacting with the device and reducing user errors), as well as allowing the user to use the device more quickly and efficiently, thereby reducing power usage and improving battery life of the device. In some embodiments, displaying a representation of the captured media includes playing at least a portion of the sequence of captured images including at least two images (e.g., video, photos). In some embodiments, the captured video is looped for a predetermined period of time.

いくつかの実施形態では、所定の期間は、画像のキャプチャされたシーケンスの持続時間に基づく(例えば、等しい)。いくつかの実施形態では、キャプチャされたメディアの表現は、ビデオメディアの再生が完了した後に表示を停止される。 In some embodiments, the predetermined period of time is based on (e.g., equal to) the duration of the captured sequence of images. In some embodiments, the representation of the captured media is stopped from being displayed after playback of the video media is completed.

キャプチャされたメディアの表現(例えば、1224)が所定の期間にわたって表示されたことを検出したことに応じて、電子デバイス(例えば、600)は、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも一部分を表示することを停止する(1314)。キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出したことに応じて、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも一部分を表示することを停止することは、操作を実行するために必要な入力の数を減らし、これにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、キャプチャされたメディアの表現を表示することを停止することは、カメラコントロール領域外で動くキャプチャされたメディアの表現のアニメーションを表示することを含む(例えば、所定の時間量が満了すると、画像プレビューはアニメーション内のスクリーン外へ(例えば、左へ)スライドする)。 In response to detecting that the representation of the captured media (e.g., 1224) has been displayed for a predetermined period of time, the electronic device (e.g., 600) stops displaying at least a portion of the representation of the captured media while maintaining a display of the camera user interface (1314). In response to detecting that the representation of the captured media has been displayed for a predetermined period of time, stopping displaying at least a portion of the representation of the captured media while maintaining a display of the camera user interface reduces the number of inputs required to perform operations, thereby enhancing usability of the device and making the user-device interface more efficient (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), as well as reducing power usage and improving battery life of the device by allowing the user to use the device more quickly and efficiently. In some embodiments, stopping displaying the representation of the captured media includes displaying an animation of the representation of the captured media moving outside of the camera control area (e.g., the image preview slides off screen (e.g., to the left) in an animation once the predetermined amount of time has expired).

いくつかの実施形態では、キャプチャされたメディアの表現の一部分は、キャプチャメディアの表現の第1の部分である。いくつかの実施形態では、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも第1の部分を表示することを停止することは、キャプチャされたメディアの表現の少なくとも第2の部分の表示を維持することを更に含む(例えば、表現の縁部は、ユーザインタフェースの縁部(例えば、表示デバイス(又は表示デバイス上のスクリーン)の縁部)の近くに張り出す)。 In some embodiments, the portion of the representation of the captured media is a first portion of the representation of the captured media. In some embodiments, ceasing to display at least the first portion of the representation of the captured media while maintaining a display of the camera user interface further includes maintaining a display of at least a second portion of the representation of the captured media (e.g., an edge of the representation overhangs an edge of the user interface (e.g., an edge of a display device (or a screen on a display device))).

いくつかの実施形態では、表現の第1の部分を表示することを停止する前に、キャプチャされたメディアの表現が、ディスプレイ上の第1の位置に表示される。いくつかの実施形態では、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも第1の部分を表示することを停止することは、ディスプレイ上の第1の位置から表示デバイスの縁部に対応するディスプレイ上の第2の位置に向かって、キャプチャされたメディアの表現を動かす(例えば、スライドする)アニメーションを表示することを更に含む(例えば、アニメーションは、カメラユーザインタフェースの縁部に向かってスライドする表現を示す)。カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも第1の部分を表示することを停止すると、ディスプレイ上の第1の位置から表示デバイスの縁部に対応するディスプレイ上の第2の位置に向かって、キャプチャされたメディアの表現を動かすアニメーションを表示することによって、ユーザに、表現の少なくとも第1の部分が表示から除去されているという視覚的フィードバックを提供する。改善されたフィードバックを提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, prior to ceasing to display the first portion of the representation, a representation of the captured media is displayed at a first location on the display. In some embodiments, ceasing to display at least the first portion of the representation of the captured media while maintaining the display of the camera user interface further includes displaying an animation that moves (e.g., slides) the representation of the captured media from the first location on the display to a second location on the display corresponding to an edge of the display device (e.g., the animation shows the representation sliding toward an edge of the camera user interface). Ceasing to display at least the first portion of the representation of the captured media while maintaining the display of the camera user interface provides visual feedback to the user that at least the first portion of the representation has been removed from display by displaying an animation that moves the representation of the captured media from the first location on the display to a second location on the display corresponding to an edge of the display device. Providing improved feedback improves usability of the device and makes the user-device interface more efficient (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), which further reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、キャプチャされたメディアの表現は、ディスプレイ上の第3の位置に表示される。いくつかの実施形態では、キャプチャされたメディアの第2の表現が表示されている間に、電子デバイス(例えば、600)は、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの第2の表現の少なくとも一部分の表示を停止する要求に対応するユーザ入力(例えば、表示デバイスの縁部に向かうスワイプジェスチャ)を検出する。いくつかの実施形態では、第2の表現の少なくとも一部分の表示を停止する要求を検出したことに応じて、カメラユーザインタフェースの表示を維持している間に、電子デバイス(例えば、600)は、キャプチャされたメディアの第2の表現の少なくとも一部分を表示することを停止する。 In some embodiments, the representation of the captured media is displayed at a third location on the display. In some embodiments, while the second representation of the captured media is displayed, the electronic device (e.g., 600) detects a user input (e.g., a swipe gesture toward an edge of the display device) corresponding to a request to stop displaying at least a portion of the second representation of the captured media while maintaining the display of the camera user interface. In some embodiments, in response to detecting the request to stop displaying at least a portion of the second representation, the electronic device (e.g., 600) stops displaying at least a portion of the second representation of the captured media while maintaining the display of the camera user interface.

いくつかの実施形態では、表現の第1の部分を表示することを停止した後に、電子デバイス(例えば、600)は、表示デバイスの縁部に対応するディスプレイ上の第4の位置から、ディスプレイ上の第4の位置とは異なる第5の位置への接触の移動に対応するユーザ入力(例えば、ディスプレイの縁部からのスワイプ)(例えば、表現(又はプレビュー)を表示(又は再表示)する要求に対応するユーザ入力)を受信する(1316)。いくつかの実施形態では、表示デバイスの縁部に対応するディスプレイ上の第4の位置から、ディスプレイ上の第5の位置への接触の移動に対応するユーザ入力を受信したことに応じて、電子デバイス(例えば、600)は、表現の第1の部分を再表示する(1318)。表示デバイスの縁部に対応するディスプレイ上の第4の位置から、ディスプレイ上の第5の位置への接触の移動に対応するユーザ入力を受信することに応じて、表現の第1の部分を再表示することにより、ユーザが、電子デバイスに迅速かつ容易に表現の第1の部分を再表示させることを可能にする。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, after ceasing to display the first portion of the representation, the electronic device (e.g., 600) receives a user input (e.g., a swipe from an edge of the display) corresponding to a movement of the contact from a fourth position on the display corresponding to an edge of the display device to a fifth position different from the fourth position on the display (e.g., a user input corresponding to a request to display (or redisplay) the representation (or preview) (1316). In some embodiments, in response to receiving the user input corresponding to a movement of the contact from a fourth position on the display corresponding to an edge of the display device to a fifth position on the display, the electronic device (e.g., 600) redisplays (1318) the first portion of the representation. Redisplaying the first portion of the representation in response to receiving the user input corresponding to a movement of the contact from a fourth position on the display corresponding to an edge of the display device to a fifth position on the display allows a user to quickly and easily cause the electronic device to redisplay the first portion of the representation. Providing additional control options without cluttering the UI with additional controls displayed enhances usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、カメラユーザインタフェースが表示されていない間(例えば、カメラユーザインタフェースを破棄した後)に、電子デバイス(例えば、600)は、カメラユーザインタフェースを再表示する要求を受信する(1320)。いくつかの実施形態では、カメラユーザインタフェースを再表示する要求を受信したことに応じて、電子デバイス(例えば、600)は、キャプチャされたメディアの第2の表現を含む(例えば、自動的に含む)、カメラユーザインタフェースの第2のインスタンスを表示する(例えば、自動的に表示する)(1322)。いくつかの実施形態では、キャプチャされたメディアの第2の表現は、ディスプレイの縁部からUI上に平行移動する表現のアニメーション化されたシーケンスにより、表示される。 In some embodiments, while the camera user interface is not being displayed (e.g., after dismissing the camera user interface), the electronic device (e.g., 600) receives a request to redisplay the camera user interface (1320). In some embodiments, in response to receiving the request to redisplay the camera user interface, the electronic device (e.g., 600) displays (e.g., automatically displays) (1322) a second instance of the camera user interface that includes (e.g., automatically includes) a second representation of the captured media. In some embodiments, the second representation of the captured media is displayed with an animated sequence of the representation translating from an edge of the display onto the UI.

いくつかの実施形態では、キャプチャされたメディアの表現を表示している間に、電子デバイスは、キャプチャされたメディアを共有するためのオプションを表示する要求に対応するユーザ入力を受信する。いくつかの実施形態では、キャプチャされたメディアを共有するためのオプションを表示する要求に対応するユーザ入力を受信したことに応じて、電子デバイスは、キャプチャされたメディアを共有するためのユーザインタフェースを表示する。いくつかの実施形態では、キャプチャされたメディアを共有するためのユーザインタフェースは、キャプチャされたメディアを共有するための複数のオプションを含む。 In some embodiments, while displaying a representation of the captured media, the electronic device receives user input corresponding to a request to display options for sharing the captured media. In some embodiments, in response to receiving the user input corresponding to the request to display options for sharing the captured media, the electronic device displays a user interface for sharing the captured media. In some embodiments, the user interface for sharing the captured media includes a plurality of options for sharing the captured media.

方法1300に関して上述したプロセス(例えば、図13A~図13B)の詳細はまた、上記及び以下で説明する方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1500、1700、1900、2000、2100、2300、2500、2700、2800、3000、3200、3400、3600、3800、4000、及び4200は、方法1300を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。 It should be noted that the details of the process (e.g., FIGS. 13A-13B) described above with respect to method 1300 are also applicable in a similar manner to the methods described above and below. For example, methods 700, 900, 1100, 1500, 1700, 1900, 2000, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3400, 3600, 3800, 4000, and 4200 optionally include one or more of the characteristics of the various methods described above with reference to method 1300. For the sake of brevity, these details will not be repeated below.

図14A~図14Uは、いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図15A~図15Cにおける処理を含む、以下で説明する処理を例示するために使用される。 FIGS. 14A-14U show example user interfaces for modifying media items using an electronic device, according to some embodiments. The user interfaces in these figures are used to illustrate the processes described below, including the processes in FIGS. 15A-15C.

図14A~図14Dは、異なるアスペクト比を使用してメディアをキャプチャするようにデバイス600が構成される処理を示す。 Figures 14A-14D show a process by which device 600 is configured to capture media using different aspect ratios.

図14Aに示すように、デバイス600は、1つ以上のカメラの視野の表現であるライブプレビュー630を表示する。ライブプレビュー630は、視覚部分1404及び暗色部分1406を含む。視覚境界部608は、視覚部分1404と暗色部分1406との間にあり、デバイス600上に視覚的に表示される。視覚境界部608は、視覚境界部608の角部に既定の入力位置1410A~1410Dを含む。視覚部分1404は、メディアをキャプチャする要求に応じて、ユーザにキャプチャされ、表示されるメディアの視覚インジケーションである。換言すれば、視覚部分1404は、メディアがキャプチャされ、表現されたときに、典型的に表示されるメディアの表現の一部分の視覚インジケーションである。暗色部分1406は、メディアがキャプチャされ、表現された後に、典型的に表示されないメディアの一部分の視覚インジケーションである。視覚部分1404は、暗色部分1406と視覚的に区別される。具体的には、視覚部分1404は、陰影が付いていないが、暗色部分1406は、陰影が付いている。更には、デバイス600は、ズームアフォーダンス622を表示する。 As shown in FIG. 14A, the device 600 displays a live preview 630, which is a representation of the field of view of one or more cameras. The live preview 630 includes a visual portion 1404 and a dark portion 1406. A visual boundary 608 is between the visual portion 1404 and the dark portion 1406 and is visually displayed on the device 600. The visual boundary 608 includes predefined input positions 1410A-1410D at the corners of the visual boundary 608. The visual portion 1404 is a visual indication of the media that is captured and displayed to the user in response to a request to capture the media. In other words, the visual portion 1404 is a visual indication of a portion of the representation of the media that is typically displayed when the media is captured and rendered. The dark portion 1406 is a visual indication of a portion of the media that is typically not displayed after the media is captured and rendered. The visual portion 1404 is visually distinct from the dark portion 1406. Specifically, the visual portion 1404 is not shaded, while the dark portion 1406 is shaded. Additionally, the device 600 displays a zoom affordance 622.

図14A~図14Dは、全体入力1495Aの様々な部分を示す。全体入力1495Aは、視覚部分1404に対応するアスペクト比を、4×3のアスペクト比1400(例えば、視覚部分1404に対応する4:3アスペクト比)から新しいアスペクト比へ変更する。全体入力1495Aは、入力部分1495A1及び入力部分1495A2を含む。入力の静止構成要素に対応する入力部分1495A1は、全体入力1495Aの第1の部分であり、入力の移動構成要素に対応する入力部分1495A2は、全体入力1495Aの第2の部分である。図14Aに示すように、4×3のアスペクト比1400でメディアをキャプチャするようにデバイス600が構成されている間に、デバイスは、視覚境界部608の右上の角に対応する位置1410Aでの入力部分1495A1を検出する。 14A-14D show various portions of the global input 1495A. The global input 1495A changes the aspect ratio corresponding to the visual portion 1404 from the 4x3 aspect ratio 1400 (e.g., the 4:3 aspect ratio corresponding to the visual portion 1404) to a new aspect ratio. The global input 1495A includes an input portion 1495A1 and an input portion 1495A2. The input portion 1495A1 corresponding to the stationary components of the input is a first portion of the global input 1495A, and the input portion 1495A2 corresponding to the moving components of the input is a second portion of the global input 1495A. As shown in FIG. 14A, while the device 600 is configured to capture media in the 4x3 aspect ratio 1400, the device detects the input portion 1495A1 at a location 1410A that corresponds to the top right corner of the visual boundary 608.

図14Bでは、デバイス600は、入力部分1495A1が所定の期間(例えば、ゼロでない時間長、0.25秒、0.5秒)にわたって位置1410Aで維持されていると判定している。図14Bに示すように、この判定に従って、デバイス600は、視覚境界部608によって囲まれたエリアを収縮する。いくつかの実施形態では、視覚境界部608によって囲まれたエリアを収縮することにより、視覚境界部を(例えば、入力の更なる移動を使用して)現在は修正することができるというインジケーションを提供する。視覚境界部608によって囲まれたエリアを低減することにより、視覚部分1404のエリアが低減し、暗色部分1406のエリアが増加する。いくつかの実施形態では、デバイス600は、視覚境界部608が収縮し、視覚境界部608が空いているエリアに暗色部分1406が拡張する、アニメーションを表示する。視覚境界部608によって囲まれたエリアを収縮することに加えて、デバイス600は、触知出力1412Aを生成し、ズームアフォーダンス622を表示することを停止する。入力部分1495A1を検出した後に、デバイス600は、位置1410Aから認識して、下向き方向に動く全体入力1495Aの入力部分1495A2を検出する。 In FIG. 14B, device 600 determines that input portion 1495A1 has been maintained at position 1410A for a predetermined period of time (e.g., a non-zero amount of time, 0.25 seconds, 0.5 seconds). As shown in FIG. 14B, in accordance with this determination, device 600 shrinks the area enclosed by visual boundary 608. In some embodiments, shrinking the area enclosed by visual boundary 608 provides an indication that the visual boundary can now be modified (e.g., using further movement of the input). Reducing the area enclosed by visual boundary 608 reduces the area of visual portion 1404 and increases the area of dark portion 1406. In some embodiments, device 600 displays an animation of visual boundary 608 shrinking and dark portion 1406 expanding into areas vacant by visual boundary 608. In addition to shrinking the area enclosed by visual boundary 608, device 600 generates tactile output 1412A and stops displaying zoom affordance 622. After detecting input portion 1495A1, device 600 recognizes from position 1410A and detects input portion 1495A2 of global input 1495A moving in a downward direction.

図14Cに示すように、入力部分1495A2を検出したことに応じて、デバイス600は、入力部分1495A2の特性(例えば、大きさ及び/又は方向)に基づいて、視覚境界部608をその元の位置から新しい位置に移動又は平行移動させる。デバイス600は、新たに視覚境界部608を表示する。視覚境界部608を新しい位置で表示している間に、デバイス600は、全体入力1495Aのリフトオフを検出する。 14C, in response to detecting input portion 1495A2, device 600 moves or translates visual boundary 608 from its original position to a new position based on the characteristics (e.g., size and/or orientation) of input portion 1495A2. Device 600 displays new visual boundary 608. While displaying visual boundary 608 in the new position, device 600 detects lift-off of global input 1495A.

図14Dに示すように、入力1495Aのリフトオフを検出したことに応じて、デバイス600は、視覚境界部608を拡張して、視覚境界部608のサイズを正方形のアスペクト比1416(例えば、視覚部分1404に対応する正方形のアスペクト比)に増大させる。正方形のアスペクト比1416は、所定のアスペクト比である。デバイス600は、入力部分1495A2が所定の正方形のアスペクト比に対して所定の近接範囲内にある最終位置を有する視覚境界部608をもたらしたと判定したので、デバイス600は、視覚境界部を、正方形のアスペクト比1416にスナップさせる。全体入力1495Aのリフトオフを検出したことに応じて、デバイス600はまた、触知出力1412Bを生成し、ズームアフォーダンス622を再表示する。更には、デバイス600は、正方形のアスペクト比1416のメディアをキャプチャするようにデバイス600が構成されていることを示す、アスペクト比状態インジケータ1420を表示する。 As shown in FIG. 14D, in response to detecting lift-off of the input 1495A, the device 600 expands the visual boundary 608 to increase the size of the visual boundary 608 to a square aspect ratio 1416 (e.g., a square aspect ratio corresponding to the visual portion 1404). The square aspect ratio 1416 is a predetermined aspect ratio. Because the device 600 determined that the input portion 1495A2 resulted in the visual boundary 608 having a final position that is within a predetermined proximity range to the predetermined square aspect ratio, the device 600 snaps the visual boundary to the square aspect ratio 1416. In response to detecting lift-off of the entire input 1495A, the device 600 also generates a tactile output 1412B and redisplays the zoom affordance 622. Additionally, the device 600 displays an aspect ratio status indicator 1420 that indicates that the device 600 is configured to capture media with a square aspect ratio 1416.

いくつかの実施形態では、所定の正方形のアスペクト比(又は任意の他の所定のアスペクト比)に対して所定の近接範囲内にある最終位置を有さない入力部分1495A2に従って、視覚境界部608は、入力部分1495A2の大きさ及び方向に基づいて、所定のアスペクト比ではなく表示される。このようにして、ユーザは、カスタムアスペクト比を設定するか、又は所定のアスペクト比を容易に選択することができる。いくつかの実施形態では、デバイス600は、拡張する視覚境界部608のアニメーションを表示する。いくつかの実施形態では、デバイス600は、所定のアスペクト比にスナッピングする視覚境界部608のアニメーションを表示する。いくつかの実施形態では、触知出力412Bは、視覚境界部608が所定のアスペクト比(例えば、アスペクト比1416)にスナップされるときに提供される。 In some embodiments, following an input portion 1495A2 that does not have a final position within a predetermined proximity to a predetermined square aspect ratio (or any other predetermined aspect ratio), the visual border 608 is displayed in a non-predetermined aspect ratio based on the size and orientation of the input portion 1495A2. In this manner, a user can set a custom aspect ratio or easily select a predetermined aspect ratio. In some embodiments, the device 600 displays an animation of the visual border 608 expanding. In some embodiments, the device 600 displays an animation of the visual border 608 snapping to the predetermined aspect ratio. In some embodiments, a tactile output 412B is provided when the visual border 608 snaps to the predetermined aspect ratio (e.g., aspect ratio 1416).

図14Eに示すように、デバイス600は、視覚境界部608の右下の角に対応する所定の位置1404B上の全体入力1495Bの入力部分1495B1を検出する。入力部分1495B1は、位置1404Bで少なくとも所定の時間にわたって維持される接触である。図14Fに示すように、入力部分1495B1を検出したことに応じて、デバイス600は、図14Bで論じられたものと同様の技術を実行する。明確にするために、デバイス600は、視覚境界部608によって囲まれたエリアを収縮し、触知出力1412Cを生成する。デバイス600はまた、全体入力1495Bの入力部分1495B2を検出し、この入力は、位置1404Bから離れて下向き方向に動くドラッグである。 As shown in FIG. 14E, the device 600 detects an input portion 1495B1 of the global input 1495B on a predetermined location 1404B corresponding to the lower right corner of the visual boundary 608. The input portion 1495B1 is a contact that is maintained at the location 1404B for at least a predetermined time. As shown in FIG. 14F, in response to detecting the input portion 1495B1, the device 600 performs a technique similar to that discussed in FIG. 14B. For clarity, the device 600 contracts the area enclosed by the visual boundary 608 and generates a tactile output 1412C. The device 600 also detects an input portion 1495B2 of the global input 1495B, which is a drag moving in a downward direction away from the location 1404B.

図14Gに示すように、入力部分1495B2の移動を検出したことに応じて、デバイス600は、入力部分1495B2の特性(例えば、大きさ及び/又は方向)に基づいて、視覚境界部608をその元の位置から新しい位置に移動又は平行移動させる。視覚境界部608を新しい位置に移動させている間に、デバイス600は、視覚境界部608が4×3のアスペクト比1418にあることを検出する。入力1495Bのリフトオフを検出することなく、視覚境界部608が4×3のアスペクト比1418にあることを検出したことに応じて、デバイス600は、触知出力1412Dを発する。更には、デバイス600は、全体入力1495Bがリフトオフなしで依然として維持されているため、正方形のアスペクト比1416のメディアをキャプチャするようにデバイス600が構成されていることを示すアスペクト比状態インジケータ1420の表示を維持し、アスペクト比状態インジケータ1420を更新することをやめて、アスペクト比1418(例えば、4:3)のメディアをキャプチャするようにデバイス600が構成されていることを示す。 14G, in response to detecting movement of input portion 1495B2, device 600 moves or translates visual border 608 from its original position to a new position based on characteristics (e.g., size and/or orientation) of input portion 1495B2. While moving visual border 608 to the new position, device 600 detects that visual border 608 is in a 4x3 aspect ratio 1418. In response to detecting visual border 608 is in a 4x3 aspect ratio 1418 without detecting lift-off of input 1495B, device 600 emits tactile output 1412D. Additionally, the device 600 continues to display the aspect ratio status indicator 1420 indicating that the device 600 is configured to capture media with a square aspect ratio 1416 because the full input 1495B is still maintained without liftoff, and ceases to update the aspect ratio status indicator 1420 to indicate that the device 600 is configured to capture media with an aspect ratio 1418 (e.g., 4:3).

図14Hに示すように、デバイス600は、入力部分1495B2を検出し続ける。視覚境界部608は、ここではアスペクト比1421であり、図14Gに示すその位置から新しい位置に移動した。視覚境界部608を新しい位置で表示している間に、デバイス600は、全体入力1495Bのリフトオフを検出する。 As shown in FIG. 14H, device 600 continues to detect input portion 1495B2. Visual border 608, now aspect ratio 1421, has moved to a new position from its position shown in FIG. 14G. While displaying visual border 608 in the new position, device 600 detects liftoff of entire input 1495B.

図14Iに示すように、入力1495Bのリフトオフを検出したことに応じて、デバイス600は、1495Aのリフトオフの検出に対する応答に関連して、図14Dで論じられたものと同様の技術を実行する。明確にするために、図14Iに示すように、デバイス600は、視覚境界部608を所定の16×9のアスペクト比1422に拡張する。更には、デバイス600は、ズームアフォーダンス622を再表示し、アスペクト比状態インジケータ1418を更新して、16×9のアスペクト比1422(例えば、16:9)のメディアをキャプチャするようにデバイス600が構成されていることを示す。いくつかの実施形態では、デバイス600は、入力1495Bのリフトオフに応じて、触知出力を生成する。 14I, in response to detecting lift-off of input 1495B, device 600 performs a technique similar to that discussed in FIG. 14D in response to detecting lift-off of 1495A. For clarity, as shown in FIG. 14I, device 600 expands visual boundary 608 to a predetermined 16×9 aspect ratio 1422. Additionally, device 600 redisplays zoom affordance 622 and updates aspect ratio status indicator 1418 to indicate that device 600 is configured to capture media with a 16×9 aspect ratio 1422 (e.g., 16:9). In some embodiments, device 600 generates a tactile output in response to lift-off of input 1495B.

図14Jに示すように、デバイス600は、視覚境界部608の角に対応する既定の入力位置1404B上の入力1495C(例えば、連続的な上向きスワイプジェスチャ)を検出する。デバイス600は、1495Cが所定の期間(例えば、図14Bに関して論じられたのと同じ所定の期間)にわたって既定の入力位置1404B上で維持されていないと判定する。 As shown in FIG. 14J, device 600 detects input 1495C (e.g., a continuous upward swipe gesture) on predefined input location 1404B corresponding to a corner of visual boundary 608. Device 600 determines that 1495C is not maintained on predefined input location 1404B for a predetermined period of time (e.g., the same predetermined period of time discussed with respect to FIG. 14B).

図14Kに示すように、入力1495Cに応じて、デバイス600は、上記図8A~図8Bにおいてカメラ設定アフォーダンス802を表示するための上述された技術に従って、カメラ設定アフォーダンス624を表示する。しかしながら、入力1495Cが視覚境界部608の角部に対応する位置1404Bで静止接触を含まなかったため、デバイス600は、入力1495Cに応じて、視覚境界部608を調整しない。いくつかの実施形態では、カメラ設定アフォーダンス624及びカメラ設定アフォーダンス802は、同一である。カメラ設定アフォーダンス624を表示している間に、デバイス600は、アスペクト比コントロール1426上の入力1495Dを検出する。 As shown in FIG. 14K, in response to input 1495C, device 600 displays camera setting affordance 624 according to the techniques described above for displaying camera setting affordance 802 in FIGS. 8A-8B above. However, device 600 does not adjust visual boundary 608 in response to input 1495C because input 1495C did not include a resting contact at location 1404B corresponding to a corner of visual boundary 608. In some embodiments, camera setting affordance 624 and camera setting affordance 802 are identical. While displaying camera setting affordance 624, device 600 detects input 1495D on aspect ratio control 1426.

図14Lに示すように、入力1495Dを検出したことに応じて、デバイス600は、調整可能なアスペクト比コントロール1470を表示する。調整可能なアスペクト比コントロール1470は、アスペクト比オプション1470A~1470Dを含む。図14Lに示すように、アスペクト比オプション1495Cは、太字化され、かつ選択され、これは、アスペクト比状態インジケータ1420によって示される状態と一致する。調整可能なアスペクト比コントロール1470を表示している間に、デバイス600は、アスペクト比オプション1470B上の入力1495Eを検出する。 As shown in FIG. 14L, in response to detecting input 1495D, device 600 displays adjustable aspect ratio control 1470. Adjustable aspect ratio control 1470 includes aspect ratio options 1470A-1470D. As shown in FIG. 14L, aspect ratio option 1495C is bolded and selected, which corresponds to the state indicated by aspect ratio state indicator 1420. While displaying adjustable aspect ratio control 1470, device 600 detects input 1495E on aspect ratio option 1470B.

図14Mに示すように、入力1495Eを検出したことに応じて、デバイス600は、視覚境界部1408及び視覚部分1410を16×9のアスペクト比から4×3のアスペクト比に更新する。図14Mでは、デバイス600は、入力1495Fを検出し、この入力は、ライブプレビュー630における下向きスワイプである。 As shown in FIG. 14M, in response to detecting input 1495E, device 600 updates visual border 1408 and visual portion 1410 from a 16×9 aspect ratio to a 4×3 aspect ratio. In FIG. 14M, device 600 detects input 1495F, which is a downward swipe on live preview 630.

14Nに示すように、入力1495Fを検出したことに応じて、デバイス600は、図8Q~図8Rにおいて上述された技術に従って、カメラ設定アフォーダンス624を表示することを停止する。図14Nでは、デバイス600は、入力1495Gを検出し、この入力は、視覚境界部608の右上の角に対応する既定の入力位置1410Aでのタップジェスチャである。 14N, in response to detecting input 1495F, device 600 stops displaying camera settings affordance 624 according to the techniques described above in FIGS. 8Q-8R. In FIG. 14N, device 600 detects input 1495G, which is a tap gesture at predefined input location 1410A corresponding to the upper right corner of visual boundary 608.

図14Oに示すように、入力1495Gを検出したことに応じて、デバイス600は、入力1495Gが所定の期間にわたって既定の入力位置1410Aで維持されなかったと判定する。入力1495Gが視覚境界部を調整する条件を満たさなかったため、デバイス600は、入力1495Gに応じて、視覚境界部608を調整しない。入力1495Gに応じて、デバイス600は、ライブプレビュー630を更新し、タップ入力1495Gの位置に基づいて、焦点及び露出設定を調整することにより画像キャプチャ設定を調整する。図14Oに示すように、視覚部分1404は、更新された焦点及び露出設定により、よりぼけて、かつ焦点から外れて見える。 As shown in FIG. 14O, in response to detecting the input 1495G, the device 600 determines that the input 1495G was not maintained at the default input position 1410A for a predetermined period of time. Because the input 1495G did not satisfy a condition for adjusting the visual boundary, the device 600 does not adjust the visual boundary 608 in response to the input 1495G. In response to the input 1495G, the device 600 updates the live preview 630 and adjusts the image capture settings by adjusting the focus and exposure settings based on the position of the tap input 1495G. As shown in FIG. 14O, the visual portion 1404 appears blurrier and out of focus with the updated focus and exposure settings.

図14Pでは、デバイス600は、ライブプレビュー630内の位置(例えば、視覚境界部608の角1410A~1410Dのうちの1つではない位置)上の全体入力1495Hの入力部分1495H1を検出する。全体入力1495Hは、第1の接触、続いてリフトオフ、及び次いで第2の接触を含む。入力部分1495H1は、所定の期間よりも長く維持される(例えば、図14Bの入力部分1495A1と少なくとも同じ期間にわたって維持される)静止接触(例えば、全体入力1495Hの第1の接触)である。 In FIG. 14P, device 600 detects input portion 1495H1 of global input 1495H on a location within live preview 630 (e.g., a location that is not one of corners 1410A-1410D of visual boundary 608). Global input 1495H includes a first contact, followed by a lift-off, and then a second contact. Input portion 1495H1 is a stationary contact (e.g., the first contact of global input 1495H) that is maintained for longer than a predetermined period of time (e.g., maintained for at least the same period of time as input portion 1495A1 of FIG. 14B).

図14Qに示すように、入力部分1495H1を検出したことに応じて、デバイス600は、ライブプレビューを更新し、入力部分1495H1の位置での光値に基づいてキャプチャ設定を更新する、露出ロック機能をアクティブ化する。デバイス600はまた、露出設定マニピュレータ1428表示する。 As shown in FIG. 14Q, in response to detecting input portion 1495H1, device 600 activates an exposure lock function that updates the live preview and updates the capture settings based on the light values at the location of input portion 1495H1. Device 600 also displays exposure settings manipulator 1428.

図14Rでは、デバイス600は、全体入力1495Hの入力部分1495H2(例えば、全体入力1495Hの第2の接触)を検出し、この入力は、全体入力1495Hの第2の接触で実行されるドラッグの移動である。図14Sに示すように、デバイス600は、入力部分1495H2の特性(例えば、大きさ及び/又は方向)に基づいて、露出設定マニピュレータ1428を新しい値に更新する。 In FIG. 14R, the device 600 detects an input portion 1495H2 (e.g., a second contact of the global input 1495H) of the global input 1495H, which is a drag movement performed on the second contact of the global input 1495H. As shown in FIG. 14S, the device 600 updates the exposure setting manipulator 1428 to a new value based on the characteristics (e.g., magnitude and/or direction) of the input portion 1495H2.

図14Tに示すように、デバイス600は、露出設定マニピュレータ1428の表示を維持する。デバイス600はまた、入力1495Iを検出し、この入力は、既定の入力位置1410Aから開始する水平スワイプであり、この入力位置は、視覚境界部608の右上の角である。 As shown in FIG. 14T, the device 600 maintains display of the exposure setting manipulator 1428. The device 600 also detects an input 1495I, which is a horizontal swipe starting from the default input location 1410A, which is the upper right corner of the visual boundary 608.

図14Uに示すように、入力1495Iを検出したことに応じて、デバイス600は、図8D~図8Hで論じられた同様の技術に従ってカメラモードを変更する。しかしながら、入力1495Iが視覚境界部608の角部に対応する既定の入力位置1410Aで所定の期間にわたって検出された静止接触構成要素を含まなかったため、デバイス600は、入力1495Iに応じて、視覚境界部608を調整しない。 As shown in FIG. 14U, in response to detecting input 1495I, device 600 changes camera mode according to similar techniques discussed in FIGS. 8D-8H. However, because input 1495I did not include a stationary contact component detected for a predetermined period of time at predefined input location 1410A corresponding to a corner of visual boundary 608, device 600 does not adjust visual boundary 608 in response to input 1495I.

図15A~図15Cは、いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための方法を示すフロー図である。方法1500は、表示デバイス及び1つ以上のカメラ(例えば、電子デバイスの異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を備えるデバイス(例えば、100、300、500、600)で実行される。方法1500のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 15A-15C are flow diagrams illustrating a method for modifying a media item using an electronic device, according to some embodiments. Method 1500 is performed on a device (e.g., 100, 300, 500, 600) that includes a display device and one or more cameras (e.g., one or more cameras (e.g., dual camera, triple camera, quad camera, etc.) on different sides (e.g., front camera, rear camera) of the electronic device). Some operations of method 1500 are optionally combined, the order of some operations is optionally changed, and some operations are optionally omitted.

いくつかの実施形態では、電子デバイス(例えば、600)は、コンピュータシステムである。コンピュータシステムは、任意選択的に、ディスプレイ生成構成要素と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the electronic device (e.g., 600) is a computer system. The computer system is optionally in communication (e.g., wired communication, wireless communication) with a display generation component and with one or more input devices. The display generation component is configured to provide visual output, such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. The one or more input devices are configured to receive input, such as a touch-sensitive surface that receives user input. In some embodiments, the one or more input devices are integrated with the computer system. In some embodiments, the one or more input devices are separate from the computer system. Thus, the computer system can transmit data (e.g., image data or video data) via a wired or wireless connection to an integrated or external display generation component to visually generate content (e.g., using a display device) and can receive wired or wireless connection input from one or more input devices.

後述するように、方法1500は、メディアアイテムを修正するための直感的な仕方を提供する。この方法は、メディアアイテムを修正する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアアイテムを修正することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, method 1500 provides an intuitive way to modify media items. The method reduces the cognitive burden on the user when modifying media items, thereby creating a more efficient human-machine interface. For battery-operated computing devices, enabling users to modify media items more quickly and efficiently conserves power and extends the time between battery charges.

電子デバイス(例えば、600)は、表示デバイスを介して、1つ以上のカメラの視野の表現(例えば、630)を含むカメラディスプレイ領域(例えば、604)を含む(例えば、同時に表示する)、カメラユーザインタフェースを表示する(1502)。 The electronic device (e.g., 600) displays (1502) via a display device a camera user interface that includes (e.g., simultaneously displays) a camera display area (e.g., 604) that includes a representation (e.g., 630) of the field of view of one or more cameras.

いくつかの実施形態では、カメラユーザインタフェースは、第1のメディアキャプチャモードで動作するように電子デバイス(例えば、600)が構成されているインジケーションを更に含む。いくつかの実施形態では、カメラディスプレイ領域(例えば、604)上の第2の方向(例えば、垂直)の第4の接触の連続的移動を検出することを含む、第4の入力の検出に従って(例えば、第3の所定の閾値を上回る)(例えば、特性を調整するコントロールを表示する要求)(いくつかの実施形態では、特性を調整するコントロールを表示する要求は、カメラモードを切り替える要求のためのコンテンツの連続的な移動によって検出される方向とは異なる(例えば、反対の)方向の連続的な接触の移動によって検出される)、電子デバイス(例えば、600)は、メディアキャプチャ動作に関連付けられた特性(例えば、設定)を調整するコントロール(例えば、スライダ)を表示する。第2の方向の第4の接触の連続的な移動を検出することを含む、第4の入力の検出に従って、メディアキャプチャ動作に関連付けられた特性を調整するコントロールを表示することにより、ユーザが、コントロールに迅速かつ容易にアクセスすることを可能にする。表示される追加のコントロールによってUIを雑然とさせることなく追加のコントロールオプションを提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに、適切な入力を提供するようにユーザを支援し、ユーザの誤りを低減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用を低減し、デバイスのバッテリ寿命を改善する。いくつかの実施形態では、メディアキャプチャ動作に関連付けられた特性を調整するコントロールを表示している間に、電子デバイス(例えば、600)は、特性(例えば、光量、持続時間など)の第1の値の第1のインジケーション(例えば、数値、スライダトラック上のスライダノブ(例えば、バー))を表示する。いくつかの実施形態では、メディアキャプチャ動作(例えば、光量、持続時間など)に関連付けられた特性の第2の値に制御特性(例えば、光量、持続時間など)を調整するための要求(コントロール上のスライダコントロールを調整可能なコントロール上のインジケーション(例えば、値)にドラッグすること)を受信したことに応じて、電子デバイス(例えば、600)は、特性の第1の値の第1のインジケーションの表示を、特性の値の第2のインジケーションの表示に置き換える。いくつかの実施形態では、特性の値は、設定時に表示される。いくつかの実施形態では、特性の値は、表示されない。 In some embodiments, the camera user interface further includes an indication that the electronic device (e.g., 600) is configured to operate in a first media capture mode. In some embodiments, pursuant to detection of a fourth input (e.g., above a third predetermined threshold) (e.g., a request to display a control to adjust a property) including detecting continuous movement of a fourth contact in a second direction (e.g., vertical) on the camera display area (e.g., 604) (in some embodiments, the request to display a control to adjust the property is detected by continuous movement of the contact in a direction different (e.g., opposite) from the direction detected by the continuous movement of the content for the request to switch camera modes), the electronic device (e.g., 600) displays a control (e.g., a slider) to adjust a property (e.g., a setting) associated with the media capture operation. Displaying a control to adjust a property associated with the media capture operation pursuant to detection of the fourth input including detecting continuous movement of the fourth contact in the second direction allows a user to quickly and easily access the control. Providing additional control options without cluttering the UI with additional controls displayed improves usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs and reducing user errors when operating/interacting with the device), and reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently. In some embodiments, while displaying a control for adjusting a characteristic associated with a media capture operation, the electronic device (e.g., 600) displays a first indication (e.g., a numeric value, a slider knob (e.g., a bar) on a slider track) of a first value of the characteristic (e.g., light amount, duration, etc.). In some embodiments, in response to receiving a request (dragging a slider control on a control to an indication (e.g., value) on an adjustable control) to adjust a control characteristic (e.g., light amount, duration, etc.) to a second value of the characteristic associated with the media capture operation (e.g., light amount, duration, etc.), the electronic device (e.g., 600) replaces the display of the first indication of the first value of the characteristic with a display of a second indication of the value of the characteristic. In some embodiments, the value of the property is displayed when set. In some embodiments, the value of the property is not displayed.

メディアをキャプチャする要求を受信したことに応じて(例えば、物理カメラシャッターボタンのアクティブ化又は仮想カメラシャッターボタンのアクティブ化に応じて)、第1のアスペクト比(例えば、1400)でメディアをキャプチャするように電子デバイス(例えば、600)が構成されている間に、電子デバイスは、1つ以上のカメラの視野の表現上のそれぞれの位置(例えば、カメラディスプレイ領域の角部に対応する位置)に第1の接触を含む第1の入力(例えば、タッチアンドホールド)を検出する(1504)。 In response to receiving a request to capture media (e.g., in response to activation of a physical camera shutter button or activation of a virtual camera shutter button), while the electronic device (e.g., 600) is configured to capture media in a first aspect ratio (e.g., 1400), the electronic device detects (1504) a first input (e.g., a touch and hold) including a first contact at a respective location (e.g., a location corresponding to a corner of a camera display area) on a representation of the field of view of one or more cameras.

第1の入力を検出したことに応じて(1506)、1組のアスペクト比変化基準が満たされているとの判定に従って、電子デバイス(例えば、600)は、メディアをキャプチャする要求に応じて(例えば、物理カメラシャッターボタンのアクティブ化又は仮想カメラシャッターボタンのアクティブ化に応じて)、第1のアスペクト比とは異なる第2のアスペクト比(例えば、1416)でメディアをキャプチャするように電子デバイスを構成する(1508)。1組のアスペクト比変化基準は、少なくとも閾値時間量にわたってメディアをキャプチャする要求(例えば、物理カメラシャッターボタンのアクティブ化又は仮想カメラシャッターボタンのアクティブ化)に応じてキャプチャされるメディアの境界部の少なくとも一部分を示すカメラディスプレイ領域の既定の部分(例えば、角部)に対応する第1の位置で第1の接触を維持し、続いて、第1の位置とは異なる第2の位置への第1の接触の移動を検出することを第1の入力が含むときに満たされる基準を含む(1510)。メディアをキャプチャする要求に応じて、1組のアスペクト比変化基準が満たされているとの判定に従って、第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように電子デバイスを構成することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされたときに動作を実行し、これにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In response to detecting the first input (1506), in accordance with a determination that a set of aspect ratio change criteria is satisfied, the electronic device (e.g., 600) configures (1508) the electronic device to capture media in a second aspect ratio (e.g., 1416) that is different from the first aspect ratio in response to a request to capture media (e.g., in response to activation of a physical camera shutter button or activation of a virtual camera shutter button). The set of aspect ratio change criteria includes criteria that are satisfied when the first input includes maintaining a first contact at a first position corresponding to a predefined portion (e.g., a corner) of a camera display area indicative of at least a portion of a border of media to be captured in response to a request to capture media (e.g., activation of a physical camera shutter button or activation of a virtual camera shutter button) for at least a threshold amount of time, followed by detecting a movement of the first contact to a second position that is different from the first position (1510). By configuring the electronic device to capture media in a second aspect ratio different from the first aspect ratio in response to a request to capture media pursuant to a determination that a set of aspect ratio change criteria are satisfied, the electronic device performs an action when the set of conditions are satisfied without requiring further user input, thereby enhancing usability of the device and making the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs and reducing user errors when operating/interacting with the device), as well as reducing power usage and improving battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1の入力の少なくとも第1の部分を検出したことに応じて、第1の入力の第1の部分が少なくとも閾値時間量にわたって第1の位置で第1の接触を維持することを含むとの判定に従って、電子デバイス(例えば、600)は、第1の触知(例えば、触覚)出力を提供する(1512)。第1の入力の第1の部分が少なくとも閾値時間量にわたって第1の位置で第1の接触を維持することを含むとの判定に従って、第1の触知出力を提供することは、第1の接触が少なくとも閾値時間量にわたって第1の位置で維持されているというフィードバックをユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, in response to detecting at least a first portion of the first input, the electronic device (e.g., 600) provides a first tactile (e.g., haptic) output (1512) in accordance with a determination that the first portion of the first input includes maintaining a first contact at the first position for at least a threshold amount of time. Providing the first tactile output in accordance with a determination that the first portion of the first input includes maintaining a first contact at the first position for at least a threshold amount of time provides feedback to the user that the first contact has been maintained at the first position for at least the threshold amount of time. Providing improved feedback improves usability of the device and provides a more efficient user-device interface (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1の入力の少なくとも第2の部分を検出したことに応じて、第1の入力の第2の部分が少なくとも閾値時間量にわたって第1の位置で第1の接触を維持することを含むとの判定に従って、電子デバイス(例えば、600)は、メディアをキャプチャする要求に応じてキャプチャされるメディアの境界部(例えば、1410)(例えば、ボックス)の視覚インジケーションを表示する(1514)。第1の入力の第2の部分が少なくとも閾値時間量にわたって第1の位置で第1の接触を維持することを含むとの判定に従って、キャプチャされるメディアの境界部の視覚インジケーションを表示することにより、メディアの一部分がキャプチャされるという視覚的フィードバックをユーザに提供する。ユーザに改善された視覚的フィードバックを提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in response to detecting at least a second portion of the first input, in accordance with a determination that the second portion of the first input includes maintaining the first contact at the first location for at least the threshold amount of time, the electronic device (e.g., 600) displays (1514) a visual indication of a boundary (e.g., 1410) (e.g., a box) of the media to be captured in response to a request to capture the media. Displaying a visual indication of a boundary of the media to be captured in accordance with a determination that the second portion of the first input includes maintaining the first contact at the first location for at least the threshold amount of time provides visual feedback to the user that a portion of the media is being captured. Providing improved visual feedback to the user improves usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), and also reduces power usage and improves the battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、視覚インジケーション(例えば、1410)が表示されている間に、かつ第1の入力の少なくとも第3の部分を検出したことに応じて、第1の入力の第3の部分が第1の接触の移動を含むとの判定に従って、第1の接触が閾値時間量にわたって第1の位置で維持された後に、第1の接触の移動は第1の大きさ及び第1の方向を有し、電子デバイス(例えば、600)は、第1の大きさ及び第1の方向に基づいて視覚インジケーションの外観を修正する(例えば、視覚インジケーションを調整して、キャプチャされるメディアの境界部への変化を示す)(1516)。 In some embodiments, while the visual indication (e.g., 1410) is displayed, and in response to detecting at least a third portion of the first input, in accordance with a determination that the third portion of the first input includes movement of the first contact, the movement of the first contact has a first magnitude and a first direction after the first contact is maintained at the first position for a threshold amount of time, the electronic device (e.g., 600) modifies an appearance of the visual indication (e.g., adjusts the visual indication to indicate a change to a boundary of the captured media) based on the first magnitude and the first direction (1516).

いくつかの実施形態では、第1の入力の少なくとも第1の部分を検出したことに応じて、第1の入力の第1の部分が少なくとも閾値時間量にわたって第1の位置で第1の接触を維持することを含むとの判定に従って、電子デバイス(例えば、600)は、視覚インジケーションによって示される1つ以上のカメラの視野の表現の一部分のサイズを縮小することを含むアニメーション(例えば、押し戻されている(又は収縮している)境界部のアニメーション)を表示する(1518)。第1の入力の第1の部分が少なくとも閾値時間量にわたって第1の位置で第1の接触を維持することを含むとの判定に従って、視覚インジケーションによって示される1つ以上のカメラの視野の表現の一部分のサイズを縮小することを含むアニメーションを表示することにより、表現の一部分のサイズが縮小され、一方、ユーザが、サイズを迅速かつ容易に低減することもできるという視覚的フィードバックをユーザに提供する。表示される追加のコントロールによってUIを雑然とさせることなく、改善された視覚的フィードバック及び追加の制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, in response to detecting at least a first portion of the first input, in accordance with a determination that the first portion of the first input includes maintaining a first contact at the first position for at least a threshold amount of time, the electronic device (e.g., 600) displays (1518) an animation (e.g., an animation of a boundary being pushed back (or contracting)) that includes reducing a size of a portion of the representation of the field of view of the one or more cameras indicated by the visual indication in accordance with a determination that the first portion of the first input includes maintaining a first contact at the first position for at least a threshold amount of time. By displaying an animation that includes reducing a size of a portion of the representation of the field of view of the one or more cameras indicated by the visual indication in accordance with a determination that the first portion of the first input includes maintaining a first contact at the first position for at least a threshold amount of time, the size of the portion of the representation is reduced while providing visual feedback to the user that the user can also quickly and easily reduce the size. Providing improved visual feedback and additional control options without cluttering the UI with additional controls displayed enhances usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs and reducing user errors when operating/interacting with the device), and also reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、視覚インジケーションが表示されている間に、かつ第1の入力の少なくとも第4の部分を検出したことに応じて、第1の入力の第4の部分が第1の接触のリフトオフを含むとの判定に従って、電子デバイス(例えば、600)は、視覚インジケーションによって示される1つ以上のカメラの視野の表現の一部分のサイズを増大する(例えば、第1の境界部ボックスを第1の比率(例えば、拡張率)で拡張する)ことを含むアニメーションを表示する(1520)。 In some embodiments, while the visual indication is being displayed, and in response to detecting at least a fourth portion of the first input, in accordance with a determination that the fourth portion of the first input includes a lift-off of the first contact, the electronic device (e.g., 600) displays (1520) an animation that includes increasing a size of a portion of the representation of the field of view of the one or more cameras indicated by the visual indication (e.g., expanding a first bounding box by a first ratio (e.g., expansion ratio)).

いくつかの実施形態では、1つ以上のカメラの視野の表現の第1の部分は、メディアの境界部の視覚インジケーション(例えば、1410)によって選択されたものとして示され(例えば、境界部(例えば、ボックス)内に取り囲まれ)、1つ以上のカメラの視野の表現の第2の部分は、メディアの境界部の視覚インジケーションによって選択されたものとして示されていない(例えば、境界部(例えば、ボックス)の外側)。第1の部分がメディアの境界部の視覚インジケーションによって選択されたものとして示され、第2の部分がメディアの境界部の視覚インジケーションによって選択されたものとして示されていないことにより、ユーザが、選択されているかされていない表現の部分を迅速かつ容易に視覚的に区別することを可能にする。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。いくつかの実施形態では、第2の部分は、第1の部分と視覚的に区別される(例えば、暗色の又は陰影付きの外観を有する)(例えば、1つ以上のカメラの視野の第2の部分上に半透明オーバーレイを有する)。 In some embodiments, a first portion of the representation of the field of view of one or more cameras is indicated as selected by a visual indication of the media's boundary (e.g., 1410) (e.g., surrounded by a boundary (e.g., a box)) and a second portion of the representation of the field of view of one or more cameras is not indicated as selected by a visual indication of the media's boundary (e.g., outside the boundary (e.g., a box)). The first portion is indicated as selected by a visual indication of the media's boundary and the second portion is not indicated as selected by a visual indication of the media's boundary allows a user to quickly and easily visually distinguish between the portions of the representation that are selected and those that are not. Providing improved visual feedback to the user improves usability of the device and provides a more efficient user-device interface (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), which further reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently. In some embodiments, the second portion is visually distinct from the first portion (e.g., has a dark or shaded appearance) (e.g., has a semi-transparent overlay over the second portion of the field of view of one or more cameras).

いくつかの実施形態では、第2のアスペクト比(例えば、1416)でメディアをキャプチャするように電子デバイス(例えば、600)を構成することは、第1の移動範囲(例えば、全てが所定のアスペクト比に対応するベクトルの範囲)内にある移動(例えば、大きさ及び方向)の第1の大きさ及び/又は方向を有する第2の位置への第1の接触の移動に従って、所定のアスペクト比(例えば、4:3、正方形、16:9)でメディアをキャプチャするように電子デバイスを構成することを含む。いくつかの実施形態では、第2のアスペクト比でメディアをキャプチャするように電子デバイス(例えば、600)を構成することは、第1の移動範囲(例えば、全てが所定のアスペクト比に対応するベクトルの範囲)内にない移動(例えば、大きさ及び方向)の第2の大きさ及び/又は方向を有する第2の位置への第1の接触の移動に従って、所定ではなく(例えば、動的アスペクト比)、かつ移動の第2の大きさ及び/又は方向に基づく(例えば、移動の大きさ及び/又は方向に基づく)アスペクト比でメディアをキャプチャするように電子デバイスを構成することを含む。 In some embodiments, configuring the electronic device (e.g., 600) to capture media in a second aspect ratio (e.g., 1416) includes configuring the electronic device to capture media in a predetermined aspect ratio (e.g., 4:3, square, 16:9) according to movement of the first contact to a second position having a first magnitude and/or direction of movement (e.g., magnitude and direction) that is within a first range of movement (e.g., a range of vectors all corresponding to a predetermined aspect ratio). In some embodiments, configuring the electronic device (e.g., 600) to capture media in a second aspect ratio includes configuring the electronic device to capture media in an aspect ratio that is not predetermined (e.g., a dynamic aspect ratio) and is based on a second magnitude and/or direction of movement (e.g., based on the magnitude and/or direction of movement) according to movement of the first contact to a second position having a second magnitude and/or direction of movement (e.g., magnitude and direction) that is not within the first range of movement (e.g., a range of vectors all corresponding to a predetermined aspect ratio).

いくつかの実施形態では、所定のアスペクト比でメディアをキャプチャするように電子デバイス(例えば、600)を構成することは、1つ以上の触知出力デバイスを介して、第2の触知(例えば、触覚)出力を生成することを含む。所定のアスペクト比でメディアをキャプチャするように電子デバイスを構成するときに、第2の触知出力を生成することにより、アスペクト比設定のフィードバックをユーザに提供する。改良されたフィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, configuring the electronic device (e.g., 600) to capture media in the predetermined aspect ratio includes generating a second tactile (e.g., haptic) output via one or more tactile output devices. Generating the second tactile output when configuring the electronic device to capture media in the predetermined aspect ratio provides feedback to the user of the aspect ratio setting. Providing improved feedback to the user improves usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), and also reduces power usage and improves the battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1の入力を検出する前に、電子デバイス(例えば、600)は、第1のカメラモードを使用してメディアをキャプチャするように構成される。いくつかの実施形態では、各カメラモード(例えば、ビデオ、写真(phot)/静止(still)、ポートレート、スローモーション、パノラマモード)は、カメラ(例えば、カメラセンサ)がメディアをキャプチャするように動作している(キャプチャ後に自動的に実行される後処理を含む)モード(例えば、ポートレートモード)の複数の値(例えば、各設定の光のレベル)を有する複数の設定(例えば、ポートレートカメラモードについて:スタジオ照明設定、輪郭照明設定、舞台照明設定)を有する。このようにして、例えば、カメラモードは、メディアをキャプチャするときにカメラがどのように動作するかに影響を及ぼさない又は複数の設定(例えば、複数の値(例えば、非アクティブ、アクティブ、自動)を有する1つの設定を有するフラッシュモード)を含まないモードとは異なる。いくつかの実施形態では、カメラモードにより、ユーザは、異なるタイプのメディア(例えば、写真又はビデオ)をキャプチャすることを可能にし、各モードの設定を最適化して、特定の特性(例えば、形状(例えば、正方形、矩形)、速さ(例えば、スローモーション、時間経過)、オーディオ、ビデオ)を有する特定のモードに対応する特定のタイプのメディアを(例えば、後処理を介して)キャプチャすることができる。例えば、静止写真モードで動作するように電子デバイス(例えば、600)が構成されている場合、電子デバイスの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定、1つ以上のフィルタ設定)を有する第1のタイプ(例えば、矩形の写真)のメディアをキャプチャし、正方形モードで動作するように電子デバイスが構成されているときに、電子デバイスの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定及び1つ以上のフィルタ)を有する第2のタイプ(例えば、正方形の写真)のメディアをキャプチャし、スローモーションモードで動作するように電子デバイスが構成されているときに、電子デバイスの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定、一秒当たりのフレームキャプチャ速度)を有する第3のタイプ(例えば、スローモーションビデオ)のメディアをキャプチャし、ポートレートモードで動作するように電子デバイスが構成されているときに、電子デバイスの1つ以上のカメラは、特定の設定(例えば、特定のタイプの光(例えば、舞台光、スタジオ光、輪郭光)の量、f値、ぼかし)を有する第5のタイプ(例えば、ポートレート写真(例えば、ぼかしをかけた背景を有する写真))のメディアをキャプチャし、パノラマモードで動作するように電子デバイスが構成されているときに、電子デバイスの1つ以上のカメラは、特定の設定(例えば、ズーム、移動しながらキャプチャするための視野の量)を有する第4のタイプ(例えば、パノラマ写真(例えば、広い写真)のメディアをキャプチャする。いくつかの実施形態では、モード間の切り替え時、視野の表現の表示は、モードによってキャプチャされるメディアのタイプに対応するように変化する(例えば、電子デバイスが静止写真モードで動作している間、この表現は、矩形モードであり、電子デバイスが正方形モードで動作している間、この表現は、正方形である)。いくつかの実施形態では、電子デバイス(例えば、600)は、デバイスが第1のカメラモードに構成されているというインジケーションを表示する。いくつかの実施形態では、第1の入力を検出したことに応じて、第1の入力が閾値時間量にわたって第1の位置で第1の接触を維持することを含まないとの判定、及び第1の入力が第1の移動閾値を上回る第1の接触の移動を含む(例えば、第1の入力は、初期休止なしで表示デバイスの一部分を横切るスワイプである)との判定に従って、第1のカメラモードとは異なる第2のカメラモードを使用してメディアをキャプチャするように電子デバイス(例えば、600)を構成することを含む。いくつかの実施形態では、電子デバイス(例えば、600)は、第2のカメラモードにある間、第1のアスペクト比を使用してメディアをキャプチャするように構成される。いくつかの実施形態では、第2のカメラモードを使用するように電子デバイスを構成することは、デバイスが第2のカメラモードに構成されているというインジケーションを表示することを含む。 In some embodiments, prior to detecting the first input, the electronic device (e.g., 600) is configured to capture media using a first camera mode. In some embodiments, each camera mode (e.g., video, photo/still, portrait, slow motion, panorama mode) has multiple settings (e.g., for portrait camera mode: studio lighting setting, contour lighting setting, stage lighting setting) with multiple values (e.g., light levels for each setting) in the mode (e.g., portrait mode) in which the camera (e.g., camera sensor) is operating to capture media (including post-processing that is automatically performed after capture). In this way, for example, a camera mode is different from a mode that does not affect how the camera operates when capturing media or does not include multiple settings (e.g., a flash mode having one setting with multiple values (e.g., inactive, active, auto)). In some embodiments, camera modes allow a user to capture different types of media (e.g., photos or videos) and the settings for each mode can be optimized to capture (e.g., via post-processing) a particular type of media that corresponds to the particular mode with particular characteristics (e.g., shape (e.g., square, rectangular), speed (e.g., slow motion, time lapse), audio, video). For example, when an electronic device (e.g., 600) is configured to operate in a still photography mode, one or more cameras of the electronic device, when activated, capture media of a first type (e.g., rectangular photos) having particular settings (e.g., flash settings, one or more filter settings); when the electronic device is configured to operate in a square mode, one or more cameras of the electronic device, when activated, capture media of a second type (e.g., square photos) having particular settings (e.g., flash settings and one or more filters); when the electronic device is configured to operate in a slow motion mode, one or more cameras of the electronic device, when activated, capture media of a third type (e.g., slow motion video) having particular settings (e.g., flash settings, frames per second capture rate); when the electronic device is configured to operate in a portrait mode, one or more cameras of the electronic device, when activated, capture media of a fifth type (e.g., portrait photos (e.g., photos with a blurred background)) having particular settings (e.g., amount of a particular type of light (e.g., stage light, studio light, edge light), f-stop, blur); When the electronic device is configured to operate in the first camera mode, one or more cameras of the electronic device capture a fourth type of media (e.g., panoramic photo (e.g., wide photo) having particular settings (e.g., zoom, amount of field of view to capture while moving). In some embodiments, when switching between modes, a display of the representation of the field of view changes to correspond to the type of media captured by the mode (e.g., the representation is rectangular while the electronic device is operating in still photo mode and the representation is square while the electronic device is operating in square mode). In some embodiments, the electronic device (e.g., 600) displays an indication that the device is configured in the first camera mode. In some embodiments, in response to detecting a first input, the method includes configuring the electronic device (e.g., 600) to capture media using a second camera mode different from the first camera mode pursuant to determining that the first input does not include maintaining the first contact at the first position for a threshold amount of time and determining that the first input includes movement of the first contact above a first movement threshold (e.g., the first input is a swipe across a portion of the display device without an initial pause). In some embodiments, the electronic device (e.g., 600) is configured to capture media using the first aspect ratio while in the second camera mode. In some embodiments, configuring the electronic device to use the second camera mode includes displaying an indication that the device is configured in the second camera mode.

いくつかの実施形態では、第1の入力を検出したことに応じて、第1の入力(例えば、境界部ボックスの角部上の短期間のタッチ)が閾値時間量未満にわたって第1の位置で第1の接触を検出する(例えば、焦点を設定する要求を検出する)ことを含むとの判定に従って、電子デバイス(例えば、600)は、第1の位置に対応する1つ以上のカメラの視野内の位置でのコンテンツに基づく焦点設定でメディアをキャプチャするように電子デバイスを構成することを含む、焦点設定を調整する(1522)。第1の入力が閾値時間量未満にわたって第1の位置で第1の接触を検出することを含むとの判定に従って、焦点設定を調整することは、操作を実行するために必要な入力の数を減らし、これにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, in response to detecting a first input, in accordance with a determination that the first input (e.g., a short-duration touch on a corner of a bounding box) includes detecting a first contact at a first location for less than a threshold amount of time (e.g., detecting a request to set focus), the electronic device (e.g., 600) adjusts a focus setting (1522), including configuring the electronic device to capture media with a focus setting based on the content at a location within the field of view of the one or more cameras corresponding to the first location. Adjusting the focus setting in accordance with a determination that the first input includes detecting a first contact at a first location for less than a threshold amount of time reduces the number of inputs required to perform an operation, thereby enhancing usability of the device and making the user-device interface more efficient (e.g., by helping a user make appropriate inputs and reducing user errors when operating/interacting with the device), as well as reducing power usage and improving battery life of the device by allowing a user to use the device more quickly and efficiently.

いくつかの実施形態では、第1の入力を検出したことに応じて、第1の入力(例えば、境界部ボックスの角部ではない表現上のいずれかの位置上の長期間のタッチ)が、メディアをキャプチャする要求(例えば、物理カメラシャッターボタンのアクティブ化又は仮想カメラシャッターボタンのアクティブ化)に応じてキャプチャされるメディアの境界部の少なくとも一部分を示す、カメラディスプレイ領域(例えば、604)の既定の部分(例えば、角部)に対応しない第3の位置(例えば、第1の位置ではない位置)で第2の閾値時間量にわたって第1の接触を維持することを含むとの判定に従って、電子デバイス(例えば、600)は、第3の位置に対応する1つ以上のカメラの視野内の位置でのコンテンツに基づく第1の露出設定(例えば、自動露出設定)でメディアをキャプチャするように電子デバイスを構成する(1524)。第1の入力が、メディアをキャプチャする要求に応じてキャプチャされる、メディアの境界部の少なくとも一部分を示す、カメラディスプレイ領域の既定の部分に対応しない第3の位置で第2の閾値時間量にわたって第1の接触を維持することを含むとの判定に従って、第1の露出設定でメディアをキャプチャするように電子デバイスを構成することは、操作を実行するために必要な入力の数を減らし、これにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, in response to detecting a first input, in accordance with a determination that the first input (e.g., a prolonged touch on any location on the representation that is not a corner of the bounding box) includes maintaining the first contact for a second threshold amount of time at a third location (e.g., a location other than the first location) that does not correspond to a predefined portion (e.g., a corner) of the camera display area (e.g., 604) indicating at least a portion of the boundary of the media to be captured in response to a request to capture media (e.g., activation of a physical camera shutter button or activation of a virtual camera shutter button), the electronic device (e.g., 600) configures the electronic device to capture media with a first exposure setting (e.g., an auto exposure setting) based on content at a location within the field of view of the one or more cameras that corresponds to the third location (1524). Configuring the electronic device to capture media at a first exposure setting pursuant to a determination that the first input includes maintaining the first contact for a second threshold amount of time at a third position that does not correspond to a predefined portion of the camera display area that indicates at least a portion of a boundary of the media to be captured in response to a request to capture the media reduces the number of inputs required to perform the operation, thereby enhancing usability of the device and making the user-device interface more efficient (e.g., by assisting a user in making appropriate inputs and reducing user errors when operating/interacting with the device), as well as reducing power usage and improving battery life of the device by allowing a user to use the device more quickly and efficiently.

いくつかの実施形態では、第3の位置に対応する1つ以上のカメラの視野内の位置でのコンテンツに基づく第1の露出設定(例えば、自動露出設定)でメディアをキャプチャするように電子デバイス(例えば、600)を構成した後に、電子デバイス(例えば、600)は、第3の位置に対応する1つ以上のカメラの視野内の位置でのコンテンツを、1つ以上のカメラの視野内にもはや存在させない、(例えば、電子デバイスの移動による)1つ以上のカメラの視野の表現の変化を検出する。いくつかの実施形態では、変化を検出したことに応じて、電子デバイス(例えば、600)は、第1の露出設定でメディアをキャプチャするように電子デバイスを構成し続ける。 In some embodiments, after configuring the electronic device (e.g., 600) to capture media with a first exposure setting (e.g., an auto exposure setting) based on content at a location in the field of view of the one or more cameras corresponding to the third position, the electronic device (e.g., 600) detects a change in a representation of the field of view of the one or more cameras (e.g., due to movement of the electronic device) such that content at a location in the field of view of the one or more cameras corresponding to the third position is no longer present in the field of view of the one or more cameras. In some embodiments, in response to detecting the change, the electronic device (e.g., 600) continues to configure the electronic device to capture media with the first exposure setting.

方法1500に関して上述された処理(例えば、図15A~図15C)の詳細はまた、上記及び以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1700、1900、2000、2100、2300、2500、2700、2800、3000、3200、3400、3600、3800、4000、及び4200は、方法1500を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。 It should be noted that the details of the processes described above with respect to method 1500 (e.g., FIGS. 15A-15C) are also applicable in a similar manner to the methods described above and below. For example, methods 700, 900, 1100, 1300, 1700, 1900, 2000, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3400, 3600, 3800, 4000, and 4200 optionally include one or more of the characteristics of the various methods described above with reference to method 1500. For the sake of brevity, these details will not be repeated below.

図16A~図16Qは、いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図17A~図17Bにおける処理を含む、以下で説明する処理を例示するために使用される。 FIGS. 16A-16Q show example user interfaces for changing zoom levels using an electronic device, according to some embodiments. The user interfaces in these figures are used to illustrate the processes described below, including the processes in FIGS. 17A-17B.

図16Aは、デバイス600の長軸が垂直に走る縦向き1602(例えば、垂直)のデバイス600を示す。デバイス600が縦向き1602にある間、デバイスは縦向きカメラインタフェース1680を表示する。縦向きインタフェース1680は、縦向きライブプレビュー1682、ズームトグルアフォーダンス1616、シャッターアフォーダンス1648、及びカメラ切り替えアフォーダンス1650を含む。図16Aにおいて、縦向きライブプレビュー1682は、前面カメラ1608の視野の一部分のライブプレビューである。ライブプレビュー1682は、グレーアウト部分1681及び1683を含まず、これはまた、前面カメラ1608の視野からコンテンツのプレビューを表示する。 16A shows device 600 in portrait orientation 1602 (e.g., vertical), with the long axis of device 600 running vertically. While device 600 is in portrait orientation 1602, the device displays portrait camera interface 1680. Portrait interface 1680 includes portrait live preview 1682, zoom toggle affordance 1616, shutter affordance 1648, and camera switch affordance 1650. In FIG. 16A, portrait live preview 1682 is a live preview of a portion of the field of view of front camera 1608. Live preview 1682 does not include grayed-out portions 1681 and 1683, which also display a preview of content from the field of view of front camera 1608.

図16Aに示すように、縦向きライブプレビュー1682は、デバイス600の前面カメラ1608を使用して、画像(例えば、自撮り)を撮影するための準備をしている人1650Aを示す。特に、縦向きライブプレビュー1682は、縦向きライブプレビュー1682での表示に利用可能な、前面カメラ604の視野(例えば、ライブプレビューはズームインされている)の80%を使用するズームレベル1620Aで表示される。縦向きライブプレビュー1682は、画像の右側で部分的に視認可能な人1650Bと画像の左側で部分的に視認可能な人1650Cとの中央にいる人1650A(例えば、デバイス600のユーザ)を示す。上述の方法で縦向きライブプレビュー1682を表示している間に、デバイス600は、シャッターアフォーダンス1648上の入力1695A(例えば、タップ)を検出する。 As shown in FIG. 16A, the portrait live preview 1682 shows a person 1650A preparing to take an image (e.g., a selfie) using the front camera 1608 of the device 600. In particular, the portrait live preview 1682 is displayed at a zoom level 1620A that uses 80% of the field of view of the front camera 604 available for display in the portrait live preview 1682 (e.g., the live preview is zoomed in). The portrait live preview 1682 shows a person 1650A (e.g., a user of the device 600) in the middle of a person 1650B, which is partially visible on the right side of the image, and a person 1650C, which is partially visible on the left side of the image. While displaying the portrait live preview 1682 in the manner described above, the device 600 detects an input 1695A (e.g., a tap) on the shutter affordance 1648.

図16Bに示すように、入力1695Aを検出したことに応じて、デバイス600は、縦向きライブプレビュー1682を表すメディアをキャプチャし、縦向きカメラユーザインタフェース1680内にメディアの表現1630を表示する。 As shown in FIG. 16B, in response to detecting input 1695A, device 600 captures media representing a portrait live preview 1682 and displays a representation 1630 of the media within portrait camera user interface 1680.

更に、図16Bに示すように、縦向きライブプレビュー1682を表示している間に、デバイス600は、デバイス600を、横向き(例えば、デバイスの長軸が水平に走る)に物理的に回転させる時計回り回転入力1695Bを検出する。いくつかの実施形態では、人1650Aは、水平方向の環境をより多くキャプチャするために(例えば、人1650B及び1650Cを視野内に入れるように)デバイス600を時計回りに回転させる。図16Cに示すように、回転入力1695Bを検出したことに応じて、デバイス600は、追加のユーザ入力を介在することなく自動的に、縦向きカメラユーザインタフェース1680を、横向きカメラインタフェース1690に置き換える。横向きカメラインタフェース1690は、横向き1604にズームレベル1620Bで表示される横向きライブプレビュー1692を含む。 Further, as shown in FIG. 16B, while displaying the portrait live preview 1682, the device 600 detects a clockwise rotation input 1695B that physically rotates the device 600 to landscape orientation (e.g., the long axis of the device runs horizontally). In some embodiments, the person 1650A rotates the device 600 clockwise to capture more of the horizontal environment (e.g., to bring people 1650B and 1650C into view). As shown in FIG. 16C, in response to detecting the rotation input 1695B, the device 600 automatically replaces the portrait camera user interface 1680 with a landscape camera interface 1690 without further user input. The landscape camera interface 1690 includes the landscape live preview 1692 displayed at the zoom level 1620B in landscape orientation 1604.

ズームレベル1620Bは、デバイス600が前面カメラ1608の視野(「FOV」)の100%を使用して、横向きライブプレビュー1692を表示するという点で、ズームレベル1620Aとは異なる。ズームレベル1620Aの代わりに、ズームレベル1620Bを使用して、横向きライブプレビュー1692を表示することにより、横向きライブプレビュー1692を、よりズームアウトして表示させる。図16Cに示すように、横向きライブプレビュー1692は、人1650A、並びに人1650B及び1650Cの顔全体を示す。したがって、横向きライブプレビュー1692により、ズームレベル1620B(FOVの100%)である間、ユーザは、コンテンツの率がより高い写真(例えば、潜在的な写真)をフレームに収めることができる。横向きライブプレビュー1692はまた、縦向きライブプレビュー1682に示されていなかった、新しい人(人1650D)を示す。いくつかの実施形態では、ユーザは典型的には、デバイスの前カメラを使用して、横向きよりも縦向きで環境をキャプチャすることをより望むため、デバイス600は、デバイスの向きが縦から横に変化するときに、自動的にズームレベル1620A(FOVの80%)とズームレベル1620B(FOVの100%)との間をシフトする。図16Cの横向きライブプレビュー1692を表示している間に、デバイス600は、シャッターアフォーダンス1648上の入力1695B(例えば、タップ)を検出する。図16Dに示すように、入力1695Bを検出したことに応じて、デバイス600は、横向きライブプレビュー1692を表すメディアをキャプチャし、横向きカメラユーザインタフェース1690内にメディアの表現1632を表示する。表現1632は、それが、横向き1604であり、ズームレベル1620B(FOVの100%)と一致するという点で、表現1630とは異なる。 Zoom level 1620B differs from zoom level 1620A in that device 600 uses 100% of the field of view ("FOV") of front camera 1608 to display landscape live preview 1692. Displaying landscape live preview 1692 using zoom level 1620B instead of zoom level 1620A causes landscape live preview 1692 to appear more zoomed out. As shown in FIG. 16C, landscape live preview 1692 shows the entire faces of person 1650A, as well as people 1650B and 1650C. Thus, landscape live preview 1692 allows the user to frame a photo with a higher percentage of content (e.g., a potential photo) while at zoom level 1620B (100% of FOV). Landscape live preview 1692 also shows a new person (person 1650D) that was not shown in portrait live preview 1682. In some embodiments, because users typically prefer to capture their environment in portrait orientation rather than landscape orientation using the device's front camera, device 600 automatically shifts between zoom level 1620A (80% of FOV) and zoom level 1620B (100% of FOV) as the device orientation changes from portrait to landscape. While displaying landscape live preview 1692 of FIG. 16C, device 600 detects input 1695B (e.g., a tap) on shutter affordance 1648. As shown in FIG. 16D, in response to detecting input 1695B, device 600 captures media representing landscape live preview 1692 and displays a representation 1632 of the media within landscape camera user interface 1690. Representation 1632 differs from representation 1630 in that it is landscape 1604 and coincides with zoom level 1620B (100% of FOV).

デバイス600はまた、様々な手動入力に基づいてズームレベルを変更することも可能である。例えば、ズームレベル1620Bで横向きライブプレビュー1692を表示している間に、デバイス600は、ズームトグルアフォーダンス1616上のデピンチ入力1695D又はタップ入力1695DDを検出する。図16Eに示すように、入力1695D又はタップ入力1695DDを検出したことに応じて、デバイス600は、ズームレベル1620B(FOVの100%)からズームレベル1620A(FOVの80%)に戻るように横向きライブプレビュー1692のズームレベルを変更する。いくつかの実施形態では、ズームレベル1620B(FOVの100%)である間のデピンチジェスチャにより、デピンチジェスチャの大きさに完全基づいてズームレベルを設定するよりもむしろ、ズームレベル1620A(80%のFOV、所定のズームレベル)でスナップする。しかしながら、横向きライブプレビュー1692のズームレベルを変更するとき、ライブプレビュー1692は、横向き1604のままである。ズームレベルを変更した結果として、横向きライブプレビュー1692は、現在、人1650Bの一部分のみを表示し、人1650Dの表示を停止する。また、ズームレベルが図16Bのズームレベルと同じズームレベルに変更されている間、横向きライブプレビュー1692は、縦向きライブプレビュー1682とは異なる、デバイス600が現在横向き1604にあるため示された画像を示す。ズームレベル1620Aで横向きライブプレビュー1692を表示している間に、デバイス600は、デピンチ入力1695Eを検出する。 The device 600 can also change the zoom level based on various manual inputs. For example, while displaying the landscape live preview 1692 at zoom level 1620B, the device 600 detects a de-pinch input 1695D or a tap input 1695DD on the zoom toggle affordance 1616. As shown in FIG. 16E, in response to detecting the input 1695D or the tap input 1695DD, the device 600 changes the zoom level of the landscape live preview 1692 from zoom level 1620B (100% of FOV) back to zoom level 1620A (80% of FOV). In some embodiments, a de-pinch gesture while at zoom level 1620B (100% of FOV) causes the device 600 to snap at zoom level 1620A (80% FOV, given zoom level) rather than setting the zoom level entirely based on the magnitude of the de-pinch gesture. However, when changing the zoom level of the landscape live preview 1692, the live preview 1692 remains in landscape orientation 1604. As a result of changing the zoom level, the landscape live preview 1692 now displays only a portion of the person 1650B and ceases to display the person 1650D. Also, while the zoom level is changed to the same zoom level as that of FIG. 16B, the landscape live preview 1692 shows a different image than the portrait live preview 1682, which was shown because the device 600 is currently in landscape orientation 1604. While displaying the landscape live preview 1692 at zoom level 1620A, the device 600 detects a de-pinch input 1695E.

図16Fに示すように、入力1695Eを検出したことに応じて、デバイス600は、ズームレベル1620A(FOVの80%)からズームレベル1620C(例えば、FOVの40%)に戻るように横向きライブプレビュー1692のズームレベルを変更する。ここで、横向きライブプレビュー1692は、人1650Aの顔の一部分及び少量の人1650B及び1650Cのみを示す。いくつかの実施形態では、ズームレベル1620A(例えば、FOVの80%)とズームレベル1670(例えば、FOVの40%)との間を切り替えることは、予め定義されておらず、ピンチジェスチャに応じてピンチジェスチャの大きさに基づいて行われる。ズームレベル1620C(FOVの40%)で横向きライブプレビュー1692を表示している間に、デバイス600は、ピンチ入力1695Fを検出する。 16F, in response to detecting input 1695E, device 600 changes the zoom level of landscape live preview 1692 from zoom level 1620A (80% of FOV) back to zoom level 1620C (e.g., 40% of FOV). Here, landscape live preview 1692 shows only a portion of the face of person 1650A and small amounts of people 1650B and 1650C. In some embodiments, switching between zoom level 1620A (e.g., 80% of FOV) and zoom level 1670 (e.g., 40% of FOV) is not predefined and is done in response to a pinch gesture based on the magnitude of the pinch gesture. While displaying landscape live preview 1692 at zoom level 1620C (40% of FOV), device 600 detects pinch input 1695F.

図16Gに示すように、ピンチ入力1695Fを検出したことに応じて、デバイス600は、ズームレベル1620C(FOVの40%)からズームレベル1620A(FOVの80%)に戻るように横向きライブプレビュー1692のズームレベルを変更し、これは、図16Eに関連して上述した。ズームレベル1620Aで横向きライブプレビューを表示している間に、デバイス600は、ピンチ入力1695Gを検出する。 16G, in response to detecting pinch input 1695F, device 600 changes the zoom level of landscape live preview 1692 from zoom level 1620C (40% of FOV) back to zoom level 1620A (80% of FOV), as described above in connection with FIG. 16E. While displaying the landscape live preview at zoom level 1620A, device 600 detects pinch input 1695G.

図16Hに示すように、ピンチ入力1695Gを検出したことに応じて、デバイス600は、ズームレベル1620A(FOVの80%)からズームレベル1620B(FOVの100%)に戻るように横向きライブプレビュー1692のズームレベルを変更し、これは、図16C~図16Dに関連して上述した。ポートレート横向きライブプレビュー1692を表示している間に、デバイス600は、デバイス600を、縦向き1602に戻るように回転させる、反時計回り回転入力1695Hを検出する。 As shown in FIG. 16H, in response to detecting pinch input 1695G, device 600 changes the zoom level of landscape live preview 1692 from zoom level 1620A (80% of FOV) back to zoom level 1620B (100% of FOV), as described above in connection with FIGS. 16C-16D. While displaying portrait-landscape live preview 1692, device 600 detects counterclockwise rotation input 1695H, which rotates device 600 back to portrait orientation 1602.

図16Iに示すように、回転入力1695Hを検出したことに応じて、デバイス600は、入力を介在することなく自動的に、ズームレベル1620A(FOVの80%)で、縦向き1602で、縦向きライブプレビュー1682を含む縦向きカメラユーザインタフェース1680を表示する。ここで、デバイス600は、ユーザが、追加の入力なしで自動的に、ズームレベル1620Bでのカメラユーザインタフェース1692をズームレベル1620Aでのカメラユーザインタフェース1680(図16Aに示すように)に戻すように変更できるようにすることも可能である。 16I, in response to detecting rotation input 1695H, device 600 automatically displays portrait camera user interface 1680 including portrait live preview 1682 in portrait orientation 1602 at zoom level 1620A (80% of FOV) without any input intervention. Device 600 may now also allow the user to change camera user interface 1692 at zoom level 1620B back to camera user interface 1680 at zoom level 1620A (as shown in FIG. 16A) automatically without any additional input.

図16Iでは、デバイス600(上述のように)はまた、ポートレートカメラユーザインタフェース1680上にズームトグルアフォーダンス1616を表示する。ズームトグルアフォーダンス1616を使用して、ズームレベル1620A(FOVの80%を使用)とズームレベル1620B(FOVの100%を使用)との間のライブプレビューを変更し、このアフォーダンスは、ユーザにより、ライブプレビューのズームレベルを他のズームレベル(例えば、ズームレベル1620C)に変更することができるピンチ入力(上述のように)とは異なる。1620Bで縦向きライブプレビュー1682を表示している間に、デバイス600は、ズームトグルアフォーダンス1616上の入力1695I(例えば、タップ)を検出する。 In FIG. 16I, the device 600 (as described above) also displays a zoom toggle affordance 1616 on the portrait camera user interface 1680. The zoom toggle affordance 1616 is used to change the live preview between zoom level 1620A (using 80% of the FOV) and zoom level 1620B (using 100% of the FOV), and this affordance is distinct from the pinch input (as described above) that allows the user to change the zoom level of the live preview to another zoom level (e.g., zoom level 1620C). While displaying the portrait live preview 1682 in 1620B, the device 600 detects an input 1695I (e.g., a tap) on the zoom toggle affordance 1616.

図16Jに示すように、入力1695Iを検出したことに応じて、デバイス600は、ズームレベル1620A(FOV視野の80%)からズームレベル1620B(FOVの100%)に縦向きライブプレビュー1682のズームレベルを変更して表示する。ここで、縦向きライブプレビュー1682は、人1650A、並びに人1650B及び1650Cの顔全体を示す。 16J, in response to detecting input 1695I, device 600 changes the zoom level of portrait live preview 1682 from zoom level 1620A (80% of the FOV) to zoom level 1620B (100% of the FOV). Portrait live preview 1682 now shows the entire faces of person 1650A and persons 1650B and 1650C.

図16J~図16Nは、デバイス600が、回転入力を検出するときにカメラユーザインタフェースのズームレベルを自動的に変更しないシナリオを示す。図16Jに戻ると、デバイス600は、カメラ切り替えアフォーダンス上の入力1695Jを検出する。 Figures 16J-16N illustrate a scenario in which the device 600 does not automatically change the zoom level of the camera user interface when it detects a rotation input. Returning to Figure 16J, the device 600 detects input 1695J on the camera switch affordance.

図16Kに示すように、入力1695Jを検出したことに応じて、デバイス600は、1つ以上のカメラの視野の少なくとも一部分を示す縦向きライブプレビュー1684を含む縦向きカメラインタフェース1680を表示する。縦向きライブプレビュー1684は、ズームレベル1620Dで表示される。加えて、デバイス600は、前面カメラ1608を使用してメディアをキャプチャするような構成から、1つ以上のカメラを使用してメディアをキャプチャするような構成へと切り替えた。ライブプレビュー1684を表示している間に、デバイス600は、デバイス600の時計回り回転入力1695Kを検出し、縦向きから横向きにデバイスを変更する。 As shown in FIG. 16K, in response to detecting input 1695J, device 600 displays portrait camera interface 1680 including portrait live preview 1684 showing at least a portion of the field of view of one or more cameras. Portrait live preview 1684 is displayed at zoom level 1620D. In addition, device 600 has switched from a configuration in which it captures media using front camera 1608 to a configuration in which it captures media using one or more cameras. While displaying live preview 1684, device 600 detects a clockwise rotation input 1695K of device 600, changing the device from portrait to landscape orientation.

図16Lに示すように、回転入力1695Kを検出したことに応じて、デバイス600は、横向きカメラインタフェース1690を表示する。横向きカメラインタフェースカメラインタフェース1690は、横向き1604で1つ以上のカメラの視野を示す、横向きライブプレビュー1694を含む。デバイス600は、図16B~図16Cに見られるように、ズームレベルを自動的に調整しないため、横向きライブプレビュー1694は、デバイス600が背面カメラ(例えば、前面カメラ1608に対してデバイスの反対側にあるカメラ)を使用してメディアをキャプチャするように構成されているときに、自動ズーム基準が満たされていないため、ズームレベル1620Dで表示されたままである。横向きライブプレビュー1694を表示している間に、デバイス600は、ビデオキャプチャモードアフォーダンスに対応するライブプレビュー1684上の入力1695Lを検出する。 As shown in FIG. 16L, in response to detecting rotation input 1695K, device 600 displays landscape camera interface 1690. Landscape camera interface camera interface 1690 includes landscape live preview 1694 showing the field of view of one or more cameras in landscape orientation 1604. Because device 600 does not automatically adjust the zoom level as seen in FIGS. 16B-16C, landscape live preview 1694 remains displayed at zoom level 1620D because the auto-zoom criteria are not met when device 600 is configured to capture media using a rear camera (e.g., a camera on the opposite side of the device from front camera 1608). While displaying landscape live preview 1694, device 600 detects input 1695L on live preview 1684 that corresponds to a video capture mode affordance.

図16Mに示すように、入力1695Lを検出したことに応じて、デバイス600は、ビデオキャプチャモードを開始する。ビデオキャプチャモードにおいて、デバイス600は、ズームレベル1620Eで横向きカメラインタフェース1691を表示する。横向きカメラインタフェース1691は、背面カメラ(例えば、前面カメラ1608に対してデバイスの反対側にあるカメラ)の視野を示す横向きライブプレビュー1697を含む。横向きカメラインタフェース1691を表示している間に、デバイス600は、カメラ切り替えアフォーダンス1616上の入力1695Mを検出する。 16M, in response to detecting input 1695L, device 600 enters video capture mode. In video capture mode, device 600 displays landscape camera interface 1691 at zoom level 1620E. Landscape camera interface 1691 includes landscape live preview 1697 showing the field of view of the rear camera (e.g., the camera on the opposite side of the device from front camera 1608). While displaying landscape camera interface 1691, device 600 detects input 1695M on camera switch affordance 1616.

図16Nに示すように、入力1695Mを検出したことに応じて、デバイス600は、横向きカメラインタフェース1691を表示する。横向きカメラインタフェース1691は、横向き1604にFOVを示す横向きライブプレビュー1697を含む。横向きカメラインタフェース1691及びライブプレビュー1697は、ズームレベル1620Eで横向き1604のままである。加えて、デバイス600は、背面カメラ(例えば、前面カメラ1608に対してデバイスの反対側にあるカメラ)を使用してメディアをキャプチャするような構成から、前面カメラ1608へと切り替え、ビデオキャプチャモードのままである。カメラインタフェース1691を表示している間に、デバイス600は、デバイス600を、縦向き1602に戻るように回転させる、反時計回り回転入力1695Nを検出する。 16N, in response to detecting input 1695M, device 600 displays landscape camera interface 1691. Landscape camera interface 1691 includes landscape live preview 1697 showing FOV in landscape 1604. Landscape camera interface 1691 and live preview 1697 remain in landscape 1604 at zoom level 1620E. Additionally, device 600 switches from a configuration to capture media using the rear camera (e.g., the camera on the opposite side of the device from front camera 1608) to the front camera 1608 and remains in video capture mode. While displaying camera interface 1691, device 600 detects counterclockwise rotation input 1695N, which rotates device 600 back to portrait orientation 1602.

図16Oに示すように、回転入力1695Nを受信したことに応じて、デバイス600は、縦向きカメラインタフェース1681を表示する。縦向きインタフェース1681は、デバイス600がビデオモードでメディアをキャプチャするように構成されるときに、自動ズーム基準が満たされていないため、ズームレベル1620Eで縦向き1602に前面カメラ1608の視野の少なくとも一部分を示す、ライブプレビュー1687を含む。更に、図16Oに示すように、デバイス600は、参加アフォーダンス1642を含む、ライブ通信セッションに参加するための通知1640を表示する。通知1640を表示している間に、デバイス600は、通知アフォーダンス1642上の入力(例えば、タップ)1695Oを検出する。 16O, in response to receiving the rotation input 1695N, the device 600 displays a portrait camera interface 1681. The portrait interface 1681 includes a live preview 1687 showing at least a portion of the field of view of the front camera 1608 in portrait orientation 1602 at a zoom level 1620E when the device 600 is configured to capture media in video mode because the auto-zoom criteria are not met. Further, as shown in FIG. 16O, the device 600 displays a notification 1640 for joining a live communication session, including a join affordance 1642. While displaying the notification 1640, the device 600 detects an input (e.g., a tap) 1695O on the notification affordance 1642.

図16Pに示すように、入力1695Oを検出したことに応じて、デバイス600は、ライブ通信セッションに参加する。いくつかの実施形態では、ライブ通信セッションに参加することによって、デバイス600は、ビデオキャプチャモードからライブ通信セッションモードへと切り替える。ライブ通信セッションにある間、デバイス600は、ズームレベル1620A(FOVの80%)で縦向きライブプレビュー1689を表示することを含む、縦向き1602で縦向きカメラインタフェース1688を表示する。カメラインタフェース1688を表示している間に、デバイス600は、デバイス600を、横向き1604になるように回転させる、時計回り回転入力1695Pを検出する。 16P, in response to detecting input 1695O, device 600 joins a live communication session. In some embodiments, joining a live communication session causes device 600 to switch from a video capture mode to a live communication session mode. While in the live communication session, device 600 displays a portrait camera interface 1688 in portrait orientation 1602, including displaying a portrait live preview 1689 at zoom level 1620A (80% of FOV). While displaying the camera interface 1688, device 600 detects a clockwise rotation input 1695P, which rotates device 600 to a landscape orientation 1604.

図16Qに示すように、回転入力1695Pを検出したことに応じて、デバイス600は、追加のユーザ入力を介在することなく自動的に、縦向きカメラユーザインタフェース1688を、横向きカメラインタフェース1698に置き換える。横向きカメラインタフェース1698は、(例えば、ビデオキャプチャモードにあることとは対照的に)デバイス600がライブ通信セッションでライブビデオを送信しているときに、1組の自動ズーム基準が満たされるため、ズームレベル1620Bで(例えば、FOVの100%で)表示される横向きライブプレビュー1699を含む。 16Q, in response to detecting rotation input 1695P, device 600 automatically replaces portrait camera user interface 1688 with landscape camera interface 1698 without further user input. Landscape camera interface 1698 includes landscape live preview 1699 that is displayed at zoom level 1620B (e.g., at 100% of FOV) because a set of auto-zoom criteria is met when device 600 is transmitting live video in a live communication session (as opposed to being in a video capture mode, for example).

図17A~図17Bは、いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための方法を示すフロー図である。方法1700は、表示デバイス(例えば、タッチ感知ディスプレイ)及び1つ以上のカメラ(例えば、1608、電子デバイスの異なる側(例えば、前カメラ、後カメラ)に(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を備えたデバイス(例えば、100、300、500、600)で実行される。方法1700のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 17A-17B are flow diagrams illustrating a method for changing a zoom level using an electronic device, according to some embodiments. Method 1700 is performed on a device (e.g., 100, 300, 500, 600) with a display device (e.g., a touch-sensitive display) and one or more cameras (e.g., 1608, on different sides (e.g., front camera, rear camera) of the electronic device (e.g., dual camera, triple camera, quad camera, etc.)). Some operations of method 1700 are optionally combined, the order of some operations is optionally changed, and some operations are optionally omitted.

いくつかの実施形態では、電子デバイス(例えば、600)は、コンピュータシステムである。コンピュータシステムは、任意選択的に、ディスプレイ生成構成要素と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the electronic device (e.g., 600) is a computer system. The computer system is optionally in communication (e.g., wired communication, wireless communication) with a display generation component and with one or more input devices. The display generation component is configured to provide visual output, such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. The one or more input devices are configured to receive input, such as a touch-sensitive surface that receives user input. In some embodiments, the one or more input devices are integrated with the computer system. In some embodiments, the one or more input devices are separate from the computer system. Thus, the computer system can transmit data (e.g., image data or video data) via a wired or wireless connection to an integrated or external display generation component to visually generate content (e.g., using a display device) and can receive wired or wireless connection input from one or more input devices.

後述するように、方法1700は、ズームレベルを変更するための直感的な仕方を提供する。この方法は、ズームレベルを変更する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にズームレベルを変更することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, method 1700 provides an intuitive way to change zoom levels. The method reduces the cognitive burden on the user when changing zoom levels, thereby creating a more efficient human-machine interface. For battery-operated computing devices, enabling users to change zoom levels more quickly and efficiently conserves power and extends the time between battery charges.

電子デバイス(例えば、600)が第1の向きにある(例えば、1602)(例えば、電子が縦向きに向いている(例えば、電子デバイスが垂直である))間に、電子デバイスは、表示デバイスを介して、第1のズームレベル(例えば、ズーム比(例えば、1×、5×、10×))で第1のカメラの向き(例えば、縦向き)でメディア(例えば、画像、ビデオ)をキャプチャする第1のカメラユーザインタフェース(例えば、1680)を表示する(1702)。 While the electronic device (e.g., 600) is in a first orientation (e.g., 1602) (e.g., the electronic device is oriented portrait (e.g., the electronic device is vertical)), the electronic device displays (1702) via the display device a first camera user interface (e.g., 1680) that captures media (e.g., images, video) in a first camera orientation (e.g., portrait) at a first zoom level (e.g., zoom ratio (e.g., 1x, 5x, 10x)).

電子デバイス(例えば、600)は、第1の向き(例えば、1602)から第2の向き(例えば、1604)への、電子デバイスの向きの変化(例えば、1695B)を検出する(1704)。 The electronic device (e.g., 600) detects (1704) a change in orientation (e.g., 1695B) of the electronic device from a first orientation (e.g., 1602) to a second orientation (e.g., 1604).

第1の向き(例えば、1602)から第2の向き(例えば、1604)への、電子デバイス(例えば、600)の向きの変化を検出したことに応じて(1706)(例えば、電子デバイスが縦向きから横向きへ向きが変化している(例えば、電子デバイスが水平))、1組の自動ズーム基準が満たされているとの判定に従って(例えば、自動ズーム基準は、電子デバイスが、第1のカメラ(例えば、前カメラ)を使用して、カメラの視野をキャプチャすると、かつ/又は電子デバイスが、1つ以上の他のモード(例えば、ポートレートモード、写真モード、ライブ通信セッションに関連付けられたモード)にあるときに満たされる基準を含む)、電子デバイス(例えば、600)は、ユーザ入力を介在することなく自動的に、第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向き(例えば、横向き)でメディアをキャプチャする第2のカメラユーザインタフェース(例えば、1690)を表示する(1708)(例えば、電子デバイスの向きが縦向きから横向きへ変化していることを検出する)。ユーザ入力を介在することなく自動的に、第1のズームレベルとは異なる第2のズームレベルで第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示することは、操作を実行するために必要な入力の数を減らし、これにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In response to detecting a change in orientation of the electronic device (e.g., 600) from a first orientation (e.g., 1602) to a second orientation (e.g., 1604) (1706) (e.g., the electronic device is changing its orientation from portrait to landscape (e.g., electronic device horizontal)) and in accordance with a determination that a set of auto-zoom criteria are met (e.g., the auto-zoom criteria include criteria that are met when the electronic device captures a camera field of view using the first camera (e.g., front camera) and/or when the electronic device is in one or more other modes (e.g., portrait mode, photo mode, mode associated with a live communication session)), the electronic device (e.g., 600) automatically, without user input intervention, displays a second camera user interface (e.g., 1690) that captures media in a second camera orientation (e.g., landscape) at a second zoom level that is different from the first zoom level (1708) (e.g., detecting that the electronic device's orientation is changing from portrait to landscape). Displaying a second camera user interface that captures media at a second camera orientation at a second zoom level different from the first zoom level automatically and without user input reduces the number of inputs required to perform an operation, thereby enhancing usability of the device and making the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), as well as reducing power usage and improving battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、電子デバイス(例えば、600)は、メディアキャプチャアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、シャッターボタン)を(例えば、第1のカメラユーザインタフェース内及び第2のカメラユーザインタフェース内に)表示する(1710)。いくつかの実施形態では、電子デバイス(例えば、600)は、メディアキャプチャアフォーダンス(例えば、1648)に対応する第1の入力(例えば、アフォーダンス上のタップ)を検出する(1712)。いくつかの実施形態では、第1の入力を検出したことに応じて(1714)、第1のカメラユーザインタフェース(例えば、1680)が表示されている間に第1の入力が検出されたとの判定に従って、電子デバイス(例えば、600)は、第1のズームレベル(例えば、1620A)でメディアをキャプチャする(1716)。いくつかの実施形態では、第1の入力を検出したことに応じて(1714)、第2のカメラユーザインタフェース(例えば、1690)が表示されている間に第1の入力が検出されたとの判定に従って、電子デバイス(例えば、600)は、第2のズームレベル(例えば、1620B)でメディアをキャプチャする(1718)。第1のカメラユーザインタフェースが表示されている間又は第2のカメラユーザインタフェースが表示されている間に、第1の入力が検出されるかどうかの判定に基づいて、異なるズームレベルでメディアをキャプチャすることにより、ズームレベルを手動で構成する必要がないため、ユーザが、メディアを迅速かつ容易にキャプチャすることを可能にする。更なるユーザ入力を必要とせずに1組の条件が満たされたときに動作を実行することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the electronic device (e.g., 600) displays (1710) a media capture affordance (e.g., a selectable user interface object) (e.g., a shutter button) (e.g., in the first camera user interface and in the second camera user interface). In some embodiments, the electronic device (e.g., 600) detects (1712) a first input (e.g., a tap on the affordance) corresponding to the media capture affordance (e.g., 1648). In some embodiments, in response to detecting (1714) the first input, in accordance with a determination that the first input was detected while the first camera user interface (e.g., 1680) is displayed, the electronic device (e.g., 600) captures (1716) media at a first zoom level (e.g., 1620A). In some embodiments, in response to detecting the first input (1714), the electronic device (e.g., 600) captures media at a second zoom level (e.g., 1620B) in accordance with a determination that the first input was detected while the second camera user interface (e.g., 1690) was displayed (1718). Capturing media at different zoom levels based on a determination of whether the first input is detected while the first camera user interface is displayed or while the second camera user interface is displayed allows a user to quickly and easily capture media because they do not have to manually configure the zoom level. Performing an action when a set of conditions is met without requiring further user input enhances the usability of the device, making the user-device interface more efficient (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), as well as reducing power usage and improving battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のカメラユーザインタフェース(例えば、1680)を表示することは、カメラ(例えば、カメラに視認可能である開放観測可能エリア、カメラレンズから所与の距離の画像の水平(又は垂直又は対角線)長さ)の視野の第1の表現(例えば、1682)(例えば、ライブプレビュー(例えば、キャプチャされ得るメディアのライブフィード))を表示することを含む。いくつかの実施形態では、第1の表現は、第1のズームレベル(例えば、1620A)(例えば、カメラの視野の80%、ズーム比(例えば、1×、5×、10×))で第1のカメラの向き(例えば、縦向き)で表示される。いくつかの実施形態では、第1の表現(例えば、1682)は、リアルタイムで表示される。いくつかの実施形態では、第2のカメラユーザインタフェース(例えば、1690)を表示することは、カメラ(例えば、カメラに視認可能である開放観測可能エリア、カメラレンズから所与の距離の画像の水平(又は垂直又は対角線)長さ)の視野の第2の表現(例えば、1692)(例えば、ライブプレビュー(例えば、キャプチャされ得るメディアのライブフィード))を表示することを含む。いくつかの実施形態では、第2の表現(例えば、1692)は、第2のズームレベル(例えば、1620B)(例えば、カメラの視野の100%、ズーム比(例えば、1×、5×、10×))で第2のカメラの向き(例えば、横向き)で表示される。いくつかの実施形態では、第2の表現(例えば、1692)は、リアルタイムで表示される。 In some embodiments, displaying the first camera user interface (e.g., 1680) includes displaying a first representation (e.g., 1682) (e.g., a live preview (e.g., a live feed of media that may be captured)) of the field of view of the camera (e.g., an open observable area that is visible to the camera, a horizontal (or vertical or diagonal) length of the image at a given distance from the camera lens). In some embodiments, the first representation is displayed in a first camera orientation (e.g., portrait) at a first zoom level (e.g., 1620A) (e.g., 80% of the camera's field of view, zoom ratio (e.g., 1x, 5x, 10x)). In some embodiments, the first representation (e.g., 1682) is displayed in real time. In some embodiments, displaying the second camera user interface (e.g., 1690) includes displaying a second representation (e.g., 1692) (e.g., a live preview (e.g., a live feed of media that may be captured)) of the field of view of the camera (e.g., the open observable area that is visible to the camera, the horizontal (or vertical or diagonal) length of the image at a given distance from the camera lens). In some embodiments, the second representation (e.g., 1692) is displayed in a second camera orientation (e.g., landscape) at a second zoom level (e.g., 1620B) (e.g., 100% of the camera's field of view, zoom ratio (e.g., 1x, 5x, 10x)). In some embodiments, the second representation (e.g., 1692) is displayed in real time.

いくつかの実施形態では、第1の向き(例えば、1602)は縦向きであり、第1の表現はカメラの視野の一部分であり、第2の向き(例えば、1604)は横向きであり、第2の表現はカメラの視野全体である。いくつかの実施形態では、縦向きでは、カメラインタフェースに表示される表現(例えば、1682)は、カメラの視野のクロッピングされた部分である。いくつかの実施形態では、横向きでは、カメラインタフェースに表示される表現(例えば、1692)は、カメラの視野全体である(例えば、カメラ(例えば、1608)の視野はクロップされない)。 In some embodiments, the first orientation (e.g., 1602) is portrait and the first representation is a portion of the camera's field of view, and the second orientation (e.g., 1604) is landscape and the second representation is the entire field of view of the camera. In some embodiments, in portrait orientation, the representation displayed in the camera interface (e.g., 1682) is a cropped portion of the camera's field of view. In some embodiments, in landscape orientation, the representation displayed in the camera interface (e.g., 1692) is the entire field of view of the camera (e.g., the field of view of the camera (e.g., 1608) is not cropped).

いくつかの実施形態では、カメラの視野の第1の表現(例えば、1682)を表示している間に、電子デバイス(例えば、600)は、第1のズームレベル(例えば、1620A)を第3のズームレベル(例えば、1620B)に変更する要求(例えば、カメラユーザインタフェース上のピンチジェスチャ)を受信する(1720)。いくつかの実施形態では、要求は、1組の自動ズーム基準が満たされているときに受信される(例えば、自動ズーム基準は、電子デバイスが第1のカメラ(例えば、前カメラ)を使用して、カメラの視野をキャプチャすると、かつ/又は電子デバイスが1つ以上の他のモード(例えば、ポートレートモード、写真モード、ライブ通信セッションに関連付けられたモード)にあるときに満たされる基準を含む)。いくつかの実施形態では、第1のズームレベル(例えば、1620A)を第3のズームレベル(例えば、1620B)に変更する要求を受信したことに応じて、電子デバイス(例えば、600)は、第1の表現(例えば、1682)の表示を、カメラの視野の第3の表現(例えば、ライブプレビュー(例えば、キャプチャされ得るメディアのライブフィード))に置き換える(1722)。いくつかの実施形態では、第3の表現は、第1のカメラの向きであり、かつ第3のズームレベルである。いくつかの実施形態では、第3のズームレベル(例えば、1620B)は、第2のズームレベル(例えば、1620A及び1620B)と同じである。いくつかの実施形態では、ユーザは、ピンチアウト(例えば、2つの接触間の距離が増加するように2つの接触がお互いに対して動く)ジェスチャを使用して、第1のズームレベル(例えば、80%)から第3のズームレベル(例えば、第2のズームレベル(例えば、100%))(例えば、カメラの視野をより少なくキャプチャする)に表現上でズームインすることができる。いくつかの実施形態では、ユーザは、ピンチイン(例えば、2本の指が近づく)ジェスチャを使用して、第1のズームレベル(例えば、100%)から第3のズームレベル(例えば、第2のズームレベル(例えば、80%))(例えば、カメラの視野をより多くキャプチャする)に表現上でズームアウトすることができる。 In some embodiments, while displaying a first representation (e.g., 1682) of the camera's field of view, the electronic device (e.g., 600) receives (1720) a request (e.g., a pinch gesture on a camera user interface) to change from a first zoom level (e.g., 1620A) to a third zoom level (e.g., 1620B). In some embodiments, the request is received when a set of auto-zoom criteria is met (e.g., the auto-zoom criteria include criteria that are met when the electronic device captures the camera's field of view using a first camera (e.g., a front camera) and/or when the electronic device is in one or more other modes (e.g., portrait mode, photo mode, a mode associated with a live communication session)). In some embodiments, in response to receiving a request to change from the first zoom level (e.g., 1620A) to a third zoom level (e.g., 1620B), the electronic device (e.g., 600) replaces (1722) the display of the first representation (e.g., 1682) with a third representation of the camera's field of view (e.g., a live preview (e.g., a live feed of media that may be captured)). In some embodiments, the third representation is the first camera orientation and is at the third zoom level. In some embodiments, the third zoom level (e.g., 1620B) is the same as the second zoom level (e.g., 1620A and 1620B). In some embodiments, the user can zoom in on the representation from the first zoom level (e.g., 80%) to the third zoom level (e.g., the second zoom level (e.g., 100%)) (e.g., capturing less of the camera's field of view) using a pinch out (e.g., two contacts move relative to each other such that the distance between the two contacts increases) gesture. In some embodiments, a user can use a pinch-in (e.g., two fingers moving closer together) gesture to zoom out on the representation from a first zoom level (e.g., 100%) to a third zoom level (e.g., a second zoom level (e.g., 80%)) (e.g., capturing more of the camera's field of view).

いくつかの実施形態では、カメラの視野の第1の表現(例えば、1682)を表示している間に、電子デバイス(例えば、600)は、ズームトグルアフォーダンス(例えば、1616)(例えば、選択可能ユーザインタフェースオブジェクト)を表示する(例えば、第1のカメラユーザインタフェース及び第2のカメラユーザインタフェースに表示する)(1724)。カメラの視野の第1の表現を表示している間に、ズームトグルアフォーダンスを表示することにより、ユーザが、必要であれば、迅速かつ容易に第1の表現のズームレベルを手動で調整することを可能にする。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、電子デバイス(例えば、600)は、ズームトグルアフォーダンス(例えば、1616)(例えば、選択可能ユーザインタフェースオブジェクト)の選択に対応する第2の入力(例えば、1695I)(例えば、アフォーダンス上のタップ)を検出する(1726)。いくつかの実施形態では、ズームトグルアフォーダンスの選択は、第1のズームレベルを第4のズームレベルに変更する要求である。いくつかの実施形態では、第2の入力を検出したことに応じて、電子デバイス(例えば、600)は、第1の表現(例えば、1682)の表示を、カメラの視野の第4の表現(例えば、ライブプレビュー(例えば、キャプチャされ得るメディアのライブフィード))に置き換える(1728)。いくつかの実施形態では、第4の表現(例えば、ライブプレビュー(例えば、キャプチャされ得るメディアのライブフィード))は、第1のカメラの向きであり、かつ第4のズームレベルである。いくつかの実施形態では、第4のズームレベルは、第2のズームレベルと同じである。いくつかの実施形態では、ユーザは、アフォーダンスをタップして、第1のズームレベル(例えば、80%)から第3のズームレベル(例えば、第2のズームレベル(例えば、100%))(例えば、カメラの視野をより少なくキャプチャする)に表現上でズームインする。いくつかの実施形態では、ユーザは、アフォーダンスをタップして、第1のズームレベル(例えば、100%)から第3のズームレベル(例えば、第2のズームレベル(例えば、80%))(例えば、カメラの視野をより多くキャプチャする)に表現上でズームアウトすることができる。いくつかの実施形態では、選択されると、ズームレベルを変更するためのアフォーダンスは、選択されると、ズームイン状態とズームアウト状態との間をトグルすることができる(例えば、アフォーダンスの表示は、次の選択が表現をズームアウト又はズームインさせることを示すために変化することができる)。 In some embodiments, while displaying the first representation (e.g., 1682) of the camera's field of view, the electronic device (e.g., 600) displays (e.g., in the first camera user interface and the second camera user interface) a zoom toggle affordance (e.g., 1616) (e.g., a selectable user interface object) (1724). Displaying the zoom toggle affordance while displaying the first representation of the camera's field of view allows the user to quickly and easily manually adjust the zoom level of the first representation, if necessary. Providing additional control options without cluttering the UI with additional controls displayed enhances usability of the device, makes the user-device interface more efficient (e.g., by helping the user make appropriate inputs and reducing user errors when operating/interacting with the device), and also reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently. In some embodiments, the electronic device (e.g., 600) detects (1726) a second input (e.g., 1695I) (e.g., a tap on the affordance) corresponding to a selection of a zoom toggle affordance (e.g., 1616) (e.g., a selectable user interface object). In some embodiments, the selection of the zoom toggle affordance is a request to change the first zoom level to a fourth zoom level. In some embodiments, in response to detecting the second input, the electronic device (e.g., 600) replaces (1728) the display of the first representation (e.g., 1682) with a fourth representation (e.g., a live preview (e.g., a live feed of media that may be captured)) of the camera's field of view. In some embodiments, the fourth representation (e.g., a live preview (e.g., a live feed of media that may be captured)) is in the first camera orientation and at a fourth zoom level. In some embodiments, the fourth zoom level is the same as the second zoom level. In some embodiments, a user can tap the affordance to zoom in on the representation from a first zoom level (e.g., 80%) to a third zoom level (e.g., a second zoom level (e.g., 100%)) (e.g., capturing less of the camera's field of view). In some embodiments, a user can tap the affordance to zoom out on the representation from a first zoom level (e.g., 100%) to a third zoom level (e.g., a second zoom level (e.g., 80%)) (e.g., capturing more of the camera's field of view). In some embodiments, when selected, the affordance for changing the zoom level can toggle between a zoomed-in state and a zoomed-out state (e.g., a display of the affordance can change to indicate that the next selection will cause the representation to zoom out or in).

いくつかの実施形態では、ズームトグルアフォーダンス(例えば、1616)は、第1のカメラユーザインタフェース(例えば、1680)及び第2のカメラユーザインタフェース(例えば、1690)内に表示される。いくつかの実施形態では、ズームトグルアフォーダンス(例えば、1616)は、選択されると、第2のズームレベルを使用してメディアをキャプチャするように電子デバイスを構成するインジケーションとともに、第1のカメラユーザインタフェース内に最初に表示され、かつ選択されると、第1のズームレベルを使用してメディアをキャプチャするように電子デバイス(例えば、600)を構成するインジケーションとともに、第2のカメラユーザインタフェース内に最初に表示される。 In some embodiments, the zoom toggle affordance (e.g., 1616) is displayed in the first camera user interface (e.g., 1680) and the second camera user interface (e.g., 1690). In some embodiments, the zoom toggle affordance (e.g., 1616) is initially displayed in the first camera user interface with an indication that, when selected, configures the electronic device to capture media using a second zoom level, and is initially displayed in the second camera user interface with an indication that, when selected, configures the electronic device (e.g., 600) to capture media using a first zoom level.

いくつかの実施形態では、カメラの視野の第1の表現(例えば、1682)を表示している間に、電子デバイス(例えば、600)は、第1のズームレベル(例えば、1620A)を第3のズームレベル(例えば、1620B)に変更する要求(例えば、カメラユーザインタフェース上のピンチジェスチャ(例えば、1695D~1695I))を受信する。いくつかの実施形態では、要求は、電子デバイス(例えば、600)が第1のモードで動作しているときに受信される(例えば、電子デバイスが第1のカメラ(例えば、前カメラ)を使用して、カメラの視野をキャプチャするとの判定、及び/又はデバイスが1つ以上の他のモード(例えば、ポートレートモード、写真モード、ライブ通信セッションに関連付けられたモード)で動作しているとの判定を含むモード)。いくつかの実施形態では、第1のズームレベル(例えば、1620A)を第3のズームレベル(例えば、1620C)に変更する要求を受信したことに応じて、電子デバイス(例えば、600)は、第1の表現(例えば、1682)の表示を、カメラの視野の第5の表現(例えば、ライブプレビュー(例えば、キャプチャされ得るメディアのライブフィード))に置き換える。いくつかの実施形態では、第5の表現は、第1のカメラの向きであり、かつ第3のズームレベルである。いくつかの実施形態では、第3のズームレベルは、第2のズームレベルとは異なる。いくつかの実施形態では、ユーザは、デバイスの向きが変更されると、デバイスが表現を自動的に表示しないズームレベルまで、表現をズームイン及びズームアウトすることができる。 In some embodiments, while displaying a first representation (e.g., 1682) of the camera field of view, the electronic device (e.g., 600) receives a request (e.g., a pinch gesture (e.g., 1695D-1695I) on a camera user interface) to change from a first zoom level (e.g., 1620A) to a third zoom level (e.g., 1620B). In some embodiments, the request is received when the electronic device (e.g., 600) is operating in a first mode (e.g., a mode that includes a determination that the electronic device is to capture the camera field of view using a first camera (e.g., a front camera) and/or a determination that the device is operating in one or more other modes (e.g., a portrait mode, a photo mode, a mode associated with a live communication session)). In some embodiments, in response to receiving a request to change from the first zoom level (e.g., 1620A) to a third zoom level (e.g., 1620C), the electronic device (e.g., 600) replaces the display of the first representation (e.g., 1682) with a fifth representation of the camera's field of view (e.g., a live preview (e.g., a live feed of media to be captured)). In some embodiments, the fifth representation is in the first camera orientation and at a third zoom level. In some embodiments, the third zoom level is different from the second zoom level. In some embodiments, the user can zoom in and out of the representation to a zoom level at which the device does not automatically display the representation when the device orientation is changed.

いくつかの実施形態では、カメラは、第1のカメラ(例えば、前面カメラ(例えば、第1の側(例えば、電子デバイスの前面ハウジング)に配置されるカメラ)と、第1のカメラとは異なる第2のカメラ(例えば、背面カメラ(例えば、背面側(例えば、電子デバイスの背面ハウジング)に配置される))と、を含む。いくつかの実施形態では、1組の自動ズーム基準は、電子デバイス(例えば、600)が第1のカメラユーザインタフェース(例えば、1680、1690)(例えば、デバイスのユーザによって、カメラの視野の表現が表示されるように設定され、カメラが第1又は第2のカメラに対応する)内に第1のカメラの視野の表現を表示しており、かつ第2のカメラの視野の表現を表示していないときに満たされる基準を含む。いくつかの実施形態では、1組の自動ズーム基準が満たされていない(例えば、デバイスが第1のカメラではなく第2のカメラの視野の表現を表示している)(例えば、図16J~図16K)との判定に従って、電子デバイス(例えば、600)は、ユーザ入力を介在することなく自動的に、第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向き(例えば、横向き)でメディアをキャプチャする第2のカメラユーザインタフェース(例えば、1690)を表示することをやめる。1組の自動ズーム基準が満たされていないとの判定に従って、ユーザ入力を介在することなく自動的に、第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示することをやめることにより、第2のカメラユーザインタフェースへの意図しないアクセスを防止する。1組の条件が満たされなかったときに動作を実行するのを自動的にやめることにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the camera includes a first camera (e.g., a front camera (e.g., a camera disposed on a first side (e.g., a front housing of the electronic device)) and a second camera (e.g., a rear camera (e.g., disposed on a rear side (e.g., a rear housing of the electronic device)) that is different from the first camera. In some embodiments, the set of automatic zoom criteria includes criteria that are met when the electronic device (e.g., 600) is displaying a representation of the field of view of the first camera and is not displaying a representation of the field of view of the second camera in a first camera user interface (e.g., 1680, 1690) (e.g., configured by a user of the device to display a representation of the field of view of the camera and the camera corresponds to the first or second camera). In some embodiments, pursuant to a determination that the set of automatic zoom criteria is not met (e.g., the device is displaying a representation of the field of view of the second camera rather than the first camera) (e.g., Figures 16J-16K), the electronic device (e.g., 600) may, through user input intervention, 16. The device further includes a second camera user interface (e.g., 1690) that captures media at a second camera orientation (e.g., landscape) at a second zoom level different from the first zoom level, automatically and without user input, pursuant to a determination that a set of automatic zoom criteria is not met, thereby preventing unintended access to the second camera user interface. Automatically ceasing to perform an action when a set of conditions is not met enhances usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), and also reduces device power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、1組の自動ズーム基準は、電子デバイス(例えば、600)がビデオキャプチャ動作モード(例えば、電子デバイスが複数の参加者間のライブ通信セッションにある間にキャプチャされたビデオを含まないビデオをキャプチャする、ビデオをストリーミングする(図16M~図16N))にないときに満たされる基準を含む。 In some embodiments, the set of auto-zoom criteria includes criteria that are met when the electronic device (e.g., 600) is not in a video capture operating mode (e.g., capturing video, not including video captured while the electronic device is in a live communication session between multiple participants, streaming video (FIGS. 16M-16N)).

いくつかの実施形態では、1組の自動ズーム基準は、ライブ通信セッションのビデオをキャプチャする(例えば、複数の参加者間のライブビデオチャットで通信する(例えば、ライブビデオチャットモード)、ライブ通信セッションを容易にするユーザインタフェースを表示する(例えば、第1のカメラユーザインタフェースがライブ通信セッションインタフェースである)(例えば、図16P~図16Q))ように電子デバイス(例えば、600)が構成されているときに満たされる基準を含む。 In some embodiments, the set of auto-zoom criteria includes criteria that are met when the electronic device (e.g., 600) is configured to capture video of a live communication session (e.g., to communicate in a live video chat between multiple participants (e.g., a live video chat mode), to display a user interface facilitating the live communication session (e.g., the first camera user interface is a live communication session interface) (e.g., Figures 16P-16Q)).

いくつかの実施形態では、第1のズームレベルは、第2のズームレベルよりも高い(例えば、第1のズームレベルは、10×であり、第2のズームレベルは、1×であり、第1のズームレベルは、100%であり、第2のズームレベルは、80%である)。いくつかの実施形態では、第2のカメラユーザインタフェース(例えば、1690)を表示している間に、電子デバイス(例えば、600)は、第2の向き(例えば、1604)から第1の向き(例えば、1602)への電子デバイスの向きの変化を検出する。いくつかの実施形態では、第2の向きから第1の向きへの電子デバイス(例えば、600)の向きの変化(例えば、ランドスケープモードからポートレートモードへとデバイスを切り替えること)を検出したことに応じて、電子デバイスは、表示デバイス上に、第1のカメラユーザインタフェース(例えば、1680)を表示する。いくつかの実施形態では、デバイスを横向き(例えば、ランドスケープモード)から縦向き(例えば、ポートレートモード)に切り替えるときに、カメラユーザインタフェースは、ズームインし、デバイスを縦向きから横向きに切り替えるときに、ズームアウトする。 In some embodiments, the first zoom level is higher than the second zoom level (e.g., the first zoom level is 10x and the second zoom level is 1x, the first zoom level is 100% and the second zoom level is 80%). In some embodiments, while displaying the second camera user interface (e.g., 1690), the electronic device (e.g., 600) detects a change in orientation of the electronic device from the second orientation (e.g., 1604) to the first orientation (e.g., 1602). In some embodiments, in response to detecting a change in orientation of the electronic device (e.g., 600) from the second orientation to the first orientation (e.g., switching the device from landscape mode to portrait mode), the electronic device displays the first camera user interface (e.g., 1680) on the display device. In some embodiments, the camera user interface zooms in when switching the device from landscape orientation (e.g., landscape mode) to portrait orientation (e.g., portrait mode) and zooms out when switching the device from portrait orientation to landscape orientation.

方法1700に関して上述された処理(例えば、図17A~図17B)の詳細はまた、上記及び以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1900、2000、2100、2300、2500、2700、2800、3000、3200、3400、3600、3800、4000、及び4200は、方法1700を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。 It should be noted that the details of the processes described above with respect to method 1700 (e.g., FIGS. 17A-17B) are also applicable in a similar manner to the methods described above and below. For example, methods 700, 900, 1100, 1300, 1500, 1900, 2000, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3400, 3600, 3800, 4000, and 4200 optionally include one or more of the characteristics of the various methods described above with reference to method 1700. For the sake of brevity, these details will not be repeated below.

図18A~図18Xは、いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図19A~図19B、図20A~図20C、及び図21A~図21Cにおける処理を含む、以下で説明する処理を示すために使用される。 FIGS. 18A-18X show example user interfaces for managing media using an electronic device, according to some embodiments. The user interfaces in these figures are used to illustrate the processes described below, including the processes in FIGS. 19A-19B, 20A-20C, and 21A-21C.

具体的には、図18A~図18Xは、異なるレベルの可視光を有するいくつかの環境で動作するデバイス600を示す。低光閾値(例えば、20ルクス)を下回る光量を有する環境は、低光環境と呼ばれる。低光閾値を上回る光量を有する環境は、通常環境と呼ばれる。以下の実施例では、デバイス600は、1つ以上のカメラを介して、環境内(例えば、1つ以上のカメラの視野内(FOV))の光量の変化があるかどうかを検出し、デバイス600が低光環境又は通常環境で動作しているかどうかを判定することができる。以下の説明は、デバイス600が低光環境内で動作しているか、又はその外で動作しているかどうかに基づいて、異なるユーザインタフェースを提供することの相互作用を示す。 Specifically, Figures 18A-18X show device 600 operating in several environments having different levels of visible light. Environments having light levels below a low light threshold (e.g., 20 lux) are referred to as low light environments. Environments having light levels above the low light threshold are referred to as normal environments. In the examples below, device 600 can detect, via one or more cameras, whether there is a change in the amount of light in the environment (e.g., within the field of view (FOV) of one or more cameras) and determine whether device 600 is operating in a low light environment or a normal environment. The following description illustrates the interaction of providing different user interfaces based on whether device 600 is operating in or outside of a low light environment.

図18Aに示すように、デバイス600は、カメラディスプレイ領域604、コントロール領域606、及びインジケータ領域602を含む、カメラユーザインタフェースを表示する。ライブプレビュー630は、FOVの表現である。 As shown in FIG. 18A, the device 600 displays a camera user interface that includes a camera display area 604, a control area 606, and an indicator area 602. The live preview 630 is a representation of the FOV.

ライブプレビュー630は、明るく照らされた環境において写真を撮影するためにポーズをとる人を示す。したがって、FOV内の光量は、低光閾値を上回り、デバイス600は、低光環境で動作していない。デバイス600が低光環境で動作していないため、デバイス600は、FOV内のデータを連続的にキャプチャし、標準フレームレートに基づいてライブプレビュー630を更新する。 Live preview 630 shows a person posing to take a photograph in a brightly lit environment. Thus, the amount of light within the FOV is above the low light threshold and device 600 is not operating in a low light environment. Because device 600 is not operating in a low light environment, device 600 continuously captures data within the FOV and updates live preview 630 based on a standard frame rate.

図18Bに示すように、デバイス600は、低光環境において写真を撮影するためにポーズをとる人を示すライブプレビュー630を表示し、この低光環境は、ライブプレビュー630が視覚的に暗い画像を表示することによって明らかである。デバイス600が低光環境で動作しているため、デバイス600は、低光モード状態インジケータ602c及びフラッシュ状態インジケータ602aを表示する。低光モード状態インジケータ602cは、低光モードが非アクティブである(例えば、低光モードで動作するようにデバイス600が構成されていない)ことを示し、フラッシュ状態インジケータ602aは、フラッシュ動作がアクティブである(例えば、画像をキャプチャするときにフラッシュ動作を実行するようにデバイス600が構成されている)ことを示す。いくつかの実施形態では、フラッシュ状態インジケータ602aは、デバイス600が低光環境で動作していない場合であっても、コントロール領域606内に出現することができる。図18Bでは、デバイス600は、低光モード状態インジケータ602c上の入力1895Aを検出する。 As shown in FIG. 18B, the device 600 displays a live preview 630 showing a person posing to take a photograph in a low light environment, which is evident by the live preview 630 displaying a visually dark image. Because the device 600 is operating in a low light environment, the device 600 displays a low light mode status indicator 602c and a flash status indicator 602a. The low light mode status indicator 602c indicates that the low light mode is inactive (e.g., the device 600 is not configured to operate in low light mode), and the flash status indicator 602a indicates that a flash operation is active (e.g., the device 600 is configured to perform a flash operation when capturing an image). In some embodiments, the flash status indicator 602a can appear in the control area 606 even when the device 600 is not operating in a low light environment. In FIG. 18B, the device 600 detects an input 1895A on the low light mode status indicator 602c.

図18Cに示すように、入力1895Aに応じて、デバイス600は、低光モード状態インジケータ602cを更新して、低光モードがアクティブであることを示し、フラッシュモード状態インジケータ602aを更新して、フラッシュ動作が非アクティブであることを示す。本実施形態では、より暗い環境においてメディアをキャプチャするときに、光モード及びフラッシュ動作が両方とも有用である間、低光モードは、フラッシュ動作と互いに排他的である。更には、入力1895Aに応じて、デバイス600は、低光モードでメディアをキャプチャするキャプチャ持続時間を設定するための調整可能な低光モードコントロール1804を表示する。調整可能な低光モードコントロール1804上のインジケーション1818は、低光モードが特定のキャプチャ持続時間に設定されていることを示し、調整可能な低光モードコントロール1804上の各ティックマークは、異なるキャプチャ持続時間を表す。 18C, in response to the input 1895A, the device 600 updates the low light mode status indicator 602c to indicate that the low light mode is active and updates the flash mode status indicator 602a to indicate that the flash operation is inactive. In this embodiment, while the light mode and the flash operation are both useful when capturing media in darker environments, the low light mode is mutually exclusive with the flash operation. Furthermore, in response to the input 1895A, the device 600 displays an adjustable low light mode control 1804 for setting a capture duration for capturing media in the low light mode. An indication 1818 on the adjustable low light mode control 1804 indicates that the low light mode is set to a particular capture duration, with each tick mark on the adjustable low light mode control 1804 representing a different capture duration.

特に、ライブプレビュー630は、図18Bのものよりも図18Cで視覚的に明るい。これは、低光モードがアクティブであるとき、デバイス600が、より低いフレームレート(例えば、より長い露出時間に対応する)を使用して、そのカメラのうちの1つ以上を動作させるためである。低光環境における標準フレームレート(例えば、より高いフレームレート)を使用すると、各フレームに対する露出時間が短いため、(図18Bに示すように)より暗い画像をキャプチャする。したがって、デバイス600が低光モードで動作しているとき(18Cに示すように)、デバイス600は、標準フレームレートからフレームレートを低下させる。 Notably, the live preview 630 is visually brighter in FIG. 18C than in FIG. 18B. This is because when the low light mode is active, the device 600 operates one or more of its cameras using a lower frame rate (e.g., corresponding to a longer exposure time). Using a standard frame rate (e.g., a higher frame rate) in a low light environment would capture a darker image (as shown in FIG. 18B) due to the shorter exposure time for each frame. Thus, when the device 600 is operating in low light mode (as shown in FIG. 18C), the device 600 reduces the frame rate from the standard frame rate.

図18Cにおいて、デバイス600は、実質的に静止状態に保持されており、FOV内の対象は、同様に実質的に静止している。いくつかの実施形態では、FOV内のコンテンツが閾値速さを上回って動いている場合(例えば、デバイス600の移動及び/又はFOV内の対象の移動に起因して)、デバイス600は、コンテンツがFOV内で動くと、低いフレームレートでは画像がぼやける可能性があるため、フレームレートを低下させることをやめるか、移動が検出されない場合よりもフレームレートを下げる度合いをより低くする。デバイス600は、環境内の低光量によるフレームレートの減少と、環境内で検出された移動によるフレームレートの増加との間のオプションをバランスするように構成することができる。 In FIG. 18C, device 600 is held substantially stationary, and objects within the FOV are also substantially stationary. In some embodiments, if content within the FOV is moving above a threshold rate (e.g., due to movement of device 600 and/or movement of objects within the FOV), device 600 will stop reducing the frame rate or will reduce the frame rate less than if no movement was detected, as content moving within the FOV may result in blurred images at a lower frame rate. Device 600 may be configured to balance the options between reducing the frame rate due to low light in the environment and increasing the frame rate due to movement detected in the environment.

図18Dに示すように、入力1895Bを検出したことに応じて、デバイス600は、低光モードを使用してメディアをキャプチャすることを開始した。メディアのキャプチャを開始すると、ライブプレビュー630は、表示を停止される。具体的には、ライブプレビュー630は、暗色化して黒くなる。更には、デバイス600はまた、シャッターアフォーダンス610の表示を、停止アフォーダンス1806に置き換え、触知応答1820Aを生成する。停止アフォーダンス1806は、停止アフォーダンス1806上の入力によって低光モードキャプチャを停止することができることを示す。更に入力1895Bを検出したことに応じて、デバイス600はまた、インジケーション1818の移動をキャプチャ持続時間がゼロに向かって開始する(例えば、1秒からゼロまでのカウントダウン)。いくつかの実施形態では、調整可能な低光モードコントロール1804はまた、入力1895Bを検出したことに応じて、色を変更する(例えば、白から赤)。 18D, in response to detecting input 1895B, device 600 begins capturing media using low light mode. Upon starting media capture, live preview 630 is stopped from displaying. Specifically, live preview 630 fades to black. Additionally, device 600 also replaces display of shutter affordance 610 with stop affordance 1806 and generates tactile response 1820A. Stop affordance 1806 indicates that low light mode capture can be stopped by an input on stop affordance 1806. Additionally, in response to detecting input 1895B, device 600 also begins moving indication 1818 toward zero capture duration (e.g., counting down from one second to zero). In some embodiments, adjustable low light mode control 1804 also changes color (e.g., from white to red) in response to detecting input 1895B.

図18Eに示すように、メディアをキャプチャしている間に、デバイス600は、調整可能な低光モードコントロール1804上のインジケーション1818を、ほぼゼロであるキャプチャ持続時間に移動させる。図18Eに示すように、ライブプレビュー630は、1秒のキャプチャ持続時間(例えば、18Eで)とほぼゼロのキャプチャ持続時間との間にキャプチャされたメディアの表現とともに表示される。 As shown in FIG. 18E, while capturing media, the device 600 moves the indication 1818 on the adjustable low light mode control 1804 to a capture duration that is approximately zero. As shown in FIG. 18E, a live preview 630 is displayed with a representation of the media captured between the one second capture duration (e.g., at 18E) and the approximately zero capture duration.

図18Fに示すように、低光モードでのメディアのキャプチャを完了した後、デバイス600は、キャプチャされたメディアの表現1812を表示する。デバイス600は、メディアがキャプチャされた後に、停止アフォーダンス1806の表示を、シャッターアフォーダンス610に置き換える。低光モード状態インジケータ602cは、低光モードがアクティブであることを示すが、デバイス600は、低光モード状態インジケータ602c上の入力1895Cを検出する。 As shown in FIG. 18F, after completing capture of media in low light mode, the device 600 displays a representation 1812 of the captured media. The device 600 replaces the display of the stop affordance 1806 with the shutter affordance 610 after the media has been captured. The low light mode status indicator 602c indicates that low light mode is active, but the device 600 detects an input 1895C on the low light mode status indicator 602c.

図18Gに示すように、入力1895Cを受信したことに応じて、デバイス600は、低光モード状態インジケータ602cを更新して、低光モードが非アクティブであることを示し、フラッシュ状態インジケータ602aを更新して、フラッシュ動作がアクティブであることを示す。更に、入力1895Cを検出したことに応じて、デバイス600は、調整可能な低光モードコントロール1804を表示することを停止する。いくつかの実施形態では、デバイス600が低光条件で標準条件まで動作するとき、調整可能な低光モードコントロール1804は、任意のユーザ入力なしに自動的に表示を停止される。 18G, in response to receiving input 1895C, device 600 updates low light mode status indicator 602c to indicate that low light mode is inactive and updates flash status indicator 602a to indicate that flash operation is active. Further, in response to detecting input 1895C, device 600 ceases displaying adjustable low light mode control 1804. In some embodiments, when device 600 operates in low light conditions up to standard conditions, adjustable low light mode control 1804 is automatically ceased display without any user input.

特に、低光モードが非アクティブであるため、デバイス630は、そのカメラの1つ以上のカメラのフレームレートを増加させ、ライブプレビュー630は、図18Bのように、視覚的により暗くなる。図18Gでは、デバイス600は、デバイス600が追加のカメラコントロールアフォーダンス614に隣接して表示した、低光モードコントロールアフォーダンス614b上の入力1895Dを検出する。 In particular, because low light mode is inactive, device 630 increases the frame rate of one or more of its cameras, and live preview 630 becomes visually darker, as in FIG. 18B. In FIG. 18G, device 600 detects input 1895D on low light mode control affordance 614b, which device 600 displays adjacent to additional camera control affordance 614.

図18Hに示すように、入力1895Dを検出したことに応じて、デバイス600は、低光モード状態インジケータ602cを更新して、低光モードがアクティブであることを示し、フラッシュ状態インジケータ602cを更新して、フラッシュ動作が非アクティブであることを示す。デバイス600は、以前の1秒のキャプチャ持続時間に設定されたインジケーション1818とともに、調整可能な低光モードコントロール1804を再表示する。特に、低光モードがアクティブであるため、デバイス600は、そのカメラの1つ以上のカメラのフレームレートを減少させ、ライブプレビュー630を、図18Cのように、視覚的により明るくする。図18Hでは、デバイス600は、インジケーション1818上の入力1895Eを検出して、調整可能な低光モードコントロール1804を新しいキャプチャ持続時間に調整する。 18H, in response to detecting input 1895D, device 600 updates low light mode status indicator 602c to indicate that low light mode is active and updates flash status indicator 602c to indicate that flash operation is inactive. Device 600 redisplays adjustable low light mode control 1804 with indication 1818 set to the previous capture duration of 1 second. In particular, because low light mode is active, device 600 reduces the frame rate of one or more of its cameras, making live preview 630 visually brighter, as in FIG. 18C. In FIG. 18H, device 600 detects input 1895E on indication 1818 and adjusts adjustable low light mode control 1804 to the new capture duration.

図18Iに示すように、入力1895Eを受信したことに応じて、デバイス600は、1秒のキャプチャ持続時間から2秒のキャプチャ持続時間にインジケーション1818を動かす。1秒の持続時間から2秒のキャプチャ持続時間までインジケーション1818を動かす間、デバイス600は、ライブプレビュー630を明るくする。いくつかの実施形態では、デバイス600は、デバイス600の1つ以上のカメラのフレームレートを減少させる(例えば、更に減少させる)ことにより、及び/又は1つ以上の画像処理技術を適用することにより、より明るいライブプレビュー630を表示する。図18Iでは、デバイス600は、インジケーション1818上の入力1895Fを検出して、調整可能な低光モードコントロール1804を新しいキャプチャ持続時間に調整する。いくつかの実施形態では、入力1895Fは、入力1895Eの第2の部分である(例えば、1895E及び1895Fを含む連続的なドラッグ入力)。 18I, in response to receiving input 1895E, device 600 moves indication 1818 from a 1 second capture duration to a 2 second capture duration. While moving indication 1818 from a 1 second duration to a 2 second capture duration, device 600 brightens live preview 630. In some embodiments, device 600 displays a brighter live preview 630 by decreasing (e.g., further decreasing) the frame rate of one or more cameras of device 600 and/or applying one or more image processing techniques. In FIG. 18I, device 600 detects input 1895F on indication 1818 and adjusts adjustable low light mode control 1804 to the new capture duration. In some embodiments, input 1895F is a second portion of input 1895E (e.g., a continuous drag input including 1895E and 1895F).

図18Jに示すように、入力1895Fを検出したことに応じて、デバイス600は、2秒のキャプチャ持続時間から4秒のキャプチャ持続時間にインジケーション1818を動かす。2秒のキャプチャ持続時間から4秒のキャプチャ持続時間までインジケーション1818を動かす間、デバイス600は、ライブプレビュー630を更に明るくする。図18Jでは、デバイス600は、シャッターアフォーダンス610上の入力1895Gを検出する。図18K~図18Mに示すように、入力1895Gを検出したことに応じて、デバイス600は、図18Kに設定された4秒のキャプチャ持続時間に基づいて、メディアのキャプチャを開始する。図18K~図18Mは、巻き取りアニメーション1814を示す。巻き取りアニメーション814は、急速に進行する前の0秒(18K)で開始し、4秒マーク(18M)に到達する前の2秒マーク(18L)までの低光モードコントロール1804のアニメーションを含み、これは、調整可能な低光モードコントロール1804のキャプチャされた持続時間(例えば、4秒)に等しい。巻き取りアニメーションは、様々な段階で触知出力を生成する。巻き取りアニメーション1814は、低光モードメディアキャプチャの開始に対応する。いくつかの実施形態では、巻き取りアニメーションは、等間隔で図18K~図18Mを表示する滑らかなアニメーションである。いくつかの実施形態では、デバイス600は、巻き取りアニメーション(例えば、触知出力1820B~1820D)とともに触知出力を生成する。いくつかの実施形態では、巻き取りアニメーションは、比較的短い時間(例えば、0.25秒、0.5秒)で行われる。 As shown in FIG. 18J, in response to detecting input 1895F, device 600 moves indication 1818 from a two second capture duration to a four second capture duration. While moving indication 1818 from a two second capture duration to a four second capture duration, device 600 further brightens live preview 630. In FIG. 18J, device 600 detects input 1895G on shutter affordance 610. As shown in FIG. 18K-18M, in response to detecting input 1895G, device 600 begins capturing media based on the four second capture duration set in FIG. 18K. FIGS. 18K-18M show winding animation 1814. The winding animation 814 includes an animation of the low light mode control 1804 starting at 0 seconds (18K) before progressing rapidly to the 2 second mark (18L) before reaching the 4 second mark (18M), which is equal to the captured duration of the adjustable low light mode control 1804 (e.g., 4 seconds). The winding animation generates tactile outputs at various stages. The winding animation 1814 corresponds to the start of the low light mode media capture. In some embodiments, the winding animation is a smooth animation that displays figures 18K-18M at equal intervals. In some embodiments, the device 600 generates tactile outputs along with the winding animation (e.g., tactile outputs 1820B-1820D). In some embodiments, the winding animation occurs over a relatively short period of time (e.g., 0.25 seconds, 0.5 seconds).

巻き取りアニメーション1814を表示した後、デバイス600は、図18M~図18Qに示すように、巻き出しアニメーション1822を表示する。巻き出しアニメーション1822は、キャプチャ持続時間に基づいて行われ、発生する画像キャプチャと一致する。巻き出し(Wounding down)アニメーションは、様々な段階で触知出力を生成する。図18Mに戻ると、デバイス600は、4秒のキャプチャ持続時間でインジケーション1818を表示する。 After displaying the winding down animation 1814, the device 600 displays a winding down animation 1822, as shown in FIGS. 18M-18Q. The winding down animation 1822 occurs based on the capture duration and coincides with the image capture occurring. The winding down animation generates tactile outputs at various stages. Returning to FIG. 18M, the device 600 displays an indication 1818 with a capture duration of 4 seconds.

図18Nに示すように、デバイス600は、4秒のキャプチャ持続時間から3.5秒までインジケーション1818を動かし、ライブプレビュー630を更新すること及び触知出力を生成することなく、残りのキャプチャ持続時間を示す。 As shown in FIG. 18N, the device 600 moves the indication 1818 from 4 seconds of capture duration to 3.5 seconds to indicate the remaining capture duration without updating the live preview 630 or generating a tactile output.

図18Oに示すように、デバイス600は、3.5秒のキャプチャ持続時間から3秒のキャプチャ残り持続時間にインジケーション1818を動かした。デバイス600は、ライブプレビュー630を更新して、3秒のキャプチャ残り持続時間までキャプチャされたカメラデータを表す画像を示す。(例えば、1秒のキャプチャされたカメラデータ)。特に、図18N~図18Oにおいて、デバイス600は、より明るい画像を示すために、ライブプレビュー630を連続的に更新しない。代わりに、デバイス600は、1秒の間隔のキャプチャ持続時間でライブプレビュー630を更新するだけである。ライブプレビュー630を更新することに加えて、デバイス600は、触知出力1820Eを生成する。 As shown in FIG. 18O, the device 600 has moved the indication 1818 from a capture duration of 3.5 seconds to a capture duration remaining of 3 seconds. The device 600 updates the live preview 630 to show an image representative of the captured camera data up to the 3 seconds of capture duration remaining. (e.g., 1 second of captured camera data). Notably, in FIGS. 18N-18O, the device 600 does not continuously update the live preview 630 to show a brighter image. Instead, the device 600 only updates the live preview 630 at 1 second intervals of the capture duration. In addition to updating the live preview 630, the device 600 generates a tactile output 1820E.

図18Pに示すように、デバイス600は、3秒のキャプチャ残り持続時間から2秒のキャプチャ残り持続時間にインジケーション1818を動かし、触知出力1820Fを生成する。更に、18Nを考慮して、ライブプレビュー630は、ここでは視覚的により明るいが、これは、ライブプレビュー630を1秒の間隔で、追加のキャプチャされたカメラデータで更新するためである。いくつかの実施形態では、ライブプレビューは、1秒以外(例えば、0.5秒、2秒)の間隔で更新された。 As shown in FIG. 18P, the device 600 moves the indication 1818 from a 3 second capture duration remaining to a 2 second capture duration remaining and generates a tactile output 1820F. Additionally, in view of 18N, the live preview 630 is now visually brighter because the live preview 630 is updated with additional captured camera data at 1 second intervals. In some embodiments, the live preview is updated at intervals other than 1 second (e.g., 0.5 seconds, 2 seconds).

図18Qに示すように、デバイス600は、2秒のキャプチャ残り持続時間から0のキャプチャ残り持続時間にインジケーション1818を動かす。図18Qにおいて、ライブプレビュー630は、図18Pのものよりも視覚的に明るい。 As shown in FIG. 18Q, the device 600 moves the indication 1818 from 2 seconds of capture duration remaining to 0 capture duration remaining. In FIG. 18Q, the live preview 630 is visually brighter than that in FIG. 18P.

図18Rに示すように、デバイス600は、最大4秒の持続時間にわたってキャプチャを完了し、キャプチャされたメディアの表現1824を表示する。表現1826は、図18O(例えば、1秒のデータ)及び18P(2秒のデータ)のライブプレビューのそれぞれよりも明るく、図18Q(4秒のデータ)のライブプレビューと同等の輝度である。 As shown in FIG. 18R, device 600 completes the capture over a maximum 4 second duration and displays a representation 1824 of the captured media. Representation 1826 is brighter than each of the live previews of FIG. 18O (e.g., 1 second of data) and 18P (2 seconds of data), and is comparable in brightness to the live preview of FIG. 18Q (4 seconds of data).

いくつかの実施形態では、デバイス600は、メディアをキャプチャしている間及び設定されたキャプチャ持続時間の完了前に、停止アフォーダンス820上の入力を検出する。このような実施形態では、デバイス600は、そのポイントまでキャプチャされたデータを使用して、メディアを生成及び記憶する。図18Sは、キャプチャが4秒のキャプチャで1秒停止される実施形態の結果を示す。18Sにおいて、停止される前に1秒の間隔でキャプチャされたメディアの表現1824は、4秒の持続時間にわたってキャプチャされた、図18Rの表現1826よりも顕著に暗くなる。 In some embodiments, device 600 detects input on the stop affordance 820 while capturing media and before the completion of the set capture duration. In such embodiments, device 600 generates and stores media using the data captured up to that point. FIG. 18S shows the result of an embodiment in which capture is stopped for 1 second into a 4 second capture. In 18S, a representation 1824 of media captured at a 1 second interval before being stopped is noticeably darker than the representation 1826 in FIG. 18R, which was captured over a 4 second duration.

図18Rに戻ると、デバイス600は、調整可能な低光モードコントロール1804上で入力1895Rを検出する。図18Tに示すように、入力1895Rを検出したことに応じて、デバイス600は、4秒のキャプチャ持続時間から0秒のキャプチャ持続時間にインジケーション1818を動かす。インジケーション1818をゼロキャプチャ持続時間まで動かすことに応じて、デバイス600は、低光モード状態インジケータ602cを更新して、低光モードが非アクティブであることを示す。更には、デバイス600は、フラッシュ状態インジケータ602aを更新して、フラッシュ動作がアクティブであることを示す。したがって、低光モードコントロール1804をゼロの持続時間まで設定することは、低光モードをオフにすることと同等である。 Returning to FIG. 18R, the device 600 detects an input 1895R on the adjustable low light mode control 1804. As shown in FIG. 18T, in response to detecting the input 1895R, the device 600 moves the indication 1818 from a capture duration of 4 seconds to a capture duration of 0 seconds. In response to moving the indication 1818 to a zero capture duration, the device 600 updates the low light mode status indicator 602c to indicate that low light mode is inactive. Additionally, the device 600 updates the flash status indicator 602a to indicate that a flash operation is active. Thus, setting the low light mode control 1804 to a zero duration is equivalent to turning off low light mode.

図18Tでは、デバイス600は、追加のコントロールアフォーダンス614上の入力1895Sを検出する。図18Uに示すように、入力1895Sを検出したことに応じて、デバイス600は、コントロール領域606に低光モードコントロールアフォーダンス614bを表示する。 In FIG. 18T, the device 600 detects input 1895S on the additional control affordance 614. As shown in FIG. 18U, in response to detecting the input 1895S, the device 600 displays a low light mode control affordance 614b in the control region 606.

図18V~図18Xは、3つの異なる周囲環境における、フラッシュ状態インジケータ602c1~602c3及び低光モード状態インジケータ602c1~602c3を示す、ユーザインタフェースの様々なセットを示す。図18V~図18Xは、デバイス600A、600B、及び600Cを示し、各々がデバイス100、300、500、又は600の1つ以上の機能を含む。デバイス600Aは、オンに設定された調整可能なフラッシュコントロールを表示し、デバイス600Bは、自動に設定された調整可能なフラッシュコントロール662Bを表示し、デバイス600Bは、オフに設定された調整可能なフラッシュコントロール662Cを表示する。上述のように、図6H~図6Iに関連して、調整可能なフラッシュコントロール662は、デバイス600のフラッシュ設定を設定する。 18V-18X show various sets of user interfaces showing flash status indicators 602c1-602c3 and low light mode status indicators 602c1-602c3 in three different ambient environments. 18V-18X show devices 600A, 600B, and 600C, each including one or more features of devices 100, 300, 500, or 600. Device 600A displays an adjustable flash control set to on, device 600B displays an adjustable flash control 662B set to auto, and device 600B displays an adjustable flash control 662C set to off. As discussed above in connection with FIGS. 6H-6I, the adjustable flash control 662 sets the flash settings for device 600.

図18Vは、インジケータグラフィック1888によって示されるように、FOV内の光量1888が10ルクス~0ルクスである周囲環境を示す。FOV内の光量が10ルクス~0ルクス(例えば、非常に低光モード)であるため、デバイス600は、フラッシュがオフに設定されているときにのみ、アクティブとして低光状態インジケータを表示する。図18Vに示すように、低光インジケータ602c2は、アクティブとして表示された低光インジケータのみであり、フラッシュ状態インジケータ602a2は、調整可能なフラッシュコントロール662Bがオフに設定されているため、非アクティブに設定されたフラッシュ状態インジケータのみである。 FIG. 18V illustrates an ambient environment where the amount of light 1888 within the FOV is between 10 lux and 0 lux, as indicated by indicator graphic 1888. Because the amount of light within the FOV is between 10 lux and 0 lux (e.g., very low light mode), device 600 displays the low light status indicator as active only when the flash is set to off. As shown in FIG. 18V, low light indicator 602c2 is the only low light indicator displayed as active, and flash status indicator 602a2 is the only flash status indicator set to inactive because adjustable flash control 662B is set to off.

図18Wは、FOV内の光量1890が20ルクス~10ルクスである環境を示す。FOV光量が20ルクス~10ルクス(例えば、適度に低光)であるため、デバイス600は、フラッシュがオンに設定されているときにのみ、非アクティブとして低光状態インジケータを表示する。図18Wに示すように、低光インジケータ602c1は、非アクティブとして表示された低光インジケータのみであり、フラッシュ状態インジケータ602a1は、調整可能なフラッシュコントロール662Aがオンに設定されているため、アクティブに設定されたフラッシュ状態インジケータのみである。 FIG. 18W illustrates an environment where the light level 1890 within the FOV is between 20 lux and 10 lux. Because the FOV light level is between 20 lux and 10 lux (e.g., moderately low light), the device 600 displays the low light status indicator as inactive only when the flash is set to on. As shown in FIG. 18W, low light indicator 602c1 is the only low light indicator displayed as inactive, and flash status indicator 602a1 is the only flash status indicator set to active because adjustable flash control 662A is set to on.

図18Xは、FOV内の光量1892が20ルクスを上回る周囲環境を示す。FOV内の光量が20ルクス(例えば、標準光)を上回るため、低光インジケータは、デバイス600A~600Cのいずれにも表示されない。フラッシュ状態インジケータ602c-2は、調整可能なフラッシュコントロール662Aがオンに設定されているため、アクティブに表示される。フラッシュ状態インジケータ602c-3は、調整可能なフラッシュコントロール662Bがオフに設定されているため、非アクティブに表示される。デバイス600Cは、調整可能なフラッシュコントロール662Cが自動に設定されているため、フラッシュ状態インジケータを表示せず、デバイス600は、フラッシュが10ルクスを上回ると自動的に動作しないと判定した。 FIG. 18X illustrates an ambient environment where the amount of light 1892 in the FOV is greater than 20 lux. Because the amount of light in the FOV is greater than 20 lux (e.g., standard light), no low light indicator is displayed on any of devices 600A-600C. Flash status indicator 602c-2 is displayed as active because adjustable flash control 662A is set to on. Flash status indicator 602c-3 is displayed as inactive because adjustable flash control 662B is set to off. Device 600C does not display a flash status indicator because adjustable flash control 662C is set to auto and device 600 has determined that the flash will not operate automatically above 10 lux.

図19A~図19Bは、いくつかの実施形態による、電子デバイスを使用してフレームレートを変更するための方法を示すフロー図である。方法1900は、表示デバイス(例えば、タッチ感知ディスプレイ)及び1つ以上のカメラ(例えば、電子デバイスの異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を備えるデバイス(例えば、100、300、500、600)で実行される。方法1900のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 19A-19B are flow diagrams illustrating a method for varying a frame rate using an electronic device, according to some embodiments. Method 1900 is performed on a device (e.g., 100, 300, 500, 600) that includes a display device (e.g., a touch-sensitive display) and one or more cameras (e.g., one or more cameras (e.g., dual camera, triple camera, quad camera, etc.) on different sides (e.g., front camera, rear camera) of the electronic device). Some operations of method 1900 are optionally combined, the order of some operations is optionally changed, and some operations are optionally omitted.

いくつかの実施形態では、電子デバイス(例えば、600)は、コンピュータシステムである。コンピュータシステムは、任意選択的に、ディスプレイ生成構成要素と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the electronic device (e.g., 600) is a computer system. The computer system is optionally in communication (e.g., wired communication, wireless communication) with a display generation component and with one or more input devices. The display generation component is configured to provide visual output, such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. The one or more input devices are configured to receive input, such as a touch-sensitive surface that receives user input. In some embodiments, the one or more input devices are integrated with the computer system. In some embodiments, the one or more input devices are separate from the computer system. Thus, the computer system can transmit data (e.g., image data or video data) via a wired or wireless connection to an integrated or external display generation component to visually generate content (e.g., using a display device) and can receive wired or wireless connection input from one or more input devices.

後述するように、方法1900は、フレームレートを変更するための直感的な仕方を提供する。この方法は、フレームレートを変更する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にフレームレートを変更することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, method 1900 provides an intuitive way to change frame rates. The method reduces the cognitive burden on the user in changing frame rates, thereby creating a more efficient human-machine interface. For battery-operated computing devices, enabling the user to change frame rates more quickly and efficiently conserves power and extends the time between battery charges.

電子デバイス(例えば、600)は、表示デバイスを介して、1つ以上のカメラ(例えば、カメラに視認可能である開放観測可能エリア、カメラレンズから所与の距離の画像の水平(又は垂直又は対角線)長さ)の視野の表現(例えば、630)(例えば、表現オーバータイム、カメラからのデータのライブプレビューフィード)を表示することを含むメディアキャプチャユーザインタフェースを表示する(1902)。 The electronic device (e.g., 600) displays (1902) a media capture user interface that includes displaying a representation (e.g., 630) of the field of view of one or more cameras (e.g., the open observable area visible to the camera, the horizontal (or vertical or diagonal) length of the image at a given distance from the camera lens) (e.g., a representation over time, a live preview feed of data from the camera) via a display device.

いくつかの実施形態では、メディアキャプチャユーザインタフェースを表示することは、可変フレームレート基準が満たされているとの判定に従って、可変フレームレートモードがアクティブであるというインジケーション(例えば、602c)(例えば、低光状態インジケータ)を表示する(1906)ことを含む(1904)。可変フレームレート基準が満たされているとの判定に従って、可変フレームレートモードがアクティブであるというインジケーションを表示することにより、ユーザに、可変フレームレートモード(例えば、18B及び18Cの630)の状態の視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。いくつかの実施形態では、メディアキャプチャユーザインタフェースを表示することは、可変フレームレート基準が満たされていないとの判定に従って、可変フレームレートモードがアクティブであるというインジケーションなしで、メディアキャプチャユーザインタフェースを表示すること(1908)を含む(1904)。いくつかの実施形態では、低光状態インジケータ(例えば、602c)は、デバイスが低光モードで動作していることを示す(例えば、低光状態インジケータは、デバイスが低光モードで動作しているかどうかの状態(例えば、アクティブ又は非アクティブ)を含む)。 In some embodiments, displaying the media capture user interface includes displaying an indication (1906) that the variable frame rate mode is active (e.g., 602c) (e.g., a low light condition indicator) pursuant to a determination that the variable frame rate criteria are met (1904). Displaying an indication that the variable frame rate mode is active pursuant to a determination that the variable frame rate criteria are met provides a user with visual feedback of the status of the variable frame rate mode (e.g., 630 of 18B and 18C). Providing the user with improved visual feedback improves device usability and provides a more efficient user-device interface (e.g., by assisting the user in providing appropriate inputs and reducing user errors when operating/interacting with the device), which in turn reduces device power usage and improves battery life by allowing the user to use the device more quickly and efficiently. In some embodiments, displaying the media capture user interface includes displaying (1908) the media capture user interface without the indication that the variable frame rate mode is active pursuant to a determination that the variable frame rate criteria are not met (1904). In some embodiments, the low light status indicator (e.g., 602c) indicates that the device is operating in low light mode (e.g., the low light status indicator includes a status (e.g., active or inactive) of whether the device is operating in low light mode).

いくつかの実施形態では、第1のフレームレートで1つ以上のカメラの視野内で検出された変化に基づいて更新された1つ以上のカメラの視野の表現(例えば、1802)は、表示デバイス上に、第1の輝度で表示される(例えば、18B及び18Cの630)。いくつかの実施形態では、第1のフレームレートよりも低い第2のフレームレートで1つ以上のカメラの視野内で検出された変化に基づいて更新された1つ以上のカメラの視野の表現(例えば、1802)は、表示デバイス上に、(例えば、電子デバイスによって)第1の輝度よりも視覚的に明るい第2の輝度で表示される(例えば、18B及び18Cの630)。いくつかの実施形態では、フレームレートを減少させることにより、ディスプレイ上に表示されている表現の輝度が増加する(例えば、18B及び18Cの630)。 In some embodiments, the representations (e.g., 1802) of the one or more cameras' fields of view updated based on changes detected in the one or more cameras' fields of view at a first frame rate are displayed on a display device at a first brightness (e.g., 630 in 18B and 18C). In some embodiments, the representations (e.g., 1802) of the one or more cameras' fields of view updated based on changes detected in the one or more cameras' fields of view at a second frame rate lower than the first frame rate are displayed (e.g., by an electronic device) on the display device at a second brightness that is visually brighter than the first brightness (e.g., 630 in 18B and 18C). In some embodiments, decreasing the frame rate increases the brightness of the representations displayed on the display (e.g., 630 in 18B and 18C).

メディアキャプチャユーザインタフェース(例えば、608)を表示している間に、電子デバイス(例えば、600)は、1つ以上のカメラを介して、1つ以上のカメラの視野(例えば、18B及び18Cの630)内の変化(例えば、移動を示す変化)を検出する(1910)。 While displaying a media capture user interface (e.g., 608), the electronic device (e.g., 600), via one or more cameras, detects (1910) a change (e.g., a change indicative of movement) within the field of view (e.g., 630 of 18B and 18C) of one or more cameras.

いくつかの実施形態では、検出された変化は、検出された移動(例えば、電子デバイスの移動、視野内のコンテンツの変化率)を含む。いくつかの実施形態では、第2のフレームレートは、検出された移動の量に基づく。いくつかの実施形態では、第2のフレームレートは、移動が増加するにつれて増加する(例えば、18B及び18Cの630)。 In some embodiments, the detected change includes detected movement (e.g., movement of an electronic device, rate of change of content within a field of view). In some embodiments, the second frame rate is based on the amount of detected movement. In some embodiments, the second frame rate increases as movement increases (e.g., 630 in 18B and 18C).

1つ以上のカメラの視野内の変化を検出したことに応じて、かつ可変フレームレート基準(例えば、視野の表現が可変又は静的フレームレートで更新されているかどうかを管理する1組の基準)が満たされているとの判定に従って(1912)、1つ以上のカメラ(例えば、電子デバイスのハウジング内に組み込まれた1つ以上のカメラ)の視野内の検出された変化が移動基準(例えば、移動速さ閾値、移動量閾値など)を満たすとの判定に従って、電子デバイス(例えば、600)は、第1のフレームレートで1つ以上のカメラの視野(例えば、18Cの630)内で検出された変化に基づいて、1つ以上のカメラの視野の表現(例えば、630)を更新する(1914)。1つ以上のカメラの視野内の検出された変化が移動基準を満たすとの判定に従って、第1のフレームレートで1つ以上のカメラの視野内で検出された変化に基づいて、1つ以上のカメラの視野の表現を更新することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされたときに動作を実行し、これにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、フレームレート基準は、電子デバイスが動いていると判定されるときに満たされる基準を含む(例えば、所定の閾値は、位置変位、速さ、速度、加速度、又はこれらのいずれかの組み合わせに基づく)。いくつかの実施形態では、フレームレート基準は、電子デバイス(例えば、600)が動いていないと判定されるときに満たされる基準を含む(例えば、18B及び18Cの630)(例えば、実質的に静止(例えば、デバイスの移動は、所定の閾値(例えば、所定の閾値は、位置変位、速さ、速度、加速度、又はこれらのいずれかの組み合わせに基づく)以上又は等しい))。 In response to detecting a change in the field of view of one or more cameras, and in accordance with a determination that variable frame rate criteria (e.g., a set of criteria governing whether the representation of the field of view is updated at a variable or static frame rate) are satisfied (1912), and in accordance with a determination that the detected change in the field of view of one or more cameras (e.g., one or more cameras incorporated within a housing of the electronic device) satisfies movement criteria (e.g., a movement speed threshold, a movement amount threshold, etc.), the electronic device (e.g., 600) updates a representation (e.g., 630) of the field of view of one or more cameras based on the detected change in the field of view of the one or more cameras (e.g., 630 of 18C) at a first frame rate (1914). By updating a representation of the one or more cameras' fields of view based on the detected changes in the one or more cameras' fields of view at a first frame rate pursuant to a determination that the detected changes in the one or more cameras' fields of view satisfy the movement criterion, the electronic device performs an action when a set of conditions is met without requiring further user input, thereby enhancing usability of the device and making the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs and reducing user errors when operating/interacting with the device), as well as reducing power usage and improving battery life of the device by allowing the user to use the device more quickly and efficiently. In some embodiments, the frame rate criterion includes a criterion that is met when the electronic device is determined to be in motion (e.g., the predetermined threshold is based on position displacement, speed, velocity, acceleration, or any combination thereof). In some embodiments, the frame rate criteria include criteria that are met when the electronic device (e.g., 600) is determined to be not moving (e.g., 630 in 18B and 18C) (e.g., substantially stationary (e.g., device movement is greater than or equal to a predetermined threshold (e.g., the predetermined threshold is based on position displacement, speed, velocity, acceleration, or any combination thereof))).

1つ以上のカメラの視野内の変化を検出したことに応じて、かつ可変フレームレート基準(例えば、視野の表現が可変又は静的フレームレートで更新されているかどうかを管理する1組の基準)が満たされているとの判定(1912)に従って、1つ以上のカメラの視野内の検出された変化が移動基準を満たさないとの判定に従って、電子デバイス(例えば、600)は、第1のフレームレートよりも低い第2のフレームレート(例えば、フレームレート、及び画像データが第1の露出時間よりも長い第2の露出時間を使用してキャプチャされる場所)(例えば、18A及び18Bの630)で1つ以上のカメラの視野内で検出された変化に基づいて、1つ以上のカメラの視野の表現(例えば、630)を更新する(1916)。1つ以上のカメラの視野内の検出された変化が移動基準を満たさないとの判定に従って、第2のフレームレートで1つ以上のカメラの視野内で検出された変化に基づいて、1つ以上のカメラの視野の表現を更新することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされた(又は他方では、満たされなかった)ときに動作を実行し、これにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In response to detecting a change in the field of view of one or more cameras, and in accordance with a determination (1912) that the variable frame rate criteria (e.g., a set of criteria governing whether the representation of the field of view is updated at a variable or static frame rate) are met, in accordance with a determination that the detected change in the field of view of one or more cameras does not meet the movement criteria, the electronic device (e.g., 600) updates (1916) the representation of the field of view of one or more cameras (e.g., 630) based on the detected change in the field of view of one or more cameras at a second frame rate (e.g., a frame rate and where the image data is captured using a second exposure time longer than the first exposure time) (e.g., 630 of 18A and 18B). By updating the representation of the field of view of the one or more cameras based on the detected changes in the field of view of the one or more cameras at the second frame rate pursuant to a determination that the detected changes in the field of view of the one or more cameras do not satisfy the movement criterion, the electronic device performs an action when a set of conditions is met (or, alternatively, not met) without requiring further user input, thereby enhancing usability of the device and making the user-device interface more efficient (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), as well as reducing power usage and improving battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、可変フレームレート基準は、1つ以上のカメラの視野内の周辺光が閾値を下回るときに満たされる基準(例えば、可変フレームレート基準は、周辺光が閾値を上回るときには満たされていない)を含み、1つ以上のカメラの視野内の変化を検出する前に、1つ以上のカメラの視野の表現が、第3のフレームレート(例えば、通常の照明条件でのフレームレート)(例えば、1888、1890、及び1892)で更新される(1918)。いくつかの実施形態では、1つ以上のカメラの視野内の変化を検出したことに応じて、かつ可変フレームレート基準が満たされていないとの判定に従って、電子デバイス(例えば、600)は、第3のフレームレートで1つ以上のカメラの視野の表現の更新を維持する(1920)(例えば、1つ以上のカメラの視野内で検出された変化が(例えば、判定することなく、又は判定を考慮することなく)移動基準を満たすかどうかにかかわらず)(例えば、図8Aの630)。1つ以上のカメラの視野内の変化を検出したことに応じて、かつ可変フレームレート基準が満たされていないとの判定に従って、第3のフレームレートで1つ以上のカメラの視野の表現の更新を維持することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされた(又は他方では、満たされなかった)ときに動作を実行し、これにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、可変フレームレート基準は、フラッシュモードが非アクティブであるときに満たされる基準を含む。いくつかの実施形態では、低光状態インジケータ(例えば、602c)は、フラッシュ動作と互いに排他的である(例えば、フラッシュ動作が非アクティブのときにアクティブ又はフラッシュ動作がアクティブのときに非アクティブ)。いくつかの実施形態では、フラッシュ動作の状態及び低光キャプチャモードの状態は、互いに反対である。 In some embodiments, the variable frame rate criterion includes a criterion that is met when ambient light in the field of view of one or more cameras falls below a threshold (e.g., the variable frame rate criterion is not met when ambient light is above a threshold), and prior to detecting a change in the field of view of one or more cameras, the representation of the field of view of one or more cameras is updated (1918) at a third frame rate (e.g., a frame rate under normal lighting conditions) (e.g., 1888, 1890, and 1892). In some embodiments, in response to detecting a change in the field of view of one or more cameras and following a determination that the variable frame rate criterion is not met, the electronic device (e.g., 600) maintains updating of the representation of the field of view of one or more cameras at the third frame rate (1920) (e.g., regardless of whether the detected change in the field of view of one or more cameras satisfies the movement criterion (e.g., without determining or considering the determination)) (e.g., 630 of FIG. 8A). By maintaining an update of the representation of the field of view of the one or more cameras at a third frame rate in response to detecting a change in the field of view of the one or more cameras and in accordance with a determination that the variable frame rate criterion is not satisfied, the electronic device performs an action when a set of conditions is satisfied (or otherwise not satisfied) without requiring further user input, thereby enhancing usability of the device and making the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs and reducing user errors when operating/interacting with the device), as well as reducing power usage and improving battery life of the device by allowing the user to use the device more quickly and efficiently. In some embodiments, the variable frame rate criterion includes a criterion that is satisfied when the flash mode is inactive. In some embodiments, the low light status indicator (e.g., 602c) is mutually exclusive with the flash operation (e.g., active when the flash operation is inactive or inactive when the flash operation is active). In some embodiments, the state of the flash operation and the state of the low light capture mode are opposite to each other.

いくつかの実施形態では、第2のフレームレートは、それぞれの閾値を下回る1つ以上のカメラの視野内の周辺光の量に基づく。いくつかの実施形態では、周辺は、1つ以上のカメラ又は検出された周辺光センサによって検出することができる。いくつかの実施形態では、フレームは、周辺光が減少するにつれて減少する。 In some embodiments, the second frame rate is based on the amount of ambient light in the field of view of one or more cameras below a respective threshold. In some embodiments, the ambient can be detected by one or more cameras or a detected ambient light sensor. In some embodiments, the frames decrease as the ambient light decreases.

いくつかの実施形態では、移動基準は、1つ以上のカメラの視野内の検出された変化が移動閾値(例えば、閾値移動速度)よりも大きい電子デバイス(例えば、600)の移動に対応する(例えば、移動による視野内のコンテンツの変化率に対応する)ときに満たされる基準を含む。 In some embodiments, the movement criteria include criteria that are met when a detected change in the field of view of one or more cameras corresponds to movement of the electronic device (e.g., 600) that is greater than a movement threshold (e.g., a threshold movement speed) (e.g., corresponds to a rate of change of content in the field of view due to movement).

方法1900に関して上述された処理(例えば、図19A~図19B)の詳細はまた、上記及び以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、2000、2100、2300、2500、2700、2800、3000、3200、3400、3600、3800、4000、及び4200は、方法1900を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。 It should be noted that the details of the processes described above with respect to method 1900 (e.g., FIGS. 19A-19B) are also applicable in a similar manner to the methods described above and below. For example, methods 700, 900, 1100, 1300, 1500, 1700, 2000, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3400, 3600, 3800, 4000, and 4200 optionally include one or more of the characteristics of the various methods described above with reference to method 1900.

図20A~図20Cは、いくつかの実施形態による、電子デバイスを使用して照明条件に対応するための方法を示すフロー図である。方法2000は、表示デバイス(例えば、タッチ感知ディスプレイ)及び1つ以上のカメラ(例えば、電子デバイスの異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を備えるデバイス(例えば、100、300、500、600)で実行される。方法2000のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 20A-20C are flow diagrams illustrating a method for responding to lighting conditions using an electronic device, according to some embodiments. Method 2000 is performed on a device (e.g., 100, 300, 500, 600) that includes a display device (e.g., a touch-sensitive display) and one or more cameras (e.g., one or more cameras (e.g., dual camera, triple camera, quad camera, etc.) on different sides (e.g., front camera, rear camera) of the electronic device). Some operations of method 2000 are optionally combined, the order of some operations is optionally changed, and some operations are optionally omitted.

いくつかの実施形態では、電子デバイス(例えば、600)は、コンピュータシステムである。コンピュータシステムは、任意選択的に、ディスプレイ生成構成要素と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the electronic device (e.g., 600) is a computer system. The computer system is optionally in communication (e.g., wired communication, wireless communication) with a display generation component and with one or more input devices. The display generation component is configured to provide visual output, such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. The one or more input devices are configured to receive input, such as a touch-sensitive surface that receives user input. In some embodiments, the one or more input devices are integrated with the computer system. In some embodiments, the one or more input devices are separate from the computer system. Thus, the computer system can transmit data (e.g., image data or video data) via a wired or wireless connection to an integrated or external display generation component to visually generate content (e.g., using a display device) and can receive wired or wireless connection input from one or more input devices.

後述するように、方法2000は、照明条件に対応するための直感的な仕方を提供する。この方法は、カメラインジケーションを閲覧する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的に照明条件に対応することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, the method 2000 provides an intuitive way to respond to lighting conditions. The method reduces the cognitive burden on the user when viewing camera indications, thereby creating a more efficient human-machine interface. For battery-operated computing devices, enabling users to respond to lighting conditions more quickly and efficiently conserves power and extends the time between battery charges.

電子デバイス(例えば、600)は、カメラユーザインタフェースを表示する要求(例えば、カメラアプリケーションを表示する要求又はカメラアプリケーション内でメディアキャプチャモードに切り替える要求)を受信する(2002)。 An electronic device (e.g., 600) receives a request to display a camera user interface (e.g., a request to display a camera application or a request to switch to a media capture mode within the camera application) (2002).

カメラユーザインタフェースを表示する要求を受信したことに応じて、電子デバイス(例えば、600)は、表示デバイスを介して、カメラユーザインタフェースを表示する(2004)。 In response to receiving a request to display the camera user interface, the electronic device (e.g., 600) displays the camera user interface via the display device (2004).

カメラユーザインタフェースを表示すること(2004)は、電子デバイス(例えば、600)が、表示デバイス(例えば、602)を介して、1つ以上のカメラ(例えば、カメラに視認可能である開放観測可能エリア、カメラレンズから所与の距離の画像の水平(又は垂直又は対角線)長さ)の視野の表現(例えば、630)(例えば、表現オーバータイム、カメラからのデータのライブプレビューフィード)を表示すること(2006)を含む。 Displaying (2004) the camera user interface includes the electronic device (e.g., 600) displaying (2006) via a display device (e.g., 602) a representation (e.g., 630) of the field of view of one or more cameras (e.g., the open observable area visible to the camera, the horizontal (or vertical or diagonal) length of the image at a given distance from the camera lens) (e.g., a representation over time, a live preview feed of data from the camera).

カメラユーザインタフェースを表示すること(2004)は、1つ以上のカメラの視野内の周辺光がそれぞれの閾値(例えば、20ルクス)を下回る(例えば、又は、代替的に、値のそれぞれの範囲の間)ときに満たされる条件を含む低光条件が満たされたとの判定に従って、電子デバイス(例えば、600)が、1つ以上のカメラの視野の表現(例えば、630)と同時に、メディアをキャプチャする要求に応じてメディア(例えば、画像、ビデオ)をキャプチャするキャプチャ持続時間を調整するコントロール(例えば、1804)(例えば、スライダ)(例えば、キャプチャ持続時間調整コントロール)を表示すること(2008)を含む。1つ以上のカメラの視野の表現と同時に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することにより、ユーザが、視野の表現を閲覧している間に、キャプチャ持続時間を迅速かつ容易に調整することを可能にする。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、調整可能なコントロール(例えば、1804)は、ティックマークを含み、各ティックマークは、調整可能なコントロールの値を表す。いくつかの実施形態では、周辺光は、1つ以上のカメラ又は専用の周辺光センサを介して、周辺光を検出することによって、判定した。 Displaying (2004) a camera user interface includes displaying (2008) a control (e.g., 1804) (e.g., a slider) (e.g., a capture duration adjustment control) for adjusting a capture duration for which the electronic device (e.g., 600) captures media (e.g., images, video) in response to a request to capture media, concurrently with a representation (e.g., 630) of the field of view of one or more cameras, pursuant to a determination that a low light condition is met, including a condition that is met when ambient light in the field of view of one or more cameras is below a respective threshold (e.g., 20 lux) (e.g., or alternatively, between a respective range of values). Displaying a control for adjusting a capture duration for which media is captured concurrently with a representation (e.g., 630) of the field of view of one or more cameras allows a user to quickly and easily adjust the capture duration while viewing the representation of the field of view. Providing additional control options without cluttering the UI with additional controls displayed enhances usability of the device, makes the user-device interface more efficient (e.g., by helping the user provide appropriate inputs and reducing user errors when operating/interacting with the device), and reduces power usage and improves battery life by allowing the user to use the device more quickly and efficiently. In some embodiments, the adjustable control (e.g., 1804) includes tick marks, each tick mark representing a value for the adjustable control. In some embodiments, the ambient light is determined by detecting the ambient light via one or more cameras or a dedicated ambient light sensor.

カメラユーザインタフェースを表示すること(2004)は、低光条件が満たされなかったとの判定に従って、電子デバイス(例えば、600)が、キャプチャ持続時間を調整するコントロール(例えば、1804)を表示することをやめること(2010)を含む。低光条件が満たされていないとの判定に従って、キャプチャ持続時間を調整するコントロールを表示することをやめることによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされた(又は満たされなかった)ときに動作を実行し、これにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 Displaying (2004) the camera user interface includes the electronic device (e.g., 600) ceasing (2010) to display a control (e.g., 1804) for adjusting the capture duration in accordance with a determination that the low light condition is not met. By ceasing to display a control for adjusting the capture duration in accordance with a determination that the low light condition is not met, the electronic device performs an action when a set of conditions is met (or not met) without requiring further user input, thereby enhancing usability of the device and making the user-device interface more efficient (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), as well as reducing the device's power usage and improving battery life by allowing the user to use the device more efficiently.

いくつかの実施形態では、キャプチャ持続時間を調整するコントロール(例えば、スライダ)を表示している間に、電子デバイス(例えば、600)は、低光条件(例えば、周辺光の減少又は周辺光の増加)がもはや満たされていないというインジケーションを取得する(例えば、受信する、判定する、得る)(2012)(例えば、別の時点で、低光条件が満たされているかどうかの別の判定が行われる)。いくつかの実施形態では、インジケーションを取得したことに応じて、電子デバイス(例えば、600)は、表示デバイスを介して、キャプチャ持続時間を調整するコントロールを表示することを停止する(2014)。低光条件がもはや満たされていないというインジケーションを取得したことに応じて、キャプチャ持続時間を調整するコントロールの表示を(例えば、自動的に、ユーザ入力なしで)停止することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされた(又は満たされなかった)ときに動作を実行し、これにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、低光条件が満たされ続けるとの判定に従って、電子デバイス(例えば、600)は、メディアをキャプチャする要求に応じて、メディアをキャプチャするキャプチャ持続時間を調整するコントロール(例えば、1804)の表示を維持する。 In some embodiments, while displaying a control (e.g., a slider) that adjusts the capture duration, the electronic device (e.g., 600) receives (e.g., receives, determines, obtains) (2012) an indication that a low light condition (e.g., decreased ambient light or increased ambient light) is no longer met (e.g., at another time, another determination of whether the low light condition is met is made). In some embodiments, in response to receiving the indication, the electronic device (e.g., 600) stops displaying (2014) the control that adjusts the capture duration via the display device. By ceasing to display (e.g., automatically and without user input) the control that adjusts the capture duration in response to obtaining an indication that the low light condition is no longer satisfied, the electronic device performs an action when a set of conditions is met (or not met) without requiring further user input, thereby enhancing usability of the device and making the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs and reducing user errors when operating/interacting with the device), as well as conserving power usage and improving battery life of the device by allowing the user to use the device more quickly and efficiently. In some embodiments, pursuant to a determination that the low light condition continues to be satisfied, the electronic device (e.g., 600) maintains display of the control (e.g., 1804) that adjusts the capture duration for capturing media in response to a request to capture media.

いくつかの実施形態では、キャプチャ持続時間を調整するコントロール(例えば、1804)を同時に表示することなく、1つ以上のカメラの視野の表現(例えば、630)を表示している間に、電子デバイス(例えば、600)は、低光条件が満たされたというインジケーションを取得する(例えば、受信する、判定する、検出する、得る)(2030)(例えば、別の時点で、低光条件が満たされているかどうかの別の判定が行われる)。いくつかの実施形態では、インジケーションを取得したことに応じて、電子デバイス(例えば、600)は、1つ以上のカメラの視野の表現と同時に、キャプチャ持続時間を調整するコントロール(例えば、1804)を表示する(2032)。低光条件が満たされたというインジケーションを取得したことに応じて、1つ以上のカメラの視野の表現と同時に、キャプチャ持続時間を調整するコントロールを表示することによって、ユーザに、コントロールが必要そうなときにキャプチャ持続時間を調整するコントロールへの迅速かつ便利なアクセスを提供する。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、低光条件が満たされていないとの判定に従って、電子デバイス(例えば、600)は、メディアをキャプチャする要求に応じて、メディアをキャプチャするキャプチャ持続時間を調整するコントロールの表示をやめることを維持する。 In some embodiments, while displaying a representation of one or more cameras' fields of view (e.g., 630) without simultaneously displaying a control (e.g., 1804) for adjusting the capture duration, the electronic device (e.g., 600) obtains (e.g., receives, determines, detects, obtains) (2030) an indication that a low light condition has been met (e.g., another determination of whether a low light condition has been met is made at another time). In some embodiments, in response to obtaining the indication, the electronic device (e.g., 600) displays (2032) a control for adjusting the capture duration (e.g., 1804) simultaneously with the representation of one or more cameras' fields of view. By displaying a control for adjusting the capture duration simultaneously with the representation of one or more cameras' fields of view in response to obtaining an indication that a low light condition has been met, the user is provided with quick and convenient access to a control for adjusting the capture duration when the control is likely to be needed. Providing additional control options without cluttering the UI with additional controls displayed enhances usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces device power usage and improves battery life by allowing the user to use the device more quickly and efficiently. In some embodiments, pursuant to a determination that a low light condition is not met, the electronic device (e.g., 600) maintains, in response to a request to capture media, ceasing to display a control that adjusts the capture duration for capturing media.

いくつかの実施形態では、低光条件は、フラッシュモードが非アクティブであるときに満たされる条件を含む(例えば、フラッシュ設定がオフに設定される、フラッシュ動作の状態が非アクティブである)。 In some embodiments, the low light conditions include conditions that are met when the flash mode is inactive (e.g., the flash setting is set to off, the flash operation state is inactive).

いくつかの実施形態では、キャプチャ持続時間を調整するコントロール(例えば、1804)は、スライダである。いくつかの実施形態では、スライダは、ティックマークを含み、各ティックマーク(例えば、間隔で表示される)は、キャプチャ持続時間を表す。 In some embodiments, the control (e.g., 1804) that adjusts the capture duration is a slider. In some embodiments, the slider includes tick marks, with each tick mark (e.g., displayed at intervals) representing a capture duration.

いくつかの実施形態では、カメラユーザインタフェースを表示することは、電子デバイス(例えば、600)が、1つ以上のカメラの視野の表現(例えば、1802)と同時に、選択されると、1つ以上のカメラ(例えば、シャッターアフォーダンス;シャッターボタン)を使用してメディアのキャプチャを開始するメディアキャプチャアフォーダンス(例えば、610)(例えば、選択可能ユーザインタフェースオブジェクト)を表示する(2016)ことを更に含む。 In some embodiments, displaying the camera user interface further includes the electronic device (e.g., 600) displaying (2016) a media capture affordance (e.g., 610) (e.g., a selectable user interface object) that, when selected, initiates the capture of media using one or more cameras (e.g., a shutter affordance; shutter button) simultaneously with a representation (e.g., 1802) of the field of view of the one or more cameras.

いくつかの実施形態では、キャプチャ持続時間を調整するコントロール(例えば、1804)を表示している間に、電子デバイス(例えば、600)は、第1のキャプチャ持続時間の第1のインジケーション(例えば、数値、スライダトラック上のスライダノブ(例えば、バー))を表示する(2018)(例えば、時間(例えば、合計キャプチャ時間、露出時間)、ピクチャ/フレームの数で測定)。キャプチャ持続時間を調整するコントロールを表示している間に、第1のキャプチャ持続時間の第1のインジケーションを表示することにより、表示表現の設定されたキャプチャ持続時間の視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。いくつかの実施形態では、第1のキャプチャ持続時間(例えば、時間(例えば、合計キャプチャ時間、露出時間)、ピクチャ/フレームの数で測定された)から第2のキャプチャ持続時間(例えば、時間(例えば、合計キャプチャ時間、露出時間)、ピクチャ/フレームの数で測定された)にキャプチャ持続時間を調整するコントロール(例えば、1804)を調整する要求(例えば、調整可能なコントロール上のスライダコントロールを調整可能なコントロール上のインジケーション(例えば、値)にドラッグすること)を受信したことに応じて、電子デバイス(例えば、600)は、第1のキャプチャ持続時間の第1のインジケーションの表示を、第2のキャプチャ持続時間の第2のインジケーションの表示に置き換える(2020)。いくつかの実施形態では、キャプチャ持続時間は、設定時に表示される。いくつかの実施形態では、キャプチャ持続時間は、表示されない。いくつかの実施形態では、持続時間は、調整可能なコントロールを介して設定された値と同じである。いくつかの実施形態では、持続時間は、調整可能な入力コントロールを介して設定された値とは異なる(例えば、値は1秒であるが、持続時間は0.9秒である;値は1秒であるが、持続時間は、8枚のピクチャである)。これらの実施形態のうちのいくつかでは、持続時間に対する値の対応(例えば、平行移動)は、電子デバイス(例えば、600)及び/若しくはカメラのタイプ、又は電子デバイス若しくはカメラの実行中のソフトウェアのタイプに基づく。 In some embodiments, while displaying a control (e.g., 1804) for adjusting the capture duration, the electronic device (e.g., 600) displays (2018) a first indication (e.g., a numeric value, a slider knob (e.g., a bar) on a slider track) of a first capture duration (e.g., measured in time (e.g., total capture time, exposure time), number of pictures/frames). Displaying the first indication of the first capture duration while displaying a control for adjusting the capture duration provides a user with visual feedback of the set capture duration of the displayed representation. Providing the user with improved visual feedback improves usability of the device and provides a more efficient user-device interface (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently. In some embodiments, in response to receiving a request (e.g., dragging a slider control on an adjustable control to an indication (e.g., a value) on the adjustable control) to adjust a control (e.g., 1804) that adjusts the capture duration from a first capture duration (e.g., measured in time (e.g., total capture time, exposure time), number of pictures/frames) to a second capture duration (e.g., measured in time (e.g., total capture time, exposure time), number of pictures/frames), the electronic device (e.g., 600) replaces (2020) the display of a first indication of the first capture duration with the display of a second indication of the second capture duration. In some embodiments, the capture duration is displayed as set. In some embodiments, the capture duration is not displayed. In some embodiments, the duration is the same as the value set via the adjustable control. In some embodiments, the duration is different from the value set via the adjustable input control (e.g., value is 1 second but duration is 0.9 seconds; value is 1 second but duration is 8 pictures). In some of these embodiments, the correspondence of values (e.g., translation) to durations is based on the type of electronic device (e.g., 600) and/or camera, or the type of software running on the electronic device or camera.

いくつかの実施形態では、1つ以上のカメラの視野の表現(例えば、630)は、1つ以上のカメラの第1の視野の第1の表現である(2022)。いくつかの実施形態では、更に、第1のキャプチャ持続時間からキャプチャ持続時間を調整するコントロールを調整する要求を受信したことに応じて(2024)、電子デバイス(例えば、600)は、第1の表現の表示を、1つ以上のカメラの視野の第2の表現に置き換え、第2の表現は、第2のキャプチャ持続時間に基づき、かつ第1の表現と視覚的に区別される(例えば、より明るい)(2026)。いくつかの実施形態では、第4の表現の輝度は、第5の表現の輝度とは異なる(2028)。 In some embodiments, the representation (e.g., 630) of the field of view of the one or more cameras is a first representation of a first field of view of the one or more cameras (2022). In some embodiments, further in response to receiving a request to adjust a control to adjust the capture duration from the first capture duration (2024), the electronic device (e.g., 600) replaces the display of the first representation with a second representation of the field of view of the one or more cameras, the second representation being based on the second capture duration and visually distinct (e.g., brighter) from the first representation (2026). In some embodiments, the luminance of the fourth representation is different from the luminance of the fifth representation (2028).

いくつかの実施形態では、第2のキャプチャ持続時間の第2のインジケーションを表示している間に、電子デバイス(例えば、600)は、メディアをキャプチャする要求を受信する。いくつかの実施形態では、メディアをキャプチャする要求を受信することは、メディアキャプチャアフォーダンスの選択に対応する(例えば、タップ)。いくつかの実施形態では、メディアをキャプチャする要求を受信したことに応じて、かつ第2のキャプチャ持続時間が低光キャプチャモードを非アクティブ化する所定のキャプチャ持続時間(例えば、ゼロ以下の持続時間(例えば、標準条件又は別の条件でデバイスを動作させる持続時間に対応する持続時間))に対応するとの判定に従って、電子デバイス(例えば、600)は、持続時間(例えば、第2のキャプチャ持続時間とは異なる通常持続時間(例えば、電子デバイス上で静止写真をキャプチャするための持続時間に等しい))に基づいて、1つ以上のカメラを介して、メディアのキャプチャを開始する。メディアをキャプチャする要求を受信したことに応じて、かつ第2のキャプチャ持続時間が低光キャプチャモードを非アクティブ化する所定のキャプチャ持続時間に対応するとの判定に従って、(例えば、第2のキャプチャ持続時間とは異なる)持続時間に基づいて、メディアのキャプチャを開始することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされたときに動作を実行し、これにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, while displaying the second indication of the second capture duration, the electronic device (e.g., 600) receives a request to capture media. In some embodiments, receiving the request to capture media corresponds to a selection of a media capture affordance (e.g., a tap). In some embodiments, in response to receiving the request to capture media and in accordance with a determination that the second capture duration corresponds to a predefined capture duration that deactivates a low-light capture mode (e.g., a duration equal to or less than zero (e.g., a duration corresponding to a duration for operating the device under standard or another condition)), the electronic device (e.g., 600) initiates capture of media via one or more cameras based on a duration (e.g., a normal duration different from the second capture duration (e.g., equal to a duration for capturing a still photograph on the electronic device)). By initiating capture of media based on a duration (e.g., different from the second capture duration) in response to receiving a request to capture media and in accordance with a determination that the second capture duration corresponds to a predefined capture duration that deactivates the low-light capture mode, the electronic device performs an action when a set of conditions is met without requiring further user input, thereby enhancing usability of the device and making the user-device interface more efficient (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), as well as reducing power usage and improving battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第2のキャプチャ持続時間の第2のインジケーションを表示している間に、電子デバイス(例えば、600)は、メディアをキャプチャする要求を受信する。いくつかの実施形態では、メディアをキャプチャする要求を受信することは、メディアキャプチャアフォーダンス(例えば、610)の選択に対応する(例えば、タップ)。いくつかの実施形態では、メディアをキャプチャする要求を受信したことに応じて、(かつ、いくつかの実施形態では、第2のキャプチャ持続時間が低光キャプチャモードを非アクティブ化する所定のキャプチャ持続時間に対応しないとの判定に従って)、電子デバイス(例えば、600)は、第2のキャプチャ持続時間に基づいて、1つ以上のカメラを介して、メディアのキャプチャを開始する。いくつかの実施形態では、メディアキャプチャユーザインタフェース(例えば、608)は、メディアがキャプチャされた後のメディアの表現を含む。 In some embodiments, while displaying the second indication of the second capture duration, the electronic device (e.g., 600) receives a request to capture media. In some embodiments, receiving the request to capture media corresponds to a selection (e.g., tapping) of a media capture affordance (e.g., 610). In some embodiments, in response to receiving the request to capture media (and in some embodiments, in accordance with a determination that the second capture duration does not correspond to a predefined capture duration that deactivates the low-light capture mode), the electronic device (e.g., 600) initiates capture of media via one or more cameras based on the second capture duration. In some embodiments, the media capture user interface (e.g., 608) includes a representation of the media after the media has been captured.

いくつかの実施形態では、更にメディアをキャプチャする要求を受信したことに応じて、電子デバイス(例えば、600)は、1つ以上のカメラの視野の表現(例えば、630)を表示することを停止する。いくつかの実施形態では、表現(例えば、630)(例えば、ライブプレビュー)は、低光条件が満たされているときにメディアをキャプチャしている間にまったく表示されない。いくつかの実施形態では、表現(例えば、630)は、低光条件が満たされているときにメディアをキャプチャしている間に所定の期間にわたって表示されない。低光条件が満たされているときにメディアをキャプチャする間に表現をまったく表示しないこと、又は低光条件が満たされているときにメディアをキャプチャしている間に所定の期間にわたって表現を表示しないことは、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, in response to receiving a request to capture more media, the electronic device (e.g., 600) stops displaying the representation (e.g., 630) of the field of view of one or more cameras. In some embodiments, the representation (e.g., 630) (e.g., live preview) is not displayed at all while capturing media when low light conditions are met. In some embodiments, the representation (e.g., 630) is not displayed for a predetermined period of time while capturing media when low light conditions are met. Not displaying the representation at all while capturing media when low light conditions are met, or not displaying the representation for a predetermined period of time while capturing media when low light conditions are met, reduces power usage and improves battery life of the device by allowing a user to use the device more quickly and efficiently.

いくつかの実施形態では、キャプチャ持続時間を調整するコントロール(例えば、1804)は、第1の色(例えば、黒)で表示される。いくつかの実施形態では、更にメディアをキャプチャする要求を受信したことに応じて、電子デバイス(例えば、600)は、第1の色とは異なる第2の色(例えば、赤)でキャプチャ持続時間を調整するコントロール(例えば、1804)を表示する。 In some embodiments, the control (e.g., 1804) that adjusts the capture duration is displayed in a first color (e.g., black). In some embodiments, in response to receiving a request to capture more media, the electronic device (e.g., 600) displays the control (e.g., 1804) that adjusts the capture duration in a second color (e.g., red) that is different from the first color.

いくつかの実施形態では、更にメディアをキャプチャする要求を受信したことに応じて、電子デバイス(例えば、600)は、第3のキャプチャ値(例えば、所定の開始値又は巻き出し値(例えば、ゼロ))の第3のインジケーションを第2のキャプチャ持続時間の第2のインジケーションまで動かす(例えば、スライダにわたってインジケーション(例えば、スライダバー)をスライドする(例えば、ゼロから値への巻き取り))、第1のアニメーション(例えば、エッグタイマーの巻き取り及び設定)を表示する。第1のアニメーションを表示することにより、設定されたキャプチャ値における変化(単数又は複数)の視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。いくつかの実施形態では、第1のアニメーションを表示した後に、電子デバイス(例えば、600)は、第2のキャプチャ持続時間の第2のインジケーションを第3のキャプチャ値の第3のインジケーションまで動かす(例えば、スライダにわたってインジケーション(例えば、スライダバー)をスライドする)(例えば、巻き出す(例えば、値からゼロへのカウントダウン))、第2のアニメーション(例えば、エッグタイマーのカウントダウン)を表示し、第2のアニメーションの持続時間は、第2のキャプチャ持続時間の持続時間に対応し、第1のアニメーションの持続時間とは異なる。第2のアニメーションを表示することにより、設定されたキャプチャ値における変化(単数又は複数)の視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。いくつかの実施形態では、第1のアニメーションと第2のアニメーションとの間にポーズがある。いくつかの実施形態では、第1及び第2のアニメーションのうちの少なくとも1つは、巻き取り又は巻き出しするエッグタイムの音を有する。いくつかの実施形態では、第2のアニメーションは、第1のアニメーションよりも遅い。 In some embodiments, in response to receiving a request to capture more media, the electronic device (e.g., 600) moves a third indication of a third capture value (e.g., a predetermined start or unwind value (e.g., zero)) to a second indication of a second capture duration (e.g., slides an indication (e.g., a slider bar) across a slider (e.g., winding from zero to a value)) and displays a first animation (e.g., winding and setting an egg timer). Displaying the first animation provides visual feedback to the user of the change(s) in the set capture value. Providing improved visual feedback to the user improves usability of the device and provides a more efficient user-device interface (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), which further reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently. In some embodiments, after displaying the first animation, the electronic device (e.g., 600) moves a second indication of the second capture duration (e.g., slides an indication (e.g., slider bar) across a slider) to a third indication of a third capture value (e.g., unwinds (e.g., counts down from a value to zero)) and displays a second animation (e.g., an egg timer countdown), where the duration of the second animation corresponds to the duration of the second capture duration and differs from the duration of the first animation. Displaying the second animation provides the user with visual feedback of the change(s) in the set capture value. Providing the user with improved visual feedback improves device usability and makes the user-device interface more efficient (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), which further reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently. In some embodiments, there is a pause between the first animation and the second animation. In some embodiments, at least one of the first and second animations has an egg time sound of winding up or unwinding. In some embodiments, the second animation is slower than the first animation.

いくつかの実施形態では、第1のアニメーションを表示している間に、電子デバイス(例えば、600)は、第1の触知出力(例えば、触覚(例えば、振動)出力)を提供する。いくつかの実施形態では、第2のアニメーションを表示している間に、電子デバイス(例えば、600)は、第2の触知出力(例えば、触覚(例えば、振動)出力)を提供する。いくつかの実施形態では、第1の触知出力は、第2の触知出力とは異なるタイプの触知出力であり得る。第1のアニメーションを表示している間に、第1の触知出力を提供すること、及び第2のアニメーションを表示している間に、第2の触知出力を提供することにより、設定されたキャプチャ値における変化(単数又は複数)の更なるフィードバックをユーザに提供する。改良されたフィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, while displaying the first animation, the electronic device (e.g., 600) provides a first tactile output (e.g., a tactile (e.g., vibration) output). In some embodiments, while displaying the second animation, the electronic device (e.g., 600) provides a second tactile output (e.g., a tactile (e.g., vibration) output). In some embodiments, the first tactile output may be a different type of tactile output than the second tactile output. Providing the first tactile output while displaying the first animation and providing the second tactile output while displaying the second animation provides the user with further feedback of the change(s) in the set capture value. Providing improved feedback to the user improves usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves the battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、メディアのキャプチャを開始した後に、電子デバイス(例えば、600)は、第2のキャプチャ持続時間に基づいてメディアをキャプチャする。 In some embodiments, after initiating the capture of the media, the electronic device (e.g., 600) captures the media based on the second capture duration.

いくつかの実施形態では、メディアは、第2のキャプチャ持続時間に基づいてキャプチャされた第1のメディアである。いくつかの実施形態では、第1のメディアをキャプチャした後に、電子デバイス(例えば、600)は、第2のキャプチャ持続時間に基づいて第2のメディア(例えば、メディアをキャプチャしている間の、メディアをキャプチャするように要求する第2のアフォーダンスの第2の選択(例えば、タップ))をキャプチャする要求を受信する。いくつかの実施形態では、第2のキャプチャ持続時間に基づいて第2のメディアをキャプチャする要求を受信したことに応じて、電子デバイス(例えば、600)は、第2のキャプチャ持続時間に基づいて第2のメディアのキャプチャを開始する。いくつかの実施形態では、第2のキャプチャ持続時間に基づいて第2のメディアのキャプチャを開始した後に、電子デバイス(例えば、600)は、第2のキャプチャ持続時間が経過する前に、第2のメディアのキャプチャを終了する要求を受信する。いくつかの実施形態では、第2のメディアのキャプチャを終了する要求を受信したことに応じて、電子デバイス(例えば、600)は、第2のキャプチャ持続時間に基づく第2のメディアのキャプチャを終了する(例えば、止める、停止する)。いくつかの実施形態では、第2のメディアのキャプチャを終了する要求を受信したことに応じて、電子デバイス(例えば、600)は、第2のメディアのキャプチャを終了する要求を受信する前に1つ以上のカメラによってキャプチャされた視覚情報に基づいて、終了前にキャプチャされた第2のメディアの表現を表示する。いくつかの実施形態では、第2のキャプチャ持続時間が経過する前に、第2のメディアアイテムのキャプチャが終了した場合、キャプチャされたものよりも少ない視覚情報がキャプチャされ、クリアな画像を生成する能力の低減をもたらすため、第2のメディアは、より暗いか、又は第1のメディアアイテムよりもコントラストが小さい。 In some embodiments, the media is a first media captured based on a second capture duration. In some embodiments, after capturing the first media, the electronic device (e.g., 600) receives a request to capture a second media based on a second capture duration (e.g., a second selection (e.g., tap) of a second affordance while capturing the media requesting to capture the media). In some embodiments, in response to receiving the request to capture the second media based on the second capture duration, the electronic device (e.g., 600) initiates capture of the second media based on the second capture duration. In some embodiments, after initiating capture of the second media based on the second capture duration, the electronic device (e.g., 600) receives a request to end capture of the second media before the second capture duration has elapsed. In some embodiments, in response to receiving the request to end capture of the second media, the electronic device (e.g., 600) terminates (e.g., stops, stops) capture of the second media based on the second capture duration. In some embodiments, in response to receiving a request to end capture of the second media, the electronic device (e.g., 600) displays a representation of the second media captured prior to termination based on visual information captured by the one or more cameras prior to receiving the request to end capture of the second media. In some embodiments, if capture of the second media item terminates before the second capture duration has elapsed, less visual information will have been captured than would have been captured, resulting in a reduced ability to produce a clear image such that the second media is darker or has less contrast than the first media item.

いくつかの実施形態では、メディアは、第2のキャプチャ持続時間に基づいてキャプチャされた第1のメディアである。いくつかの実施形態では、第1のメディアをキャプチャした後に、電子デバイス(例えば、600)は、第2のキャプチャ持続時間に基づいて第3のメディア(例えば、メディアをキャプチャしている間の、メディアをキャプチャするように要求する第2のアフォーダンスの第2の選択(例えば、タップ))をキャプチャする要求を受信する。いくつかの実施形態では、第2のキャプチャ持続時間に基づいて第3のメディアをキャプチャする要求を受信したことに応じて、電子デバイス(例えば、600)は、第2のキャプチャ持続時間に基づいて第3のメディアのキャプチャを開始する。いくつかの実施形態では、第2のキャプチャ持続時間に基づいて第3のメディアのキャプチャを開始した後に、1つ以上のカメラ(例えば、電子デバイスのハウジング内に組み込まれた1つ以上のカメラ)の視野内の検出された変化が移動基準(いくつかの実施形態では、ユーザがキャプチャする間に閾値を上回ってデバイスを動かしている;いくつかの実施形態では、移動が移動基準を上回らない場合、電子デバイスは、中断なしでメディアをキャプチャし続ける)を上回るとの判定に従って、電子デバイス(例えば、600)は、第3のメディアのキャプチャを終了する(例えば、止める、停止する)。いくつかの実施形態では、第2のキャプチャ持続時間に基づいて第3のメディアのキャプチャを開始した後に、1つ以上のカメラ(例えば、電子デバイスのハウジング内に組み込まれた1つ以上のカメラ)の視野内の検出された変化が移動基準(いくつかの実施形態では、ユーザがキャプチャする間に閾値を上回ってデバイスを動かしている;いくつかの実施形態では、移動が移動基準を上回らない場合、電子デバイスは、中断なしでメディアをキャプチャし続ける)を上回るとの判定に従って、電子デバイス(例えば、600)は、第2のメディアのキャプチャを終了する要求を受信する前に1つ以上のカメラによってキャプチャされた視覚情報に基づいて、終了前にキャプチャされた第3のメディアの表現を表示する。いくつかの実施形態では、第2のキャプチャ持続時間が経過する前に、第3のメディアアイテムのキャプチャが終了した場合、キャプチャされたものよりも少ない視覚情報がキャプチャされ、クリアな画像を生成する能力の低減をもたらすため、第3のメディアは、より暗いか、又は第1のメディアアイテムよりもコントラストが小さい。 In some embodiments, the media is a first media captured based on a second capture duration. In some embodiments, after capturing the first media, the electronic device (e.g., 600) receives a request to capture a third media based on the second capture duration (e.g., a second selection (e.g., a tap) of a second affordance while capturing the media, requesting to capture the media). In some embodiments, in response to receiving the request to capture the third media based on the second capture duration, the electronic device (e.g., 600) begins capturing the third media based on the second capture duration. In some embodiments, in accordance with a determination that a detected change in the field of view of one or more cameras (e.g., one or more cameras integrated within the housing of the electronic device) exceeds a movement criterion (in some embodiments, a user moves the device above a threshold while capturing; in some embodiments, if the movement does not exceed the movement criterion, the electronic device continues to capture the media without interruption) after initiating the capture of the third media based on the second capture duration, the electronic device (e.g., 600) terminates (e.g., stops, stops) the capture of the third media. In some embodiments, in accordance with a determination that a detected change in the field of view of one or more cameras (e.g., one or more cameras integrated within the housing of the electronic device) exceeds a movement criterion (in some embodiments, a user moves the device above a threshold while capturing; in some embodiments, if the movement does not exceed the movement criterion, the electronic device continues to capture the media without interruption) after initiating the capture of the third media based on the second capture duration, the electronic device (e.g., 600) displays a representation of the third media captured prior to termination based on visual information captured by the one or more cameras prior to receiving the request to terminate the capture of the second media. In some embodiments, if the capture of the third media item ends before the second capture duration has elapsed, the third media may be darker or have less contrast than the first media item, resulting in less visual information being captured and a reduced ability to produce a clear image.

いくつかの実施形態では、更にメディアをキャプチャする要求を受信したことに応じて、電子デバイス(例えば、600)は、メディアをキャプチャするように要求するアフォーダンス(例えば、610)の表示を、メディア(例えば、停止アフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト))のキャプチャを終了するアフォーダンス(例えば、図18Kの610)の表示に置き換える。メディアをキャプチャする要求を受信したことに応じて、メディアをキャプチャするように要求するアフォーダンスの表示をメディアのキャプチャを終了するアフォーダンスの表示に置き換えることは、ユーザが、このようなアフォーダンスが必要とされる可能性があるときに、メディアのキャプチャを終了するアフォーダンスに迅速かつ容易にアクセスすることを可能にする。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、停止アフォーダンスは、カメラ持続時間に基づいて、時間中に表示される。いくつかの実施形態では、停止アフォーダンス(例えば、1806)がカメラ持続時間に基づいて、時間中に表示された後、電子デバイス(例えば、600)は、カメラ持続時間が満了すると、停止アフォーダンスの表示を、メディアをキャプチャする要求のためのアフォーダンス(例えば、610)に置き換える。 In some embodiments, in response to receiving a request to capture more media, the electronic device (e.g., 600) replaces the display of the affordance (e.g., 610) requesting to capture media with a display of an affordance to end the capture of media (e.g., a stop affordance (e.g., a selectable user interface object)). Replacing the display of the affordance requesting to capture media with a display of an affordance to end the capture of media in response to receiving a request to capture media allows a user to quickly and easily access the affordance to end the capture of media when such affordance may be needed. Providing additional control options without cluttering the UI with additional controls displayed enhances usability of the device, makes the user-device interface more efficient (e.g., by helping the user make appropriate inputs and reducing user errors when operating/interacting with the device), and also reduces device power usage and improves battery life by allowing the user to use the device more quickly and efficiently. In some embodiments, the stop affordance is displayed for a time based on the camera duration. In some embodiments, after the stop affordance (e.g., 1806) is displayed for a time based on the camera duration, the electronic device (e.g., 600) replaces the display of the stop affordance with an affordance for a request to capture media (e.g., 610) when the camera duration expires.

いくつかの実施形態では、メディアのキャプチャを開始した後に(例えば、メディアのキャプチャを要求するアフォーダンスを押圧後に)、電子デバイス(例えば、600)は、第1のキャプチャ時間(例えば、キャプチャの時点(例えば、メディアのキャプチャの開始2秒後))でキャプチャされた第1のメディアの第1の表現を表示する。いくつかの実施形態では、第1のメディアの第1の表現を表示した後に、電子デバイス(例えば、600)は、第1のメディアの第1の表現の表示を、第1のキャプチャ時間(例えば、キャプチャの時点(例えば、メディアのキャプチャの開始後3秒))の後の第2のキャプチャ時間でキャプチャされた第1のメディアの第2の表現の表示に置き換え、第2の表現は、第1のメディアの第1の表現と視覚的に区別される(例えば、より明るい)(例えば、より多くの画像データが取得され、かつ合成画像を生成するために使用されるため、ますます明るい輪郭のはっきりした合成画像を表示する)。 In some embodiments, after initiating capture of media (e.g., after pressing an affordance requesting capture of media), the electronic device (e.g., 600) displays a first representation of a first media captured at a first capture time (e.g., at the time of capture (e.g., 2 seconds after initiation of capture of media). In some embodiments, after displaying the first representation of the first media, the electronic device (e.g., 600) replaces the display of the first representation of the first media with a display of a second representation of the first media captured at a second capture time after the first capture time (e.g., at the time of capture (e.g., 3 seconds after initiation of capture of media)), the second representation being visually distinct (e.g., brighter) from the first representation of the first media (e.g., displaying an increasingly brighter and more defined composite image as more image data is acquired and used to generate the composite image).

いくつかの実施形態では、第1のメディアの第1の表現の表示を第1のメディアの第2の表現の表示に置き換えることは、所定の期間後に行われる。いくつかの実施形態では、置き換え(例えば、光沢)は、等間隔で(例えば、滑らかな光沢ではない)で行われる。 In some embodiments, the replacement of the display of the first representation of the first media with the display of the second representation of the first media occurs after a predetermined period of time. In some embodiments, the replacement (e.g., gloss) occurs at equal intervals (e.g., not a smooth gloss).

いくつかの実施形態では、カメラユーザインタフェース(例えば、608)を表示することは、低光条件が満たされたとの判定に従って、電子デバイス(例えば、600)が、キャプチャ持続時間を調整するコントロール(例えば、1804)と同時に、低光キャプチャモードの状態(例えば、602c)がアクティブであることを示す低光キャプチャ状態インジケータを表示することを含む。低光条件が満たされたとの判定に従って、キャプチャ持続時間を調整するコントロールと同時に、低光キャプチャ状態インジケータを表示することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされたときに動作を実行し、これにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、低光キャプチャ状態インジケータを表示している間に、電子デバイス(例えば、600)は、低光キャプチャ状態インジケータ(例えば、602c)の第1の選択(例えば、タップ)を受信する。いくつかの実施形態では、低光キャプチャ状態インジケータ(例えば、602c)の第1の選択を受信したことに応じて、電子デバイス(例えば、600)は、低光キャプチャ状態インジケータの表示を維持している間に、キャプチャ持続時間を調整するコントロール(例えば、1804)を表示することを停止する。いくつかの実施形態では、低光キャプチャ状態インジケータ(例えば、602c)の第1の選択を受信したことに応じて、電子デバイス(例えば、600)は、低光キャプチャモードの状態が非アクティブであることを示すように、低光キャプチャ状態インジケータの外観を更新する。いくつかの実施形態では、低光キャプチャ状態インジケータ(例えば、602c)は、キャプチャ持続時間を調整するコントロールの表示を停止すると(例えば、低光条件が満たされている間)、維持される。 In some embodiments, displaying the camera user interface (e.g., 608) includes the electronic device (e.g., 600) displaying a low-light capture status indicator indicating that a low-light capture mode state (e.g., 602c) is active in conjunction with a control (e.g., 1804) for adjusting the capture duration in accordance with a determination that a low-light condition is met. By displaying the low-light capture status indicator in conjunction with a control for adjusting the capture duration in accordance with a determination that a low-light condition is met, the electronic device performs an action when a set of conditions is met without requiring further user input, thereby enhancing usability of the device and making the user-device interface more efficient (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), as well as reducing device power usage and improving battery life by allowing the user to use the device more quickly and efficiently. In some embodiments, while displaying the low-light capture status indicator, the electronic device (e.g., 600) receives a first selection (e.g., a tap) of the low-light capture status indicator (e.g., 602c). In some embodiments, in response to receiving a first selection of the low-light capture state indicator (e.g., 602c), the electronic device (e.g., 600) stops displaying the control (e.g., 1804) that adjusts the capture duration while maintaining the display of the low-light capture state indicator. In some embodiments, in response to receiving a first selection of the low-light capture state indicator (e.g., 602c), the electronic device (e.g., 600) updates the appearance of the low-light capture state indicator to indicate that the state of the low-light capture mode is inactive. In some embodiments, the low-light capture state indicator (e.g., 602c) is maintained upon ceasing to display the control that adjusts the capture duration (e.g., while low-light conditions are met).

いくつかの実施形態では、カメラユーザインタフェース(例えば、608)を表示することは、低光条件が満たされたとの判定に従って、低光キャプチャモードが非アクティブであることを示す低光キャプチャ状態インジケータを表示している間に、電子デバイス(例えば、600)が、低光キャプチャ状態インジケータ(例えば、602c)の第2の選択(例えば、タップ)を受信することを含む。いくつかの実施形態では、低光キャプチャ状態インジケータ(例えば、602c)の第2の選択を受信したことに応じて、電子デバイス(例えば、600)は、キャプチャ持続時間を調整するコントロール(例えば、1804)を再表示する。いくつかの実施形態では、キャプチャ持続時間を調整するコントロール(例えば、1804)が再表示されると、以前のキャプチャ値のインジケーションをコントロール上に表示する(例えば、コントロールは、以前に設定された最後の値に設定されたままであり続ける)。 In some embodiments, displaying the camera user interface (e.g., 608) includes the electronic device (e.g., 600) receiving a second selection (e.g., a tap) of the low-light capture status indicator (e.g., 602c) while displaying a low-light capture status indicator indicating that the low-light capture mode is inactive pursuant to a determination that a low-light condition is met. In some embodiments, in response to receiving the second selection of the low-light capture status indicator (e.g., 602c), the electronic device (e.g., 600) redisplays the control (e.g., 1804) for adjusting the capture duration. In some embodiments, when the control (e.g., 1804) for adjusting the capture duration is redisplayed, an indication of the previous capture value is displayed on the control (e.g., the control remains set to the last value previously set).

いくつかの実施形態では、低光キャプチャ状態インジケータ(例えば、602c)の第1の選択を受信したことに応じて、電子デバイス(例えば、600)は、フラッシュ動作を実行しないように電子デバイスを構成する。いくつかの実施形態では、フラッシュ動作の非アクティブ状態を示すフラッシュ状態インジケータ(例えば、602a)は、フラッシュ動作のアクティブ状態を示すフラッシュ状態の表示を置き換える。いくつかの実施形態では、メディアのキャプチャが開始されると、電子デバイス(例えば、600)は、フラッシュ動作を実行するように構成されておらず、フラッシュ動作は、メディアをキャプチャするときに発生しない(例えば、フラッシュがトリガされない)。 In some embodiments, in response to receiving a first selection of the low light capture status indicator (e.g., 602c), the electronic device (e.g., 600) configures the electronic device to not perform a flash operation. In some embodiments, a flash status indicator (e.g., 602a) indicating an inactive state of the flash operation replaces an indication of a flash status indicating an active state of the flash operation. In some embodiments, once media capture is initiated, the electronic device (e.g., 600) is not configured to perform a flash operation and a flash operation does not occur when capturing media (e.g., a flash is not triggered).

いくつかの実施形態では、低光条件は、低光キャプチャ状態インジケータが選択されるときに満たされる条件を含む。いくつかの実施形態では、キャプチャ持続時間を調整するコントロールが表示される前に、低光キャプチャ状態インジケータが選択される(例えば、電子デバイスが低光状態インジケータに向けられたジェスチャを検出する)。 In some embodiments, the low light condition includes a condition that is met when the low light capture status indicator is selected. In some embodiments, the low light capture status indicator is selected (e.g., the electronic device detects a gesture directed toward the low light status indicator) before a control that adjusts the capture duration is displayed.

方法2000に関して上述された処理(例えば、図20A~図20C)の詳細はまた、上記及び以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2500、2700、2800、3000、3200、3400、3600、3800、4000、及び4200は、方法2000を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。 It should be noted that the details of the processes described above with respect to method 2000 (e.g., FIGS. 20A-20C) are also applicable in a similar manner to the methods described above and below. For example, methods 700, 900, 1100, 1300, 1500, 1700, 1900, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3400, 3600, 3800, 4000, and 4200 optionally include one or more of the characteristics of the various methods described above with reference to method 2000. For the sake of brevity, these details will not be repeated below.

図21A~図21Cは、いくつかの実施形態による、電子デバイスを使用してカメラインジケーションを提供するための方法を示すフロー図である。方法2100は、表示デバイス(例えば、タッチ感知ディスプレイ)及び1つ以上のカメラ(例えば、電子デバイスの異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))、及び任意選択的に、専用の周辺光センサを備えるデバイス(例えば、100、300、500、600)で実行される。方法2100のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 21A-21C are flow diagrams illustrating a method for providing a camera indication using an electronic device, according to some embodiments. Method 2100 is performed on a device (e.g., 100, 300, 500, 600) that includes a display device (e.g., a touch-sensitive display) and one or more cameras (e.g., one or more cameras (e.g., dual camera, triple camera, quad camera, etc.) on different sides (e.g., front camera, rear camera) of the electronic device), and optionally a dedicated ambient light sensor. Some operations of method 2100 are optionally combined, the order of some operations is optionally changed, and some operations are optionally omitted.

いくつかの実施形態では、電子デバイス(例えば、600)は、コンピュータシステムである。コンピュータシステムは、任意選択的に、ディスプレイ生成構成要素と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the electronic device (e.g., 600) is a computer system. The computer system is optionally in communication (e.g., wired communication, wireless communication) with a display generation component and with one or more input devices. The display generation component is configured to provide visual output, such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. The one or more input devices are configured to receive input, such as a touch-sensitive surface that receives user input. In some embodiments, the one or more input devices are integrated with the computer system. In some embodiments, the one or more input devices are separate from the computer system. Thus, the computer system can transmit data (e.g., image data or video data) via a wired or wireless connection to an integrated or external display generation component to visually generate content (e.g., using a display device) and can receive wired or wireless connection input from one or more input devices.

後述するように、方法2100は、カメラインジケーションを提供するための直感的な仕方を提供する。この方法は、カメラインジケーションを閲覧する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にカメラインジケーションを閲覧することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, method 2100 provides an intuitive way to provide a camera indication. The method reduces the cognitive burden on the user in viewing the camera indication, thereby creating a more efficient human-machine interface. For battery-operated computing devices, enabling the user to view the camera indication more quickly and efficiently conserves power and extends the time between battery charges.

電子デバイス(例えば、600)は、表示デバイスを介して、カメラユーザインタフェースを表示する(2102)。 The electronic device (e.g., 600) displays the camera user interface via a display device (2102).

カメラユーザインタフェースを表示している間に、電子デバイス(例えば、600)は、電子デバイスの1つ以上のセンサ(例えば、1つ又は周辺光センサ、1つ以上のカメラ)を介して、1つ以上のカメラの視野内の光量(例えば、輝度の量(例えば、20ルクス、5ルクス))を検出する(2104)。 While displaying the camera user interface, the electronic device (e.g., 600) detects (2104) the amount of light (e.g., the amount of luminance (e.g., 20 lux, 5 lux)) within the field of view of one or more cameras via one or more sensors (e.g., one or more ambient light sensors, one or more cameras) of the electronic device.

1つ以上のカメラの視野内の光量を検出したことに応じて(2106)、1つ以上のカメラの視野内の光量が、1つ以上のカメラの視野内の光量が所定の閾値(例えば、20ルクス未満)を下回るときに満たされる基準を含む、低光環境基準を満たすとの判定に従って、電子デバイス(例えば、600)は、カメラユーザインタフェース(いくつかの実施形態では、低光環境基準は、1つ以上のカメラの視野内の光量が所定の範囲(例えば、20~0ルクス)内にあるときに満たされる基準を含む)内に、フラッシュ動作の状態(例えば、メディアをキャプチャする際にフラッシュが発生する可能性がある操作性)(いくつかの実施形態では、フラッシュ動作の状態はフラッシュ設定(又はフラッシュモード)に基づく;これらの実施形態のうちのいくつかでは、フラッシュ動作の状態が自動又はオンに設定されているときに、光のフラッシュ(例えば、フラッシュ)は、ミーティングをキャプチャする際に発生する可能性がある;しかしながら、フラッシュ動作がオフに設定されているときに、光のフラッシュは、メディアをキャプチャする際に発生する可能性がない)を示すフラッシュ状態インジケータ(例えば、602a)(2110)(例えば、フラッシュモードアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト))と、低光キャプチャモードの状態を示す低光キャプチャ状態インジケータ(例えば、低光モードアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト))(2112)と、を同時に表示する(2108)。1つ以上のカメラの視野内の光量が低光環境基準を満たすとの判定に従って、フラッシュ状態インジケータを表示することにより、検出された光量及び得られたフラッシュ設定についてのフィードバックをユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。いくつかの実施形態では、低光キャプチャ状態インジケータは、電子デバイス(例えば、600)が、モード(例えば、低光環境モード)又はカメラユーザインタフェース(例えば、608)上で以前に選択可能でなかった(例えば、容易に利用できない(例えば、選択するための入力を2つ以上有する)又は表示されない)方法で、動作するためのオプションに対応する。いくつかの実施形態では、電子デバイス(例えば、600)は、別の画像で検出された光が所定の閾値を下回っても、低光インジケータが表示されると、低光キャプチャ状態インジケータ(例えば、602c)の表示を維持する。いくつかの実施形態では、電子デバイス(例えば、600)は、画像で検出された光が所定の閾値を下回ると、低光キャプチャ状態インジケータ(例えば、602c)の表示を維持しないか、又は低光インジケータを表示することを停止する。いくつかの実施形態では、フラッシュ状態インジケータ(例えば、602a)又は低光キャプチャ状態インジケータ(例えば、602c)のうちの1つ以上は、そのそれぞれのモード(例えば、アクティブ(例えば、色(例えば、緑、黄色、青)として表示)又は非アクティブ(例えば、色(グレーアウト、赤、透明)として表示)の状態を示す。 In response to detecting the amount of light in the field of view of one or more cameras (2106), in accordance with a determination that the amount of light in the field of view of one or more cameras satisfies a low light environment criterion, including a criterion that is met when the amount of light in the field of view of one or more cameras is below a predetermined threshold (e.g., less than 20 lux), the electronic device (e.g., 600) may display a status of flash operation (e.g., operability that a flash may occur when capturing media) (in some embodiments, the status of flash operation is based on a flash setting (or flash mode); these implementations may include a criterion that is met when the amount of light in the field of view of one or more cameras is below a predetermined threshold (e.g., less than 20 lux)) in a camera user interface (in some embodiments, the low light environment criterion includes a criterion that is met when the amount of light in the field of view of one or more cameras is within a predetermined range (e.g., 20-0 lux)). In some of the embodiments, when the state of flash operation is set to auto or on, a flash of light (e.g., a flash) may occur when capturing a meeting; however, when the state of flash operation is set to off, a flash of light may not occur when capturing media. A flash status indicator (e.g., 602a) (2110) (e.g., a flash mode affordance (e.g., a selectable user interface object)) is simultaneously displayed (2108) indicating a state of low light capture mode, and a low light capture status indicator (e.g., a low light mode affordance (e.g., a selectable user interface object)) (2112). Following a determination that the amount of light within the field of view of one or more cameras meets the low light environment criteria, the flash status indicator is displayed to provide feedback to the user about the detected amount of light and the resulting flash setting. Providing improved feedback may improve device usability and a more efficient user-device interface (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), which may further reduce the device's power usage and improve battery life by allowing the user to use the device more quickly and efficiently. In some embodiments, the low light capture status indicator corresponds to an option for the electronic device (e.g., 600) to operate in a mode (e.g., low light environment mode) or manner that was not previously selectable (e.g., not readily available (e.g., having more than one input to select) or not displayed) on the camera user interface (e.g., 608). In some embodiments, the electronic device (e.g., 600) maintains the display of the low light capture status indicator (e.g., 602c) once the low light indicator is displayed, even if the light detected in another image falls below a predetermined threshold. In some embodiments, the electronic device (e.g., 600) does not maintain the display of the low light capture status indicator (e.g., 602c) or stops displaying the low light indicator once the light detected in the image falls below a predetermined threshold. In some embodiments, one or more of the flash status indicators (e.g., 602a) or low light capture status indicators (e.g., 602c) indicate the status of their respective modes (e.g., active (e.g., displayed as a color (e.g., green, yellow, blue)) or inactive (e.g., displayed as a color (grayed out, red, transparent)).

いくつかの実施形態では、1つ以上のカメラの視野内の光量が低光環境基準を満たし、かつフラッシュ動作がアクティブ又は非アクティブに設定されている(例えば、フラッシュ設定が自動に設定されている)かどうかを自動的に判定するようにフラッシュ設定が設定されているときに満たされる基準を含む、フラッシュ動作基準が満たされているとの判定に従って、フラッシュ状態インジケータ(例えば、602a)は、フラッシュ動作(例えば、メディアをキャプチャしている間に、デバイスが光源(例えば、デバイスに含まれる光源)からの追加の光を使用する)の状態がアクティブ(例えば、アクティブ(「オン」)、非アクティブ(「オフ」))であることを示す。1つ以上のカメラの視野内の光量が低光環境基準を満たし、かつフラッシュ動作基準が満たされているとの判定に従って、フラッシュ動作の状態がアクティブであることを示すフラッシュ状態インジケータは、フラッシュ動作の現在の設定及び環境内の光量をユーザに知らせる。改良されたフィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。いくつかの実施形態では、1つ以上のカメラの視野内の光量が低光環境基準を満たし、かつフラッシュ動作がアクティブ又は非アクティブに設定されている(例えば、フラッシュ設定が自動に設定されている)かどうかを自動的に判定するようにフラッシュ設定が設定されているときに満たされる基準を含む、フラッシュ動作基準が満たされているとの判定に従って、低光キャプチャインジケータ(例えば、602c)は、低光キャプチャモードの状態が非アクティブ(例えば、アクティブ(「オン」)、非アクティブ(「オフ」))であることを示す。 In some embodiments, pursuant to a determination that the amount of light in the field of view of one or more cameras meets the low light environment criteria and the flash operation criteria are met, including criteria that are met when the flash settings are set to automatically determine whether the flash operation is set to active or inactive (e.g., the flash settings are set to auto), a flash status indicator (e.g., 602a) indicates that the state of the flash operation (e.g., the device uses additional light from a light source (e.g., a light source included in the device) while capturing media) is active (e.g., active ("on"), inactive ("off")). Pursuant to a determination that the amount of light in the field of view of one or more cameras meets the low light environment criteria and the flash operation criteria are met, a flash status indicator indicating that the state of the flash operation is active informs the user of the current setting of the flash operation and the amount of light in the environment. Providing improved feedback to the user improves usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves the battery life of the device by allowing the user to use the device more quickly and efficiently. In some embodiments, pursuant to a determination that the flash operation criteria are met, including criteria that are met when the amount of light within the field of view of one or more cameras meets the low light environment criteria and the flash settings are set to automatically determine whether flash operation is set to active or inactive (e.g., the flash settings are set to auto), the low light capture indicator (e.g., 602c) indicates that the state of the low light capture mode is inactive (e.g., active ("on"), inactive ("off")).

いくつかの実施形態では、1つ以上のカメラの視野内の光量が低光環境基準を満たしている間に、1つ以上のカメラの視野内の光量が第1の所定の範囲内(適度に低光(例えば、20~10ルクス)、フラッシュ範囲の外側)であり、かつフラッシュ設定(例えば、デバイス上のフラッシュモード設定)がアクティブ(例えば、オン)に設定されているとの判定に従って、フラッシュ状態インジケータは、フラッシュ動作の状態(例えば、メディアをキャプチャする際にフラッシュが発生する可能性がある操作性)がアクティブであることを示し、低光キャプチャインジケータ(例えば、602c)は、低光キャプチャモードの状態が非アクティブであることを示す。いくつかの実施形態では、1つ以上のカメラの視野内の光量が低光環境基準を満たしている間に、1つ以上のカメラの視野内の光量が第1の所定の範囲内(適度に低光(例えば、20~10ルクス)、フラッシュ範囲の外側)にあり、かつフラッシュ設定(例えば、デバイス上のフラッシュモード設定)がアクティブ(例えば、オン)に設定されていないとの判定に従って、フラッシュ状態インジケータ(例えば、602a)は、フラッシュ動作の状態が非アクティブであることを示し、低光キャプチャインジケータは、低光キャプチャモードの状態がアクティブであることを示す。 In some embodiments, pursuant to a determination that the amount of light within the field of view of one or more cameras is within a first predetermined range (e.g., moderately low light (e.g., 20-10 lux), outside the flash range) while the amount of light within the field of view of one or more cameras meets the low light environment criterion, and a flash setting (e.g., a flash mode setting on the device) is set to active (e.g., on), a flash status indicator indicates that the state of the flash operation (e.g., an operability in which a flash may occur when capturing media) is active, and a low light capture indicator (e.g., 602c) indicates that the state of the low light capture mode is inactive. In some embodiments, pursuant to a determination that the amount of light in the field of view of one or more cameras is within a first predetermined range (moderately low light (e.g., 20-10 lux), outside the flash range) while the amount of light in the field of view of one or more cameras meets the low light environment criterion, and the flash setting (e.g., flash mode setting on the device) is not set to active (e.g., on), the flash status indicator (e.g., 602a) indicates that the status of the flash operation is inactive and the low light capture indicator indicates that the status of the low light capture mode is active.

いくつかの実施形態では、1つ以上のカメラの視野内の光量が低光環境基準を満たしている間に、1つ以上のカメラの視野内の光量が第1の所定の範囲とは異なる第2の所定の範囲内(例えば、非常に低光(例えば、10~0ルクスなどの範囲)、フラッシュ範囲内)にあり(いくつかの実施形態では、第1の所定の範囲(例えば、20~10ルクスなどの範囲)は、第2の所定の範囲(10~0ルクス)よりも大きく、かつフラッシュ設定(例えば、デバイス上のフラッシュモード設定)が非アクティブ(例えば、オン)に設定されているとの判定に従って、フラッシュ状態インジケータ(例えば、602a)は、フラッシュ動作の状態(例えば、メディアをキャプチャする際にフラッシュが発生する可能性がある操作性)が非アクティブであることを示し、低光キャプチャインジケータ(例えば、602c)は、低光キャプチャモードの状態がアクティブであることを示す。いくつかの実施形態では、1つ以上のカメラの視野内の光量が低光環境基準を満たしている間に、1つ以上のカメラの視野内の光量が第1の所定の範囲とは異なる第2の所定の範囲内(例えば、非常に低光(例えば、10~0ルクスなどの範囲)、フラッシュ範囲内)にある(いくつかの実施形態では、第1の所定の範囲(例えば、20~10ルクスなどの範囲)は、第2の所定の範囲(10~0ルクス)よりも大きく、かつフラッシュ設定(例えば、デバイス上のフラッシュモード設定)が非アクティブ(例えば、オン)に設定されていない)との判定に従って、フラッシュ状態インジケータ(例えば、602a)は、フラッシュ動作の状態がアクティブであることを示し、低光キャプチャインジケータ(例えば、602c)は、低光キャプチャモードの状態が非アクティブであることを示す。 In some embodiments, while the amount of light in the field of view of one or more cameras satisfies the low light environment criterion, the amount of light in the field of view of one or more cameras is within a second predetermined range different from the first predetermined range (e.g., very low light (e.g., a range of 10-0 lux, etc.), within a flash range) (in some embodiments, the first predetermined range (e.g., a range of 20-10 lux, etc.) is greater than the second predetermined range (10-0 lux) and pursuant to a determination that a flash setting (e.g., a flash mode setting on the device) is set to inactive (e.g., on), a flash status indicator (e.g., 602a) indicates that a state of flash operation (e.g., operability in which a flash may occur when capturing media) is inactive and a low light capture indicator (e.g., 602c) indicates that a state of flash operation (e.g., operability in which a flash may occur when capturing media) is inactive) is inactive and a low light capture indicator (e.g., 602c) indicates that a state of low light capture mode (e.g., on) is inactive and a low light capture indicator (e.g., 602d) indicates that a state of low light capture mode (e.g., on) is inactive and a low light capture indicator (e.g., 602e) indicates that a state of low light capture mode (e.g., on) is inactive and a low light capture indicator (e.g., 602f) indicates that a state of low light capture mode (e.g., on) is inactive and a low light capture indicator (e.g., 602g) indicates that a state of low light capture mode (e.g., on) is inactive and a low light capture indicator (e.g., 602h) indicates that a state of low light capture mode (e.g., on) is inactive and a low light capture indicator (e.g. In some embodiments, while the amount of light in the field of view of one or more cameras satisfies the low light environment criterion, in accordance with a determination that the amount of light in the field of view of one or more cameras is within a second predetermined range (e.g., very low light (e.g., a range of 10-0 lux, etc.), within a flash range) different from the first predetermined range (in some embodiments, the first predetermined range (e.g., a range of 20-10 lux, etc.) is greater than the second predetermined range (10-0 lux) and the flash setting (e.g., a flash mode setting on the device) is not set to inactive (e.g., on)), the flash status indicator (e.g., 602a) indicates that the status of the flash operation is active and the low light capture indicator (e.g., 602c) indicates that the status of the low light capture mode is inactive.

いくつかの実施形態では、フラッシュ状態インジケータ(例えば、602a)が表示されており、かつフラッシュ動作の状態がアクティブであることを示し、低光キャプチャインジケータ(例えば、602c)が表示されており、かつ低光キャプチャモードの状態が非アクティブであることを示している間に、電子デバイス(例えば、600)は、フラッシュ状態インジケータの選択(例えば、タップ)を受信する(2116)。いくつかの実施形態では、フラッシュ状態インジケータ(例えば、602a)の選択を受信したことに応じて(2118)、電子デバイス(例えば、600)は、フラッシュ動作の状態が非アクティブであることを示すように、フラッシュ状態インジケータを更新する(例えば、フラッシュ状態インジケータをアクティブから非アクティブに変更する)(2120)。いくつかの実施形態では、フラッシュ状態インジケータ(例えば、602a)の選択を受信したことに応じて(2118)、電子デバイス(例えば、600)は、低光キャプチャモードの状態がアクティブであることを示すように、低光キャプチャインジケータ(例えば、602c)を更新する(例えば、低光キャプチャインジケータを非アクティブからアクティブに変更する)(2122)。選択可能フラッシュ状態インジケータを提供することにより、ユーザが、フラッシュ動作の状態を(例えば、アクティブから非アクティブに、又は非アクティブからアクティブに)迅速かつ容易に変更することを可能にする。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、フラッシュ状態インジケータをタップすることにより、フラッシュモードがオンになり、低光モードがオフになる。 In some embodiments, while the flash state indicator (e.g., 602a) is displayed and indicates a state of the flash operation is active and the low-light capture indicator (e.g., 602c) is displayed and indicates a state of the low-light capture mode is inactive, the electronic device (e.g., 600) receives a selection (e.g., tap) of the flash state indicator (2116). In some embodiments, in response to receiving the selection of the flash state indicator (e.g., 602a) (2118), the electronic device (e.g., 600) updates the flash state indicator (e.g., changes the flash state indicator from active to inactive) to indicate that the state of the flash operation is inactive (2120). In some embodiments, in response to receiving the selection of the flash state indicator (e.g., 602a) (2118), the electronic device (e.g., 600) updates the low-light capture indicator (e.g., 602c) to indicate that the state of the low-light capture mode is active (e.g., changes the low-light capture indicator from inactive to active) (2122). Providing a selectable flash state indicator allows a user to quickly and easily change the state of flash operation (e.g., from active to inactive or from inactive to active). Providing additional control options without cluttering the UI with additional controls displayed enhances usability of the device, makes the user-device interface more efficient (e.g., by helping the user provide appropriate inputs and reducing user errors when operating/interacting with the device), and also reduces device power usage and improves battery life by allowing the user to use the device more quickly and efficiently. In some embodiments, tapping the flash state indicator turns on flash mode and turns off low light mode.

いくつかの実施形態では、フラッシュ状態インジケータ(例えば、602a)が表示されており、かつフラッシュ動作の状態がアクティブであることを示し、低光キャプチャインジケータ(例えば、602c)が表示されており、かつ低光キャプチャモードの状態が非アクティブであることを示している間に、電子デバイス(例えば、600)は、低光キャプチャ状態インジケータの(例えば、タップ)選択を受信する(2124)。いくつかの実施形態では、低光キャプチャ状態インジケータ(例えば、602c)の選択を受信したことに応じて(2126)、電子デバイス(例えば、600)は、フラッシュ動作の状態が非アクティブであることを示すように、フラッシュ状態インジケータ(例えば、602a)を更新する(例えば、フラッシュ状態インジケータを非アクティブからアクティブに変更する)(2128)。いくつかの実施形態では、低光キャプチャ状態インジケータ(例えば、602c)の選択を受信したことに応じて(2126)、電子デバイス(例えば、600)は、低光キャプチャモードの状態がアクティブであることを示すように、低光キャプチャ状態インジケータを更新する(例えば、低光キャプチャ状態インジケータを非アクティブからアクティブに変更する)(2130)。選択可能低光キャプチャ状態インジケータを提供することにより、ユーザが、低光キャプチャモードを迅速かつ容易に変更することを可能にする。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、低光キャプチャ状態インジケータ(例えば、602c)をタップすることにより、低光モードがオンになり、フラッシュモードがオフになる。 In some embodiments, while the flash state indicator (e.g., 602a) is displayed and indicates a state of the flash operation is active and the low-light capture indicator (e.g., 602c) is displayed and indicates a state of the low-light capture mode is inactive, the electronic device (e.g., 600) receives (2124) a selection (e.g., tap) of the low-light capture state indicator. In some embodiments, in response to receiving (2126) the selection of the low-light capture state indicator (e.g., 602c), the electronic device (e.g., 600) updates (2128) the flash state indicator (e.g., 602a) to indicate a state of the flash operation is inactive (e.g., changes the flash state indicator from inactive to active). In some embodiments, in response to receiving (2126) the selection of the low-light capture state indicator (e.g., 602c), the electronic device (e.g., 600) updates (2130) the low-light capture state indicator to indicate a state of the low-light capture mode is active (e.g., changes the low-light capture state indicator from inactive to active). Providing a selectable low light capture status indicator allows a user to quickly and easily change low light capture modes. Providing additional control options without cluttering the UI with additional controls displayed enhances usability of the device, makes the user-device interface more efficient (e.g., by helping the user provide appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces device power usage and improves battery life by allowing the user to use the device more quickly and efficiently. In some embodiments, tapping the low light capture status indicator (e.g., 602c) turns on low light mode and turns off flash mode.

いくつかの実施形態では、低光キャプチャモードの状態がアクティブであるとの判定に従って、電子デバイス(例えば、600)は、(例えば、時間(例えば、合計キャプチャ時間、露出時間)、ピクチャ/フレームの数で測定された)キャプチャ持続時間を調整するコントロール(例えば、1804)(例えば、スライダ)を表示する(2132)。低光キャプチャモードの状態がアクティブであるとの判定に従って、キャプチャ持続時間を調整するキャプチャ持続時間を調整するコントロールを表示することにより、ユーザが、このようなコントロールが必要とされる可能性があるときに、キャプチャ持続時間を調整するコントロールに迅速かつ容易にアクセスすることを可能にする。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、調整可能なコントロール(例えば、1804)は、ティックマークを含み、各ティックマークは、調整可能なコントロールの値を表す。 In some embodiments, pursuant to a determination that the low light capture mode state is active, the electronic device (e.g., 600) displays (2132) a control (e.g., 1804) (e.g., a slider) for adjusting the capture duration (e.g., measured in time (e.g., total capture time, exposure time), number of pictures/frames). Displaying a control for adjusting the capture duration pursuant to a determination that the low light capture mode state is active allows a user to quickly and easily access a control for adjusting the capture duration when such a control may be needed. Providing additional control options without cluttering the UI with additional controls displayed enhances usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), and also reduces device power usage and improves battery life by allowing the user to use the device more quickly and efficiently. In some embodiments, the adjustable control (e.g., 1804) includes tick marks, each tick mark representing a value of the adjustable control.

いくつかの実施形態では、キャプチャ持続時間を調整するコントロール(例えば、1804)を表示している間に、電子デバイス(例えば、600)は、第1のキャプチャ持続時間から第2のキャプチャ持続時間にコントロールを変更する要求を受信する(2134)。いくつかの実施形態では、第1のキャプチャ持続時間から第2のキャプチャ持続時間にコントロールを変更する要求を受信したことに応じて(2136)、第2のキャプチャ持続時間が低光キャプチャモードを非アクティブ化する所定のキャプチャ持続時間(例えば、ゼロ以下の持続時間(例えば、標準条件又は別の条件でデバイスを動作させる持続時間に対応する持続時間))であるとの判定に従って、電子デバイス(例えば、600)は、低光キャプチャモードの状態が非アクティブであることを示すように、低光キャプチャ状態インジケータ(例えば、602c)を更新する(2138)。いくつかの実施形態では、キャプチャ持続時間が所定のキャプチャ持続時間でないとの判定に従って、電子デバイス(例えば、600)は、低光キャプチャモードの状態がアクティブであることを示すように、低光キャプチャインジケーション(例えば、602c)を維持する。第2のキャプチャ持続時間が低光キャプチャモードを非アクティブ化する所定のキャプチャ持続時間であるか、又はキャプチャ持続時間が所定のキャプチャ持続時間でないかどうかの判定に基づいて、低光キャプチャ状態インジケータを(例えば、自動的に、ユーザ入力なしで)更新することによって、ユーザに、低光キャプチャモードがアクティブ又は非アクティブであるかどうかの視覚的フィードバックを提供し、ユーザが低光キャプチャモードを手動で変更する必要がないことを可能にする。改善された視覚的フィードバックを提供し、操作を実行するために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, while displaying a control (e.g., 1804) for adjusting the capture duration, the electronic device (e.g., 600) receives a request to change the control from a first capture duration to a second capture duration (2134). In some embodiments, in response to receiving the request to change the control from the first capture duration to the second capture duration (2136), in accordance with a determination that the second capture duration is a predefined capture duration that deactivates the low-light capture mode (e.g., a duration equal to or less than zero (e.g., a duration corresponding to a duration for operating the device under standard or other conditions)), the electronic device (e.g., 600) updates the low-light capture status indicator (e.g., 602c) to indicate that the state of the low-light capture mode is inactive (2138). In some embodiments, in accordance with a determination that the capture duration is not the predefined capture duration, the electronic device (e.g., 600) maintains the low-light capture indication (e.g., 602c) to indicate that the state of the low-light capture mode is active. Updating the low-light capture status indicator (e.g., automatically, without user input) based on a determination of whether the second capture duration is a predetermined capture duration that deactivates the low-light capture mode or the capture duration is not a predetermined capture duration provides visual feedback to the user of whether the low-light capture mode is active or inactive, allowing the user to avoid having to manually change the low-light capture mode. Providing improved visual feedback and reducing the number of inputs required to perform an operation enhances the usability of the device, makes the user-device interface more efficient (e.g., by helping the user make appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、キャプチャ持続時間を調整するコントロール(例えば、1804)(例えば、スライダ)を表示している間に、電子デバイス(例えば、600)は、低光キャプチャモードの状態の変化を検出する。いくつかの実施形態では、低光キャプチャモードの状態の変化を検出したことに応じて、低光キャプチャモードの状態が非アクティブであるとの判定に従って、電子デバイス(例えば、600)は、(例えば、時間(例えば、合計キャプチャ時間、露出時間)、ピクチャ/フレームの数で測定された)キャプチャ持続時間を調整するコントロール(例えば、1804)(例えば、スライダ)の表示を停止する。低光キャプチャモードの状態の変化を検出したことに応じて、かつ低光キャプチャモードの状態が非アクティブであるとの判定に従って、キャプチャ持続時間を調整するコントロールを表示することをやめることによって、電子デバイスは、現在必要とされる可能性がないコントロールオプションを削除するので、追加の表示されたコントロールによってUIを雑然とさせない。これにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、調整可能なコントロール(例えば、1804)は、ティックマークを含み、各ティックマークは、調整可能なコントロールの値を表す。 In some embodiments, while displaying a control (e.g., 1804) (e.g., a slider) that adjusts the capture duration, the electronic device (e.g., 600) detects a change in the state of the low-light capture mode. In some embodiments, in response to detecting a change in the state of the low-light capture mode, and in accordance with a determination that the state of the low-light capture mode is inactive, the electronic device (e.g., 600) stops displaying the control (e.g., 1804) (e.g., a slider) that adjusts the capture duration (e.g., measured in time (e.g., total capture time, exposure time), number of pictures/frames). By ceasing to display the control that adjusts the capture duration in response to detecting a change in the state of the low-light capture mode and in accordance with a determination that the state of the low-light capture mode is inactive, the electronic device removes a control option that may not currently be needed, and therefore does not clutter the UI with additional displayed controls. This enhances usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently. In some embodiments, the adjustable control (e.g., 1804) includes tick marks, each tick mark representing a value of the adjustable control.

いくつかの実施形態では、電子デバイス(例えば、600)は、カメラユーザインタフェース(例えば、608)内に、1つ以上のカメラの視野の第1の表現を表示する。いくつかの実施形態では、低光キャプチャモードの状態がアクティブである間に、電子デバイス(例えば、600)は、1つ以上のカメラの視野の第1のメディアをキャプチャする要求を受信する。いくつかの実施形態では、低光キャプチャモードの状態がアクティブである間に、第1のメディア(例えば、写真、ビデオ)をキャプチャする要求(例えば、キャプチャアフォーダンスのアクティブ化(例えば、タップオン))を受信したことに応じて、電子デバイス(例えば、600)は、(例えば、1つ以上のカメラを介して)第1のメディアのキャプチャを開始する。いくつかの実施形態では、低光キャプチャモードの状態がアクティブである間に、第1のメディア(例えば、写真、ビデオ)をキャプチャする要求(例えば、キャプチャアフォーダンスのアクティブ化(例えば、タップオン))を受信したことに応じて、電子デバイス(例えば、600)は、第1のメディアのキャプチャ持続時間の間に1つ以上のカメラの視野の第1の表現(例えば、静止写真)の表示を維持する(例えば、更新又は変更なしで表示し続ける)。 In some embodiments, the electronic device (e.g., 600) displays a first representation of a field of view of one or more cameras within a camera user interface (e.g., 608). In some embodiments, while the low-light capture mode state is active, the electronic device (e.g., 600) receives a request to capture a first media of the field of view of one or more cameras. In some embodiments, in response to receiving a request to capture the first media (e.g., photo, video) (e.g., activation of a capture affordance (e.g., tap-on)) while the low-light capture mode state is active, the electronic device (e.g., 600) begins capturing the first media (e.g., via one or more cameras). In some embodiments, in response to receiving a request (e.g., activation of a capture affordance (e.g., tap-on)) to capture a first media (e.g., photo, video) while the low-light capture mode state is active, the electronic device (e.g., 600) maintains displaying (e.g., continues displaying without updating or changing) a first representation (e.g., a still photo) of the field of view of one or more cameras for the duration of the capture of the first media.

いくつかの実施形態では、低光キャプチャモードの状態がアクティブである間に、電子デバイス(例えば、600)は、1つ以上のカメラの視野の第2のメディアをキャプチャする要求を受信する。いくつかの実施形態では、低光キャプチャモードの状態がアクティブである間に、第2のメディア(例えば、写真、ビデオ)をキャプチャする要求(例えば、キャプチャアフォーダンスのアクティブ化(例えば、タップオン))を受信したことに応じて、電子デバイス(例えば、600)は、(例えば、1つ以上のカメラを介して)第2のメディアのキャプチャを開始する。いくつかの実施形態では、第2のメディアを(例えば、1つ以上のカメラを介して)キャプチャしている間に、電子デバイス(例えば、600)は、カメラユーザインタフェース内に、第2のメディア(例えば、キャプチャされている写真又はビデオ)の表現を同時に表示する。第2のメディアをキャプチャしている間に、カメラユーザインタフェース内に、第2のメディアの表現を同時に表示することによって、ユーザに、キャプチャされている第2のメディアの視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, while the low-light capture mode state is active, the electronic device (e.g., 600) receives a request to capture a second media of the field of view of one or more cameras. In some embodiments, in response to receiving a request to capture a second media (e.g., photo, video) (e.g., activation of a capture affordance (e.g., tap-on)) while the low-light capture mode state is active, the electronic device (e.g., 600) begins capturing the second media (e.g., via one or more cameras). In some embodiments, while capturing the second media (e.g., via one or more cameras), the electronic device (e.g., 600) simultaneously displays a representation of the second media (e.g., photo or video being captured) within the camera user interface. By simultaneously displaying a representation of the second media within the camera user interface while capturing the second media, visual feedback of the second media being captured is provided to the user. Providing improved visual feedback to the user improves usability of the device and makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、電子デバイス(例えば、600)は、カメラユーザインタフェース内に、1つ以上のカメラの視野の第2の表現を表示する。いくつかの実施形態では、低光キャプチャモードの状態がアクティブである間に、電子デバイス(例えば、600)は、1つ以上のカメラの視野の第3のメディアをキャプチャする要求を受信する。いくつかの実施形態では、低光キャプチャモードの状態がアクティブである間に第3のメディア(例えば、写真、ビデオ)をキャプチャする要求(例えば、キャプチャアフォーダンスのアクティブ化(例えば、タップオン))を受信したことに応じて、電子デバイス(例えば、600)は、(例えば、1つ以上のカメラを介して)第3のメディアのキャプチャを開始する。いくつかの実施形態では、第3のメディアをキャプチャしている間に、電子デバイス(例えば、600)は、カメラユーザインタフェース内の1つ以上のカメラの視野から導出された(例えば、それからキャプチャされた、それに基づく)表現(例えば、キャプチャされているメディア)を表示することを停止する。第3のメディアをキャプチャしている間に、かつ低光キャプチャモードの状態がアクティブである間に、1つ以上のカメラの視野から導出された表現を表示することを停止することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされたときに動作を実行し、これにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the electronic device (e.g., 600) displays a second representation of the field of view of the one or more cameras in a camera user interface. In some embodiments, while the low-light capture mode state is active, the electronic device (e.g., 600) receives a request to capture a third media of the field of view of the one or more cameras. In some embodiments, in response to receiving a request (e.g., activation (e.g., tap-on) of a capture affordance) to capture a third media (e.g., photo, video) while the low-light capture mode state is active, the electronic device (e.g., 600) begins capturing the third media (e.g., via one or more cameras). In some embodiments, while capturing the third media, the electronic device (e.g., 600) stops displaying a representation derived from (e.g., captured from, based on) the field of view of the one or more cameras in the camera user interface (e.g., media being captured). By ceasing to display representations derived from the field of view of one or more cameras while capturing the third media and while the low light capture mode state is active, the electronic device performs an action when a set of conditions are met without requiring further user input, thereby enhancing usability of the device and making the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs and reducing user errors when operating/interacting with the device), as well as reducing power usage and improving battery life of the device by allowing the user to use the device more quickly and efficiently.

1つ以上のカメラの視野内の光量を検出したことに応じて(2106)、1つ以上のカメラの視野内の光量が低光環境基準を満たしていないとの判定に従って、電子デバイス(例えば、600)は、カメラユーザインタフェース(例えば、608)内の低光キャプチャ状態インジケータ(例えば、602c)を表示することをやめる(例えば、フラッシュ状態インジケータの表示を維持している間に)(2114)。1つ以上のカメラの視野内の光量が低光環境基準を満たしていないとの判定に従って、低光キャプチャ状態インジケータを表示することをやめることにより、(例えば、検出された光量に基づく必要がないため)低光キャプチャモードが非アクティブであることをユーザに知らせる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In response to detecting an amount of light in the field of view of one or more cameras (2106), the electronic device (e.g., 600) ceases to display (e.g., while maintaining display of the flash status indicator) (2114) a low-light capture status indicator (e.g., 602c) in the camera user interface (e.g., 608) in accordance with a determination that the amount of light in the field of view of one or more cameras does not meet the low-light environment criteria. Ceasing to display the low-light capture status indicator in accordance with a determination that the amount of light in the field of view of one or more cameras does not meet the low-light environment criteria informs the user that the low-light capture mode is inactive (e.g., because it is not necessary based on the detected amount of light). Providing the user with improved visual feedback improves device usability and provides a more efficient user-device interface (e.g., by assisting the user in providing appropriate inputs and reducing user errors when operating/interacting with the device), which further reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、更に1つ以上のカメラの視野内の光量が低光環境基準を満たしていないとの判定に従って、電子デバイス(例えば、600)は、カメラユーザインタフェース内に、フラッシュ動作の状態を示すフラッシュ状態インジケータ(例えば、602a)を表示する(例えば、フラッシュ状態インジケータは、低光モードで表示されていないときに、維持される)。 In some embodiments, further pursuant to a determination that the amount of light within the field of view of one or more cameras does not meet the low light environment criterion, the electronic device (e.g., 600) displays a flash status indicator (e.g., 602a) within the camera user interface indicating the status of flash operation (e.g., the flash status indicator is maintained when not displayed in low light mode).

いくつかの実施形態では、フラッシュ動作の状態及び低光キャプチャモードの状態は、互いに排他的である(例えば、フラッシュ動作及び光キャプチャモードは、同時ではない(例えば、フラッシュ動作がアクティブであるとき、低光キャプチャモードは非アクティブであり、低光キャプチャモードがアクティブであるとき、フラッシュ動作は非アクティブである))。互いに排他的であるフラッシュ動作及び低光キャプチャモードは、デバイスのリソースをより効率的な方法で使用しているため、電子デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the flash operation state and the low light capture mode state are mutually exclusive (e.g., the flash operation and the light capture mode are not simultaneous (e.g., when the flash operation is active, the low light capture mode is inactive, and when the low light capture mode is active, the flash operation is inactive)). The mutually exclusive flash operation and low light capture mode use the device's resources in a more efficient manner, thereby reducing power usage and improving battery life of the electronic device.

いくつかの実施形態では、低光キャプチャモードの状態は、アクティブ状態(例えば、図26Hの602c)(例えば、低光キャプチャモードがアクティブであることを示す状態(例えば、デバイスが、メディアをキャプチャする要求に応じて、低光キャプチャモードでメディアキャプチャするように現在構成される状態))、利用可能状態(例えば、低光キャプチャモードが利用可能であることを示す状態(例えば、図26Bの602c)(例えば、デバイスが低光キャプチャモードでメディアキャプチャするように現在構成されていないが、低光モードでメディアをキャプチャするように構成され得る状態)、低光キャプチャモードが利用可能であることを示し、ユーザによってオン又はオフに手動ですることができない状態(例えば、低光キャプチャモードインジケータがまず(最近)表示されるか、又は低光キャプチャモードインジケータを表示する判定を行ったため、デバイスは、低光キャプチャモードでメディアをキャプチャするように構成されていないか、又は低光キャプチャモードでメディアをキャプチャしない))、並びに非アクティブ状態(例えば、図26Aの602cが不存在)(例えば、低光キャプチャモードが非アクティブであることを示す状態(例えば、デバイスが、メディアをキャプチャする要求に応じて、低光キャプチャモードでメディアをキャプチャするように現在構成されていない状態))からなる群から選択される。 In some embodiments, the state of the low-light capture mode may be an active state (e.g., 602c in FIG. 26H) (e.g., a state indicating that the low-light capture mode is active (e.g., a state in which the device is currently configured to capture media in low-light capture mode in response to a request to capture media)), an available state (e.g., a state indicating that the low-light capture mode is available (e.g., 602c in FIG. 26B) (e.g., a state in which the device is not currently configured to capture media in low-light capture mode, but may be configured to capture media in low-light capture mode), or a low-light capture mode state indicating that the low-light capture mode is available and can be enabled by a user. a state in which the device cannot be manually turned on or off (e.g., the low-light capture mode indicator was first (recently) displayed, or a decision was made to display the low-light capture mode indicator, and the device is not configured to capture media in low-light capture mode or will not capture media in low-light capture mode)); and an inactive state (e.g., absence of 602c in FIG. 26A) (e.g., a state indicating that the low-light capture mode is inactive (e.g., a state in which the device is not currently configured to capture media in low-light capture mode in response to a request to capture media).

いくつかの実施形態では、1つ以上のカメラの視野内の光量が低光環境基準を満たしている間に、かつ1つ以上のカメラの視野内の光量が第3の所定の範囲内(適度に低光(例えば、20~10ルクス)、フラッシュ範囲の外側)にあるとの判定に従って、フラッシュ状態インジケータは、フラッシュ動作の状態(例えば、メディアをキャプチャする際にフラッシュが発生する可能性がある操作性)が利用可能であることを示す(例えば、図26Bの602c)。 In some embodiments, while the amount of light in the field of view of one or more cameras meets the low light environment criteria, and pursuant to a determination that the amount of light in the field of view of one or more cameras is within a third predetermined range (e.g., moderately low light (e.g., 20-10 lux), outside the flash range), the flash status indicator indicates that a flash operational status (e.g., operability where a flash may occur when capturing media) is available (e.g., 602c in FIG. 26B).

いくつかの実施形態では、キャプチャ持続時間を調整するコントロールは、第1のコントロールである。いくつかの実施形態では、フラッシュ状態インジケータは、フラッシュ動作の状態が利用可能であることを示している間に(例えば、図26Bの602c)、電子デバイスは、低光キャプチャ状態インジケータの選択を受信する。いくつかの実施形態では、低光キャプチャ状態インジケータの選択を受信したことに応じて、電子デバイスは、低光キャプチャモードの状態がアクティブであることを示すように、低光キャプチャ状態インジケータを更新する(例えば、図26B~図26Cの602c)。いくつかの実施形態では、キャプチャ低光キャプチャ状態インジケータの選択を受信したことに応じて、かつフラッシュ状態インジケータが、フラッシュモードの状態が自動であることを示すとの判定に従って、電子デバイスは、フラッシュモードの状態が非アクティブであることを示すように、フラッシュ状態インジケータを更新し、(例えば、時間(例えば、合計キャプチャ時間、露出時間)、ピクチャ/フレームの数で測定された)キャプチャ持続時間を調整する第2のコントロール(例えば、スライダ)を表示する。いくつかの実施形態では、調整可能なコントロールは、ティックマークを含み、各ティックマークは、調整可能なコントロールの値を表す。 In some embodiments, the control that adjusts the capture duration is a first control. In some embodiments, the electronic device receives a selection of the low-light capture state indicator while the flash state indicator indicates that the state of the flash operation is available (e.g., 602c of FIG. 26B). In some embodiments, in response to receiving the selection of the low-light capture state indicator, the electronic device updates the low-light capture state indicator to indicate that the state of the low-light capture mode is active (e.g., 602c of FIGS. 26B-26C). In some embodiments, in response to receiving the selection of the capture low-light capture state indicator and pursuant to a determination that the flash state indicator indicates that the state of the flash mode is automatic, the electronic device updates the flash state indicator to indicate that the state of the flash mode is inactive and displays a second control (e.g., a slider) that adjusts the capture duration (e.g., measured in time (e.g., total capture time, exposure time), number of pictures/frames). In some embodiments, the adjustable control includes tick marks, each tick mark representing a value of the adjustable control.

いくつかの実施形態では、1つ以上のカメラの視野内の周辺光が第4の所定の範囲(例えば、1ルクス未満などの所定の範囲)内にあるとの判定に従って、第1の低光キャプチャ状態インジケータ(例えば、図26Hの602c)は、第1のキャプチャ持続時間の第1の視覚表現(例えば、第1のキャプチャ持続時間を示すテキスト)を含む。いくつかの実施形態では、1つ以上のカメラの視野内の周辺光が第4の所定の範囲(例えば、1ルクス超などの所定の範囲)内にないとの判定に従って、第1の低光キャプチャ状態インジケータは、第1のキャプチャ持続時間(例えば、図26Eの602c)の第1の視覚表現(例えば、第1のキャプチャ持続時間を示すテキスト)(又はコントロールが第2のキャプチャ持続時間に設定されているというインジケーションを表示する第2のキャプチャ持続時間ホイール)を含まない。いくつかの実施形態では、1つ以上のカメラの視野内の周辺光が変化すると、電子デバイスは、周辺光が第1の所定の範囲又は第2の所定の範囲にあるかどうかに基づいて、第1のキャプチャ持続時間(又は第2のキャプチャ持続時間)の視覚表現を表示するかどうかを自動的に再評価する。 In some embodiments, pursuant to a determination that the ambient light in the field of view of one or more cameras is within a fourth predetermined range (e.g., a predetermined range such as less than 1 lux), the first low-light capture status indicator (e.g., 602c in FIG. 26H) includes a first visual representation of the first capture duration (e.g., text indicating the first capture duration). In some embodiments, pursuant to a determination that the ambient light in the field of view of one or more cameras is not within a fourth predetermined range (e.g., a predetermined range such as more than 1 lux), the first low-light capture status indicator does not include a first visual representation of the first capture duration (e.g., text indicating the first capture duration) (or a second capture duration wheel displaying an indication that the control is set to the second capture duration) (e.g., 602c in FIG. 26E). In some embodiments, when the ambient light within the field of view of one or more cameras changes, the electronic device automatically reevaluates whether to display the visual representation for the first capture duration (or the second capture duration) based on whether the ambient light is in a first predetermined range or a second predetermined range.

いくつかの実施形態では、1つ以上のカメラの視野内の光量を検出したことに応じて、かつ1つ以上のカメラの視野内の光量が低光環境基準を満たすとの判定に従って、電子デバイスは、1つ以上のカメラの視野内の周辺光が第3の所定の範囲内(例えば、1ルクスなどの閾値未満)にあるとの判定に従って、低光キャプチャ状態インジケータ(例えば、図26Hの602c)は、低光キャプチャモードの状態がアクティブである(例えば、低光キャプチャモードがアクティブであることを示す状態(例えば、デバイスが、メディアをキャプチャする要求に応じて、低光キャプチャモードでメディアをキャプチャするように現在構成されている状態))こと、及び第1のキャプチャ持続時間の第2の視覚表現(例えば、「5秒」)をむことを示し;1つ以上のカメラの視野内の周辺光が第4の所定の範囲(例えば、1ルクス~10ルクスなどの範囲)内にあるとの判定に従って、低光キャプチャ状態インジケータ(例えば、図26Eの602c)は、低光キャプチャモードの状態がアクティブであることを示し、第1のキャプチャ持続時間の第2の視覚表現(例えば、「5秒」)を含まず;1つ以上のカメラの視野内の周辺光が第5の所定の範囲(例えば、10~20ルクスなどの範囲)内にあるとの判定に従って、低光キャプチャ状態インジケータが、低光キャプチャモードの状態が利用可能である(例えば、図26Bの602c)ことを示し、低光キャプチャモードの状態がアクティブであることを示し、第1のキャプチャ持続時間の第2の視覚表現を含む低光キャプチャ状態インジケータと、低光キャプチャモードの状態がアクティブであることを示し、第1のキャプチャ持続時間の第2の視覚表現を含まない低光キャプチャ状態インジケータと、低光キャプチャモードの状態が利用可能である(例えば、低光キャプチャモードが利用可能であることを示す状態(例えば、デバイスが、低光キャプチャモードでメディアをキャプチャするように現在構成されていないが、低光モードでメディアをキャプチャするように構成され得る状態)、低光キャプチャモードが利用可能であることを示し、ユーザによってオン又はオフに手動ですることができない状態(例えば、低光キャプチャモードインジケータがまず(最近)表示されるか、又は低光キャプチャモードインジケータを表示する判定を行ったため、デバイスは、低光キャプチャモードでメディアをキャプチャするように構成されていないか、又は低光キャプチャモードでメディアをキャプチャしない))低光キャプチャ状態インジケータとは、互いに視覚的に異なる(例えば、表示された色、質感、太さ、文字、又はマークが異なる(例えば、非アクティブ状態を示すために取り消し線が引かれる)、キャプチャ持続時間の視覚表現を有無)。いくつかの実施形態では、低光モードの状態が利用可能であることを示す低光キャプチャモードは、キャプチャ持続時間(例えば、第3のキャプチャ持続時間)の視覚表現を含まない。所定の条件が満たされているときに低光状態インジケータ内にキャプチャ持続時間の視覚表現を表示することによって、キャプチャ持続時間がキャプチャ持続時間の通常範囲の外側である場合に、電子デバイスを使用して、メディアをキャプチャする、キャプチャ持続時間の現在の状態についてのフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。所定の条件が満たされているときに視覚表現なしで低光状態インジケータを表示することによって、電子デバイスが低光モードの間にメディアをキャプチャするように構成され、ユーザインタフェースを雑然とさせることなく、キャプチャ持続時間の通常範囲にあるメディアをキャプチャするためのキャプチャ持続時間を使用するフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。所定の条件が満たされているときに低光状態を示す低光キャプチャ状態インジケータを表示することによって、ユーザが、低光モードであるが、低光モードでメディアをキャプチャするように(例えば、ユーザ入力を介して)構成可能である間に、電子デバイスがメディアをキャプチャするように構成されていないことを迅速に認識できるようにし、ユーザが、メディアをキャプチャする要求を受信したことに応じて、電子デバイスが低光モードに従って動作しないことを迅速に理解できるようにする。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in response to detecting an amount of light within the field of view of the one or more cameras, and in accordance with a determination that the amount of light within the field of view of the one or more cameras meets the low light environment criterion, the electronic device, in response to a determination that the ambient light within the field of view of the one or more cameras is within a third predetermined range (e.g., less than a threshold such as 1 lux), causes a low light capture status indicator (e.g., 602c in FIG. 26H ) to indicate that the low light capture mode is active (e.g., a state in which the device is currently configured to capture media in low light capture mode in response to a request to capture media). in accordance with a determination that the ambient light within the field of view of the one or more cameras is within a fourth predetermined range (e.g., a range of 1 lux to 10 lux, etc.), a low light capture status indicator (e.g., 602c of FIG. 26E ) indicates a low light capture mode state is active and does not include the second visual representation of the first capture duration (e.g., “5 seconds”); in accordance with a determination that the ambient light within the field of view of the one or more cameras is within a fifth predetermined range (e.g., a range of 10 to 20 lux, etc.), a low light capture status indicator (e.g., 602b of FIG. 26E ) indicates a low light capture mode state is available ( 26B ) and includes a second visual representation of the first capture duration; a low-light capture status indicator that indicates a state of low-light capture mode is active and does not include a second visual representation of the first capture duration; and a low-light capture status indicator that indicates a state of low-light capture mode is active and does not include a second visual representation of the first capture duration and a low-light capture status indicator that indicates a state of low-light capture mode is available (e.g., a state indicating that low-light capture mode is available (e.g., a state in which the device is not currently configured to capture media in low-light capture mode, but may be configured to capture media in low-light capture mode), a state indicating that low-light capture mode is available and cannot be manually turned on or off by a user (e.g., the low-light capture mode indicator was first (recently) displayed, or a decision was made to display the low-light capture mode indicator and the device is not configured to capture media in low-light capture mode, or does not capture media in low-light capture mode)). In some embodiments, the low light capture mode indicating that a low light mode status is available does not include a visual representation of the capture duration (e.g., the third capture duration). By displaying a visual representation of the capture duration within the low light status indicator when a predetermined condition is met, feedback is provided to the user about the current status of the capture duration of using the electronic device to capture media when the capture duration is outside of the normal range of capture durations. By providing the user with improved visual feedback, the device is more user-friendly and the user-device interface is more efficient (e.g., by assisting the user in providing appropriate inputs and reducing user errors when operating/interacting with the device), which further reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently. By displaying the low light status indicator without a visual representation when a predetermined condition is met, the electronic device is configured to capture media while in the low light mode, providing feedback to the user to use a capture duration for capturing media that is in the normal range of capture durations without cluttering the user interface. Providing improved visual feedback to the user improves device operability, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and further reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently. Displaying a low-light capture status indicator indicating a low-light status when a predetermined condition is met allows the user to quickly recognize that the electronic device is not configured to capture media while in low-light mode but configurable (e.g., via user input) to capture media in low-light mode, and allows the user to quickly understand that in response to receiving a request to capture media, the electronic device will not operate according to low-light mode. Performing an optimized operation when a set of conditions is met without requiring further user input improves device operability, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and further reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

方法2100に関して上述された処理(例えば、図21A~図21C)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2300、2500、2700、2800、3000、3200、3400、3600、3800、4000、及び4200は、方法2100を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。 It should be noted that the details of the processes (e.g., FIGS. 21A-21C) described above with respect to method 2100 are also applicable in a similar manner to the methods described above. For example, methods 700, 900, 1100, 1300, 1500, 1700, 1900, 2300, 2500, 2700, 2800, 3000, 3200, 3400, 3600, 3800, 4000, and 4200 optionally include one or more of the characteristics of the various methods described above with reference to method 2100. For the sake of brevity, these details will not be repeated below.

図22A~図22AMは、いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図23A~図23Bにおける処理を含む、以下で説明する処理を例示するために使用される。 FIGS. 22A-22AM show example user interfaces for editing media captured using an electronic device, according to some embodiments. The user interfaces in these figures are used to illustrate the processes described below, including the processes in FIGS. 23A-23B.

図22Aは、メディアビューワユーザインタフェースを表示する電子デバイス600を示す。メディアビューワユーザインタフェースは、編集アフォーダンス644a及びキャプチャされたメディア(例えば、写真)の表現2230aを含む。表現2230aを表示している間に、デバイス600は、ポートレートカメラモード(例えば、ボケ及び/又は照明効果が適用されているモード)が有効化されていた間に(例えば、シャッターボタン610のアクティブ化により、デバイス600が図8Hに示すように、ポートレートモードで構成されている間に、キャプチャされたメディアが深度情報を含む)、表現2230aによって表されたキャプチャされたメディアが以前にキャプチャされたと判定する。更には、判定に応じて、デバイス600は、ポートレート画像状態インジケータ644gを表示する。換言すれば、ポートレート画像状態インジケータ644gは、表現2230aがポートレート画像の表現であると示す。 22A illustrates an electronic device 600 displaying a media viewer user interface. The media viewer user interface includes an edit affordance 644a and a representation 2230a of captured media (e.g., a photo). While displaying the representation 2230a, the device 600 determines that the captured media represented by the representation 2230a was previously captured while a portrait camera mode (e.g., a mode in which bokeh and/or lighting effects are applied) was enabled (e.g., the captured media includes depth information while the device 600 was configured in portrait mode, as shown in FIG. 8H, by activation of the shutter button 610). Moreover, in response to the determination, the device 600 displays a portrait image status indicator 644g. In other words, the portrait image status indicator 644g indicates that the representation 2230a is a representation of a portrait image.

図22Aでは、デバイス600は、編集アフォーダンス644aに対応する位置でのタップジェスチャ2250aを検出する。タップジェスチャ2250aを検出したことに応じて、図22Bに示すように、デバイス600は、メディアビューワユーザインタフェースを、メディア編集ユーザインタフェースに置き換える。図22Bに示すように、メディア編集ユーザインタフェースは、図22Aにおいて表現2230aに対応する表現2230bを含む。すなわち、表現2230bは、任意の調整なしに、表現2230aとして以前にキャプチャされたメディアと同じ表現を示す。メディア編集ユーザインタフェースはまた、インジケータ領域602及びコントロール領域606を含む。図22Aでは、コントロール領域606の一部分は、表現2230b上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。いくつかの実施形態では、インジケータ領域602は、表現2230b上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。 In FIG. 22A, device 600 detects tap gesture 2250a at a location corresponding to edit affordance 644a. In response to detecting tap gesture 2250a, device 600 replaces the media viewer user interface with a media editing user interface, as shown in FIG. 22B. As shown in FIG. 22B, the media editing user interface includes representation 2230b that corresponds to representation 2230a in FIG. 22A. That is, representation 2230b shows the same representation of the previously captured media as representation 2230a, without any adjustments. The media editing user interface also includes indicator region 602 and control region 606. In FIG. 22A, a portion of control region 606 is superimposed on representation 2230b, and optionally includes a colored (e.g., gray, semi-transparent) overlay. In some embodiments, indicator region 602 is superimposed on representation 2230b, and optionally includes a colored (e.g., gray, semi-transparent) overlay.

コントロール領域606は、編集モードアフォーダンス2210を含み、編集モードアフォーダンス2210には、ポートレートメディア編集モードアフォーダンス2210a、視覚特性編集モードアフォーダンス2210b、フィルタ編集モードアフォーダンス2210c、及び画像コンテンツ編集モードアフォーダンス2210dを含む。ポートレートメディア編集モードアフォーダンス2210aは、メディア編集モードアフォーダンスのタイプである。すなわち、ポートレートメディア編集モードアフォーダンス2210aは、編集されている特定のタイプのキャプチャされたメディアに対応する。メディア編集アフォーダンスが選択されると、デバイス600は、特定のタイプのメディアを編集するように設計された特定の1組の編集ツールを表示する。図22Aでは、デバイス600は、ポートレート画像(例えば、深度情報を含むメディアに基づく)に対応する表現2230bを判定し、それに応答して、ポートレートメディア編集モードアフォーダンス2210aを表示する。ポートレートメディア編集モードアフォーダンス2210aの下のモード選択インジケータ2202aによって示されるように、ポートレートメディア編集モードアフォーダンス2210aが選択されるため、デバイス600は、ポートレートメディア編集ツールアフォーダンス2212を表示する。いくつかの実施形態では(例えば、図22AE~図22AL)、デバイス600がアニメーション化された画像メディア又はビデオメディアなどの異なるタイプのメディアに対応する表現を判定するときに、デバイス600は、(例えば、1つ以上の)異なるタイプのメディア編集アフォーダンス(例えば、図22AIのビデオメディア編集モードアフォーダンス2210f)を表示する。選択されると、異なるタイプのメディア編集アフォーダンスは、デバイス600に、ポートレートメディア編集ツールアフォーダンス2212とは異なる特定の1組のツールアフォーダンス(例えば、ビデオメディアアフォーダンス2222)を表示させる。いくつかの実施形態では、デバイス600は、キャプチャされたメディアが、それぞれのタイプのメディアを編集するための対応する特定の1組の編集ツールを有さないタイプのメディアに対応すると判定する。更には、それに応答して、デバイス600は、それぞれのタイプのメディアを編集するメディア編集アフォーダンスを表示せず、代わりに、それぞれのタイプのメディアに固有の(例えば、対応する)編集ツールを表示せずに、編集モードアフォーダンス2210b~2210dを表示する。 The control area 606 includes edit mode affordances 2210, including a portrait media edit mode affordance 2210a, a visual property edit mode affordance 2210b, a filter edit mode affordance 2210c, and an image content edit mode affordance 2210d. The portrait media edit mode affordance 2210a is a type of media edit mode affordance. That is, the portrait media edit mode affordance 2210a corresponds to a particular type of captured media being edited. When a media edit affordance is selected, the device 600 displays a particular set of editing tools designed to edit the particular type of media. In FIG. 22A, the device 600 determines a representation 2230b corresponding to a portrait image (e.g., based on media including depth information) and, in response, displays the portrait media edit mode affordance 2210a. As indicated by mode selection indicator 2202a below portrait media editing mode affordance 2210a, device 600 displays portrait media editing tool affordance 2212 because portrait media editing mode affordance 2210a is selected. In some embodiments (e.g., Figs. 22AE-22AL), when device 600 determines a representation corresponding to a different type of media, such as animated image media or video media, device 600 displays a (e.g., one or more) different type of media editing affordance (e.g., video media editing mode affordance 2210f of Fig. 22AI). When selected, the different type of media editing affordance causes device 600 to display a specific set of tool affordances (e.g., video media affordance 2222) that are different from portrait media editing tool affordance 2212. In some embodiments, device 600 determines that the captured media corresponds to a type of media that does not have a corresponding specific set of editing tools for editing the respective type of media. Moreover, in response, device 600 does not display media editing affordances for editing each type of media, and instead displays edit mode affordances 2210b-2210d without displaying editing tools specific to (e.g., corresponding to) each type of media.

図22Bでは、デバイス600は、視覚特性編集モードアフォーダンス2210bに対応する位置でのタップジェスチャ2250bを検出する。図22Cに示すように、タップジェスチャ2250bを検出したことに応じて、デバイス600は、視覚特性編集モードアフォーダンス2210bの下にモード選択インジケータ2202bを表示し、ポートレートメディア編集モードアフォーダンス2210aの下のモード選択インジケータ2202aを表示することを停止する。視覚特性編集モードアフォーダンス2210bの下にモード選択インジケータ2202bを表示することにより、デバイス600が、ポートレート編集モードで動作するように構成されていることから、視覚特性編集モードで動作するように構成されていることへと変化したことを示す。更には、タップジェスチャ2250bを検出したことに応じて、デバイス600はまた、ポートレートメディア編集ツールアフォーダンス2212を、視覚特性編集ツールアフォーダンス2214に置き換える。ポートレートメディア編集ツールアフォーダンス2212を置き換えた後、視覚特性編集ツールアフォーダンス2214は、ポートレートメディア編集ツールアフォーダンス2212が図22Aで占有された、メディア編集ユーザインタフェースの一部分を最初に占有する。視覚特性編集ツールアフォーダンス2214は、自動視覚特性編集ツールアフォーダンス2214a、露出編集ツールアフォーダンス2214b、及び輝度編集ツールアフォーダンス2214cを含む。視覚特性編集ツールは、選択されると、デバイス600に、以下の図に示すように、表現の1つ以上の視覚特性を調整するユーザインタフェース要素を表示させる。 In FIG. 22B, the device 600 detects a tap gesture 2250b at a location corresponding to the visual property editing mode affordance 2210b. As shown in FIG. 22C, in response to detecting the tap gesture 2250b, the device 600 displays a mode selection indicator 2202b below the visual property editing mode affordance 2210b and stops displaying the mode selection indicator 2202a below the portrait media editing mode affordance 2210a. Displaying the mode selection indicator 2202b below the visual property editing mode affordance 2210b indicates that the device 600 has changed from being configured to operate in a portrait editing mode to being configured to operate in a visual property editing mode. Furthermore, in response to detecting the tap gesture 2250b, the device 600 also replaces the portrait media editing tool affordance 2212 with the visual property editing tool affordance 2214. After replacing the portrait media editing tool affordance 2212, the visual property editing tool affordance 2214 initially occupies the portion of the media editing user interface that the portrait media editing tool affordance 2212 occupied in FIG. 22A. The visual property editing tool affordances 2214 include an automatic visual property editing tool affordance 2214a, an exposure editing tool affordance 2214b, and a luminance editing tool affordance 2214c. When selected, the visual property editing tool causes the device 600 to display user interface elements that adjust one or more visual properties of the representation, as shown in the following figures.

図22Cに示すように、デバイス600は、輝度編集ツールアフォーダンス2214cに対応する位置でのタップジェスチャ2250cを検出する。図22Dに示すように、タップジェスチャ2250cを検出したことに応じて、デバイス600は、自動的に(追加のユーザ入力なしで)、視覚特性編集ツールアフォーダンス2214a~2214cを左にスライドして、メディア編集ユーザインタフェースの水平中心に輝度編集ツールアフォーダンス2214cを表示する。その結果、デバイス600は、メディアユーザインタフェースの左縁部に近接した自動視覚特性編集ツールアフォーダンス2214aと、自動視覚特性編集ツールアフォーダンス2214aの右隣の露出編集ツールアフォーダンス2214bと、露出編集ツールアフォーダンス2214bの右隣の輝度編集ツールアフォーダンス2214cと、を表示する。したがって、デバイス600は、輝度編集ツールアフォーダンス2214cが水平中心に表示されているが、視覚特性編集ツールアフォーダンス2214a~2214cの順番の表示を維持する。視覚特性編集ツールがデバイス600の水平中心に表示されているときに、デバイス600は、特定の編集ツールを介して調整される値に対応する表現の視覚特性を調整するように構成される。したがって、輝度編集ツールアフォーダンス2214cが図22Dのメディア編集ユーザインタフェースの中心にあるため、デバイス600は、表現2230bの輝度を調整するように構成される。更に、輝度編集ツールアフォーダンス2214cが選択されていることを示すために、デバイス600は、ツール選択インジケータ2204cを表示する。視覚特性編集ツールアフォーダンス2214a~2214cを動かすことに加えて、デバイス600はまた、図22Bに表示されていない2つの追加の視覚特性編集ツールアフォーダンス(それぞれ表示された、ハイライト編集ツールアフォーダンス2214d及び影編集ツールアフォーダンス2214e)を表示する。図22Dに示すように、タップジェスチャ2250cを検出したことに応じて、デバイス600はまた、自動的に(追加のユーザ入力なしで)、調整可能な輝度コントロール2254cを表示する。調整可能な輝度コントロール2254cは、輝度コントロールインジケーション2254c1及び複数のティックマークを含むスライダであり、各ティックマークは、表現2230bの輝度を調整する値に対応する。輝度コントロールインジケーション2254c1は、調整可能な輝度コントロール2254c上の2つの連続した隣接するチケットマークの間にあるスライダ上の位置に表示される。調整可能な輝度コントロール2254c上の輝度コントロールインジケーション2254c1の位置は、表現2230bの現在の輝度値に対応する。図22Dでは、デバイス600は、調整可能な輝度コントロール2254cに向けられたジェスチャ2250d(例えば、左向きドラッグ又はスワイプジェスチャ)を検出する。 As shown in FIG. 22C, device 600 detects tap gesture 2250c at a location corresponding to luminance edit tool affordance 2214c. As shown in FIG. 22D, in response to detecting tap gesture 2250c, device 600 automatically (without additional user input) slides visual property edit tool affordances 2214a-2214c to the left to display luminance edit tool affordance 2214c at the horizontal center of the media editing user interface. As a result, device 600 displays automatic visual property edit tool affordance 2214a adjacent to the left edge of the media user interface, exposure edit tool affordance 2214b to the right of automatic visual property edit tool affordance 2214a, and luminance edit tool affordance 2214c to the right of exposure edit tool affordance 2214b. Thus, device 600 maintains the sequential display of visual property edit tool affordances 2214a-c, although luminance edit tool affordance 2214c is displayed horizontally centered. When a visual property edit tool is displayed horizontally centered on device 600, device 600 is configured to adjust the visual property of the representation that corresponds to the value adjusted via the particular edit tool. Thus, because luminance edit tool affordance 2214c is in the center of the media editing user interface of FIG. 22D, device 600 is configured to adjust the luminance of representation 2230b. Furthermore, to indicate that luminance edit tool affordance 2214c is selected, device 600 displays tool selection indicator 2204c. In addition to moving visual property edit tool affordances 2214a-c, device 600 also displays two additional visual property edit tool affordances not displayed in FIG. 22B (highlight edit tool affordance 2214d and shadow edit tool affordance 2214e, respectively, displayed). As shown in FIG. 22D, in response to detecting the tap gesture 2250c, the device 600 also automatically (without additional user input) displays an adjustable brightness control 2254c. The adjustable brightness control 2254c is a slider that includes a brightness control indication 2254c1 and a number of tick marks, each tick mark corresponding to a value that adjusts the brightness of the representation 2230b. The brightness control indication 2254c1 is displayed at a position on the slider that is between two consecutive adjacent ticket marks on the adjustable brightness control 2254c. The position of the brightness control indication 2254c1 on the adjustable brightness control 2254c corresponds to the current brightness value of the representation 2230b. In FIG. 22D, the device 600 detects a gesture 2250d (e.g., a left-directed drag or swipe gesture) directed at the adjustable brightness control 2254c.

図22Eに示すように、ジェスチャ2250dを検出したことに応じて、デバイス600は、デバイス600が、デバイス600のタッチ感知ディスプレイ上のジェスチャ2250dの接触を検出し続けている間に(例えば、指の接触がデバイス600のタッチ感知ディスプレイ上に残り続ける間に)、調整可能な輝度コントロール2254cを強調する。具体的には、デバイス600は、調整可能な輝度コントロール2254cの表示を拡大及び暗色化し、これは、調整可能な輝度コントロール2254cのティックマーク及び輝度コントロールインジケーション2254c1を拡大することを含む。いくつかの実施形態では、調整可能な輝度コントロール2254cを強調することは、調整可能な輝度コントロール2254cをメディア編集ユーザインタフェースの残りの部分から更に区別することによって、調整可能な輝度コントロール2254c上の輝度コントロールインジケーション2254c1を介して、デバイス600のユーザが正確な輝度値を設定するのを助けるように試みる。いくつかの実施形態では、デバイス600は、調整可能な輝度コントロール2254cの部分(例えば、ティックマーク又は輝度コントロールインジケーション2254c1)の色(例えば、黒から赤)を変更することにより、調整可能な輝度コントロール2254cを強調する。いくつかの実施形態では、デバイス600は、コントロール領域606内の他のユーザインタフェース要素を強調することをやめることによって、調整可能な輝度コントロール2254cを強調する。他のユーザインタフェース要素を強調することをやめることは、焦点から外れたコントロール領域606の他の部分(例えば、調整可能な輝度コントロール2254cの下/上のエリア)を表示することを含む。図22Eでは、デバイス600は、ジェスチャ2250dのリフトオフ(例えば、接触の検出を停止する)を検出する。 22E, in response to detecting gesture 2250d, device 600 highlights adjustable brightness control 2254c while device 600 continues to detect the contact of gesture 2250d on the touch-sensitive display of device 600 (e.g., while the finger contact continues to remain on the touch-sensitive display of device 600). Specifically, device 600 enlarges and darkens the display of adjustable brightness control 2254c, which includes enlarging the tick mark and brightness control indication 2254c1 of adjustable brightness control 2254c. In some embodiments, highlighting adjustable brightness control 2254c attempts to help a user of device 600 set an accurate brightness value via brightness control indication 2254c1 on adjustable brightness control 2254c by further distinguishing adjustable brightness control 2254c from the remainder of the media editing user interface. In some embodiments, the device 600 highlights the adjustable brightness control 2254c by changing the color (e.g., from black to red) of a portion of the adjustable brightness control 2254c (e.g., a tick mark or brightness control indication 2254c1). In some embodiments, the device 600 highlights the adjustable brightness control 2254c by de-highlighting other user interface elements in the control region 606. De-highlighting other user interface elements includes displaying other portions of the control region 606 out of focus (e.g., areas below/above the adjustable brightness control 2254c). In FIG. 22E, the device 600 detects lift-off (e.g., stops detecting contact) of the gesture 2250d.

図22Fに示すように、リフトオフのジェスチャ2250dを検出したことに応じて、デバイス600は、調整可能な輝度コントロール2254cを、強調することなく(例えば、図22Dにおいて強調なしで表示されるように)再表示する。更には、ジェスチャ2250dを検出したことに応じて、デバイス600は、ジェスチャ2250dの大きさ及び方向(例えば、スワイプの速さ、長さ)に基づいて、輝度コントロールインジケーション2254c1を、調整可能な輝度コントロール2254c上の新しい位置に動かす。図22Fでは、ジェスチャ2250dの大きさ及び方向により、デバイス600に、図22Dにおいて輝度コントロールインジケーション2254c1の位置よりも、調整可能な輝度コントロール2254c上の最右端のティックマーク(例えば、輝度の最大値)により近い輝度コントロールインジケーション2254c1の新しい位置を表示させる。輝度コントロールインジケーション2254c1を、調整可能な輝度コントロール2254c上の新しい位置に動かすことは、メディア編集ユーザインタフェースの中心に、輝度コントロールインジケーション2254c1の表示を維持している間に、調整可能な輝度コントロール2254cのティックマークを左(例えば、ジェスチャ2250dの方向)に動かすことを含む。したがって、最右端のティックマークは、図22Dで表示されたところから、図22Fのメディア編集ユーザインタフェースの水平中心により近く表示されており、最右端のティックマークとメディア編集ユーザインタフェースの右縁部との間に追加の空間が残される。 As shown in FIG. 22F, in response to detecting the lift-off gesture 2250d, the device 600 redisplays the adjustable brightness control 2254c without highlighting (e.g., as displayed without highlighting in FIG. 22D). Moreover, in response to detecting the gesture 2250d, the device 600 moves the brightness control indication 2254c1 to a new position on the adjustable brightness control 2254c based on the magnitude and direction (e.g., speed, length of the swipe) of the gesture 2250d. In FIG. 22F, the magnitude and direction of the gesture 2250d cause the device 600 to display a new position of the brightness control indication 2254c1 closer to the right-most tick mark (e.g., maximum brightness) on the adjustable brightness control 2254c than the position of the brightness control indication 2254c1 in FIG. 22D. Moving the brightness control indication 2254c1 to a new location on the adjustable brightness control 2254c includes moving the tick mark of the adjustable brightness control 2254c to the left (e.g., in the direction of gesture 2250d) while maintaining the display of the brightness control indication 2254c1 at the center of the media editing user interface. Thus, the rightmost tick mark is displayed closer to the horizontal center of the media editing user interface in FIG. 22F from where it was displayed in FIG. 22D, leaving additional space between the rightmost tick mark and the right edge of the media editing user interface.

加えて、ジェスチャ2250dを検出したことに応じて、デバイス600は、輝度編集ツールアフォーダンス2214cの周囲に輝度値インジケータ2244cを表示する。輝度値インジケータ2244cは、輝度編集ツールアフォーダンス2214cの上方中心(例えば、アナログ時計の12時の位置)で開始し、輝度編集ツールアフォーダンス2214cの周辺部の周りを輝度編集ツールアフォーダンス2214cの周りを半分と少し進んだ位置(例えば、アナログ時計の7時の位置)まで包む、円形ユーザインタフェース要素である。輝度値インジケータ2244cのサイズは、調整可能な輝度コントロール2254cの最大値(例えば、最右端のティックマーク)に対する調整可能な輝度コントロール2254cの現在値を示す。したがって、輝度コントロールインジケーション2254c1が新しい位置に変更されると、輝度値インジケータ2244cを更新して、輝度コントロールインジケーション2254c1の位置に基づいて、輝度編集ツールアフォーダンス2214cの周辺部を多少包含する。いくつかの実施形態では、輝度値インジケータ2244cは、特定の色(例えば、青)として表示される。更に、ジェスチャ2250dを検出したことに応じて、デバイス600は、輝度コントロールインジケーション2254c1の新しい位置に対応する輝度値に基づいて、表現2230bをデジタル的に調整する。輝度コントロールインジケーション2254c1の新しい位置は、図22Dの輝度コントロールインジケーション2254c1上の位置よりも最右端のティックマーク(例えば、輝度の最大値)に近いため、デバイス600は、表現2230bよりも明るい調整された表現2230cを表示する(又は表現2230bを更新する)。調整された表現2230cは、新たに調整された輝度値に基づいて、表示される。 Additionally, in response to detecting gesture 2250d, device 600 displays brightness value indicator 2244c around brightness edit tool affordance 2214c. Brightness value indicator 2244c is a circular user interface element that starts at the upper center of brightness edit tool affordance 2214c (e.g., the 12 o'clock position on an analog clock) and wraps around the perimeter of brightness edit tool affordance 2214c to a position slightly more than halfway around brightness edit tool affordance 2214c (e.g., the 7 o'clock position on an analog clock). The size of brightness value indicator 2244c indicates the current value of adjustable brightness control 2254c relative to the maximum value of adjustable brightness control 2254c (e.g., the right-most tick mark). Thus, when the brightness control indication 2254c1 is changed to a new position, the brightness value indicator 2244c is updated to more or less encompass the periphery of the brightness edit tool affordance 2214c based on the position of the brightness control indication 2254c1. In some embodiments, the brightness value indicator 2244c is displayed as a particular color (e.g., blue). Furthermore, in response to detecting the gesture 2250d, the device 600 digitally adjusts the representation 2230b based on the brightness value corresponding to the new position of the brightness control indication 2254c1. Because the new position of the brightness control indication 2254c1 is closer to the right-most tick mark (e.g., maximum brightness) than its position on the brightness control indication 2254c1 of FIG. 22D, the device 600 displays the adjusted representation 2230c (or updates the representation 2230b) brighter than the representation 2230b. The adjusted representation 2230c is displayed based on the newly adjusted brightness value.

図22Fでは、デバイス600は、輝度編集ツールアフォーダンス2214cに対応する位置でのタップジェスチャ2250fを検出する。図22Gに示すように、タップジェスチャ2250fを検出したことに応じて、デバイス600は、調整された表現2230cを、表現2230bに置き換え、図22Eにおいて行われた調整を行わない。換言すれば、調整可能な輝度コントロール2254cの現在値(例えば、図22Eの新たに調整された値)は、メディア編集ユーザインタフェース上に表示されている表現に影響を及ぼさない。調整可能な輝度コントロール2254cがメディア編集ユーザインタフェース上に表示されている表現に影響を及ぼさないことを強調するために、デバイス600は、他の視覚特性編集ツールアフォーダンス2214(例えば、2214a、2214b、2214d、及び2214e)の表示を維持する(例えば、灰色に退色させない)間に、輝度編集ツールアフォーダンス2214c及び調整可能な輝度コントロール2254cを灰色に(例えば、又は半透明に見えるように)退色させる。更に、デバイス600はまた、輝度編集ツールアフォーダンス2214cの周りの輝度値インジケータ2244c、及びツール選択インジケータ2204cを表示することを停止する。図22Gに示すように、デバイス600は、輝度編集ツールアフォーダンス2214cをオフにトグルし、新たに調整された輝度値に基づいて調整された(例えば、図22E)、調整された表現2230cを示す代わりに、表現2230bを、元の輝度値とともに示す(例えば、図22B)。図22Gでは、デバイス600は、輝度編集ツールアフォーダンス2214cに対応する位置でのタップジェスチャ2250gを検出する。 In Figure 22F, device 600 detects tap gesture 2250f at a location corresponding to brightness edit tool affordance 2214c. As shown in Figure 22G, in response to detecting tap gesture 2250f, device 600 replaces adjusted representation 2230c with representation 2230b and does not make the adjustment made in Figure 22E. In other words, the current value of adjustable brightness control 2254c (e.g., the newly adjusted value of Figure 22E) does not affect the representation displayed on the media editing user interface. To emphasize that the adjustable brightness control 2254c does not affect the representation displayed on the media editing user interface, the device 600 fades the luminance edit tool affordance 2214c and the adjustable brightness control 2254c to gray (e.g., or appears semi-transparent) while maintaining display (e.g., not fading to gray) the other visual property edit tool affordances 2214 (e.g., 2214a, 2214b, 2214d, and 2214e). In addition, the device 600 also stops displaying the luminance value indicator 2244c around the luminance edit tool affordance 2214c, and the tool selection indicator 2204c. As shown in FIG. 22G, the device 600 toggles off the luminance edit tool affordance 2214c, and instead of showing the adjusted representation 2230c adjusted based on the newly adjusted luminance value (e.g., FIG. 22E), shows the representation 2230b with its original luminance value (e.g., FIG. 22B). In FIG. 22G, the device 600 detects a tap gesture 2250g at a location corresponding to the luminance edit tool affordance 2214c.

図22Hに示すように、タップジェスチャ2250gを検出したことに応じて、デバイス600は、輝度編集ツールアフォーダンス2214cをトグルオンして、調整された表現2230c、輝度編集ツールアフォーダンス2214c、調整可能な輝度コントロール2254c、ツール選択インジケータ2204c、輝度値インジケータ2244c、ツール選択インジケータ2204cを、図22Fに表示されているように再表示する。調整可能な輝度コントロール2254cの現在値(例えば、図22Eの新たに調整された値)は、メディア編集ユーザインタフェース上に表示されている表現に影響を及ぼさない。いくつかの実施形態では、特定の編集ツールアフォーダンスをトグルオン(タップジェスチャ2250gを介して)又はトグルオフ(例えば、タップジェスチャ2250fを介して)することにより、デバイス600のユーザは、特定の編集ツールの特定の調整された値(例えば、調整された輝度値)がどの程度表現に影響するかを見ることができる。図22Hでは、デバイス600は、自動視覚特性編集ツールアフォーダンス2214aに対応する位置でのタップジェスチャ2250hを検出する。 22H, in response to detecting tap gesture 2250g, device 600 toggles brightness edit tool affordance 2214c to redisplay adjusted representation 2230c, brightness edit tool affordance 2214c, adjustable brightness control 2254c, tool selection indicator 2204c, brightness value indicator 2244c, and tool selection indicator 2204c as displayed in FIG. 22F. The current value of adjustable brightness control 2254c (e.g., the newly adjusted value of FIG. 22E) does not affect the representation displayed on the media editing user interface. In some embodiments, by toggling on (via tap gesture 2250g) or off (e.g., via tap gesture 2250f) a particular edit tool affordance, a user of device 600 can see how much a particular adjusted value of a particular edit tool (e.g., an adjusted brightness value) affects the representation. In FIG. 22H, the device 600 detects a tap gesture 2250h at a location corresponding to the automatic visual property editing tool affordance 2214a.

図22Iに示すように、タップジェスチャ2250hを検出したことに応じて、デバイス600は、調整可能な輝度コントロール2254c及び輝度コントロールインジケーション2254c1の表示を、調整可能な自動視覚特性コントロール2254a及び自動視覚特性コントロールインジケーション2254a1の表示に置き換える。デバイス600はまた、自動視覚特性コントロールインジケーション2254a1の上にツール選択インジケータ2204aを表示する。デバイス600は、調整可能な自動視覚特性2254aを、調整可能な輝度コントロール2254cが図22Hにおいて表示されたのと同一のそれぞれの位置に表示する。置き換えを行うとき、デバイス600は、自動視覚特性コントロールインジケーション2254a1を、調整可能な自動視覚特性コントロール2254a上の、輝度コントロールインジケーション2254c1が図22Hにおいて調整可能な輝度コントロール2254c上に表示された位置とは異なる位置に表示する。図22Iに示すように、デバイス600は、自動視覚特性コントロールインジケーション2254a1を、調整可能な自動視覚特性コントロール2254a値(例えば、50%の自動視覚特性調整値)の中央値に対応する位置に表示し、この位置は、調整可能な輝度コントロール2254c(例えば、75%の輝度値)の最右端のティックマークにより近かった、図22Hにおける輝度コントロールインジケーション2254c1の位置とは異なる。特に、自動視覚特性コントロールインジケーション2254a1の位置は、図22Dにおける調整可能な輝度コントロール2254c上の輝度コントロールインジケーション2254c1の位置に類似している(例えば、ジェスチャ2250dに応じて、調整可能な輝度コントロール2254cが最初に開始されたとき)。 22I, in response to detecting the tap gesture 2250h, the device 600 replaces the display of the adjustable brightness control 2254c and the brightness control indication 2254c1 with a display of the adjustable automatic visual property control 2254a and the automatic visual property control indication 2254a1. The device 600 also displays the tool selection indicator 2204a above the automatic visual property control indication 2254a1. The device 600 displays the adjustable automatic visual property 2254a in the same respective positions in which the adjustable brightness control 2254c was displayed in FIG. 22H. When performing the replacement, the device 600 displays the automatic visual property control indication 2254a1 on the adjustable automatic visual property control 2254a in a different position from the position in which the brightness control indication 2254c1 was displayed on the adjustable brightness control 2254c in FIG. 22H. As shown in FIG. 22I, the device 600 displays the automatic visual characteristic control indication 2254a1 at a location corresponding to the median of the adjustable automatic visual characteristic control 2254a value (e.g., an automatic visual characteristic adjustment value of 50%), which is different from the location of the brightness control indication 2254c1 in FIG. 22H, which was closer to the rightmost tick mark of the adjustable brightness control 2254c (e.g., a brightness value of 75%). Notably, the location of the automatic visual characteristic control indication 2254a1 is similar to the location of the brightness control indication 2254c1 on the adjustable brightness control 2254c in FIG. 22D (e.g., when the adjustable brightness control 2254c is first initiated in response to gesture 2250d).

いくつかの実施形態では、調整可能なコントロールが最初に開始されたとき、調整可能なコントロールのインジケーションは、調整可能なコントロールの中央の位置に表示される。いくつかの実施形態では、調整可能なコントロールの中央位置は、表示表現内で検出された値、又は自動調整アルゴリズムを介して計算された値に対応する(例えば、中央位置は、自動調整アルゴリズムに基づいて計算された75%の輝度の値に対応する)。更には、1つの調整可能なコントロール上の中央位置(例えば、75%の輝度値)は、別の調整可能なコントロール上の中央位置(例えば、64%の露出値)とは異なる値と等しくすることができる。いくつかの実施形態では、2つの調整可能なコントロール(例えば、調整可能な自動視覚特性コントロール2254a及び調整可能な輝度コントロール2254c)のスケールは、同一又は一貫している(例えば、同一の最小値及び最大値を有する、並びに/又は連続したティックマーク間を表す値の増分は、各スライダ上で同じである)。 In some embodiments, when an adjustable control is first initiated, an indication of the adjustable control is displayed at the center position of the adjustable control. In some embodiments, the center position of the adjustable control corresponds to a value found in the display representation or a value calculated via an auto-adjustment algorithm (e.g., the center position corresponds to a 75% brightness value calculated based on the auto-adjustment algorithm). Furthermore, the center position on one adjustable control (e.g., a 75% brightness value) can be equal to a different value than the center position on another adjustable control (e.g., a 64% exposure value). In some embodiments, the scales of the two adjustable controls (e.g., the adjustable automatic visual characteristics control 2254a and the adjustable brightness control 2254c) are the same or consistent (e.g., have the same minimum and maximum values and/or the value increments representing between successive tick marks are the same on each slider).

デバイス600が、調整可能な輝度コントロール2254cの表示を、調整可能な自動視覚特性コントロール2254aの表示に置き換えるときに、デバイス600は、調整可能な自動視覚特性コントロール2254aを表示するときに、調整可能な輝度コントロール2254c(例えば、中心の左にティックマーク)のいくつかの静的な部分の表示を、これらと同じそれぞれの位置に維持する。しかしながら、調整可能な輝度コントロール2254cのいくつかの可変部分(例えば、調整可能な輝度コントロール2254c上の中心の右に見える、インジケーション及び新しいティックマークの位置)は、これらと同じそれぞれの位置に維持されない。図22Iに示すように、デバイス600が、調整可能な輝度コントロール2254cの表示を、調整可能な自動視覚特性コントロール2254aの表示に置き換えるときに、デバイス600は、調整可能なコントロールのいくらかの部分を動かしながら(例えば、デバイス600は、自動視覚特性コントロールインジケーション2254a1を、ディスプレイ上の輝度コントロールインジケーション2254c1とは別の位置に動かす)、それぞれの位置に調整可能な輝度コントロール2254cの中心の左にティックマークを維持する。 When the device 600 replaces the display of the adjustable brightness control 2254c with the display of the adjustable automatic visual characteristic control 2254a, the device 600 maintains the display of some static parts of the adjustable brightness control 2254c (e.g., the tick mark to the left of center) in their same respective positions as when it displays the adjustable automatic visual characteristic control 2254a. However, some variable parts of the adjustable brightness control 2254c (e.g., the indication and the position of the new tick mark visible to the right of center on the adjustable brightness control 2254c) are not maintained in their same respective positions as when it displays the adjustable automatic visual characteristic control 2254a. As shown in FIG. 22I, when the device 600 replaces the display of the adjustable brightness control 2254c with the display of the adjustable automatic visual characteristic control 2254a, the device 600 moves some parts of the adjustable control (e.g., the device 600 moves the automatic visual characteristic control indication 2254a1 to a different position on the display than the brightness control indication 2254c1) while maintaining a tick mark to the left of the center of the adjustable brightness control 2254c in each position.

図22Iに更に示すように、タップジェスチャ2250hを検出したことに応じて、デバイス600は、メディア編集ユーザインタフェースの中心に、自動視覚特性編集ツールアフォーダンス2214aを表示する(例えば、図22Cに示すように、視覚特性編集モードアフォーダンス2210bが図22Bにおいてまず選択されたとき)。メディア編集ユーザインタフェースの中心に、自動視覚特性編集ツールアフォーダンス2214aを表示するために、デバイス600は、視覚特性編集ツールアフォーダンス2214a~2214fを左にスライドし、これにより、露出編集ツールアフォーダンス2214bは、メディア編集ユーザインタフェースの左に第2から最後のアフォーダンスとして表示され、輝度編集ツールアフォーダンス2214cは、メディア編集ユーザインタフェースの中心の左に最後のアフォーダンスとして表示される。更には、デバイス600は、メディア編集ユーザインタフェースが、輝度編集ツールアフォーダンス2214cの右隣の任意の追加の視覚特性編集ツールアフォーダンス2214を表示するための任意の追加の空間を有さないため、ハイライト編集ツールアフォーダンス2214d及び影編集ツールアフォーダンス2214eを表示することを停止する。メディア編集ユーザインタフェースの中心に、自動視覚特性編集ツールアフォーダンス2214aを表示することは、デバイス600が、調整可能な自動視覚特性コントロール2254aの現在値が、調整可能な自動視覚特性コントロール2254a上の自動視覚特性コントロールインジケーション2254a1の位置に対応する値に対応することに応じて、表示表現を調整するように構成されることを示す。 As further shown in FIG. 22I, in response to detecting tap gesture 2250h, device 600 displays automatic visual property edit tool affordance 2214a in the center of the media editing user interface (e.g., when visual property edit mode affordance 2210b is first selected in FIG. 22B, as shown in FIG. 22C). To display automatic visual property edit tool affordance 2214a in the center of the media editing user interface, device 600 slides visual property edit tool affordances 2214a-2214f to the left, such that exposure edit tool affordance 2214b is displayed as the second to last affordance to the left of the media editing user interface and brightness edit tool affordance 2214c is displayed as the last affordance to the left of the center of the media editing user interface. Furthermore, the device 600 stops displaying the highlight edit tool affordance 2214d and the shadow edit tool affordance 2214e because the media editing user interface does not have any additional space to display any additional visual property edit tool affordances 2214 to the right of the luminance edit tool affordance 2214c. Displaying the automatic visual property edit tool affordance 2214a in the center of the media editing user interface indicates that the device 600 is configured to adjust the display representation in response to the current value of the adjustable automatic visual property control 2254a corresponding to a value corresponding to the position of the automatic visual property control indication 2254a1 on the adjustable automatic visual property control 2254a.

輝度視覚特性に関連付けられた値のみに影響する(例えば、調整可能な輝度コントロール2254cによって制御された)、図22D~図22Gで論じられた調整可能な輝度コントロール2254cの現在値とは対照的に、調整可能な自動視覚特性コントロール2254aの現在値は、1つ以上の他の視覚特性の1つ以上の現在値(例えば、輝度及び露出値)に影響する。調整可能な自動視覚特性コントロール2254aの現在値が変化すると、デバイス600は、自動的に(追加のユーザ入力なしで)、1つ以上の他の視覚特性(例えば、他の視覚特性編集ツールアフォーダンス2214に対応する視覚特性)に対応する1つ以上の現在値を更新する。図22Iでは、調整可能な自動視覚特性コントロール2254aの現在値は、デバイス600がタップジェスチャ2250hを検出したことに応じて、変化する。その結果、デバイス600は、輝度値インジケータ2244cを更新して、図22Hにおいて包含された輝度値インジケータ2244cよりも、輝度編集ツールアフォーダンス2214cの周辺部をより少なく包含することによって、現在の調整された輝度値が減少したことを示す。更には、デバイス600は、周辺部露出編集ツールアフォーダンス2214bの周りに露出値インジケータ2244bを表示して、表示表現が現在の露出値(例えば、増加した露出値)によって調整されていることを示す。いくつかの実施形態では、デバイス600は、自動調整アルゴリズムを、表現2230c(例えば、以前に表示表現)及び調整可能な自動視覚特性コントロール2254aの現在値に対応するデータとともに使用することによって、1つ以上の他の視覚特性の現在値(例えば、輝度値又は露出値)を調整する。 In contrast to the current value of the adjustable brightness control 2254c discussed in Figures 22D-22G, which only affects a value associated with the luminance visual characteristic (e.g., controlled by the adjustable brightness control 2254c), the current value of the adjustable automatic visual characteristic control 2254a affects one or more current values of one or more other visual characteristics (e.g., luminance and exposure values). When the current value of the adjustable automatic visual characteristic control 2254a changes, the device 600 automatically (without additional user input) updates one or more current values corresponding to one or more other visual characteristics (e.g., visual characteristics corresponding to the other visual characteristic editing tool affordances 2214). In Figure 22I, the current value of the adjustable automatic visual characteristic control 2254a changes in response to the device 600 detecting a tap gesture 2250h. As a result, the device 600 updates the luminance value indicator 2244c to indicate that the current adjusted luminance value has been decreased by encompassing less of the periphery of the luminance edit tool affordance 2214c than the luminance value indicator 2244c encompassed in FIG. 22H. Additionally, the device 600 displays an exposure value indicator 2244b around the periphery exposure edit tool affordance 2214b to indicate that the displayed representation has been adjusted by the current exposure value (e.g., the increased exposure value). In some embodiments, the device 600 adjusts the current value (e.g., luminance value or exposure value) of one or more other visual characteristics by using an automatic adjustment algorithm together with data corresponding to the representation 2230c (e.g., the previously displayed representation) and the current value of the adjustable automatic visual characteristic control 2254a.

更に、タップジェスチャ2250hを検出したことに応じて、デバイス600は、表現2230cの表示を、調整された表現2230dに置き換える。表現2230dは、表現2230cの調整されたバージョンに対応し、ここで、表現2230cは、1つ以上の他の視覚特性に対応する1つ以上の更新された現在値(例えば、低下した輝度値又は増加した露出値)に基づいて調整された。図22Iに示すように、表現2230dは、視覚的により暗くなり、表現2230cよりも多く露出している。 Further, in response to detecting tap gesture 2250h, device 600 replaces the display of representation 2230c with adjusted representation 2230d. Representation 2230d corresponds to an adjusted version of representation 2230c, where representation 2230c has been adjusted based on one or more updated current values corresponding to one or more other visual characteristics (e.g., a reduced brightness value or an increased exposure value). As shown in FIG. 22I, representation 2230d appears visually darker and more exposed than representation 2230c.

図22Bに戻ると、デバイス600がジェスチャ2250bを検出した後、いくつかの実施形態では、デバイス600は、図22Cの代わりに図22Iに表示する。その結果、調整可能な自動視覚特性コントロール2254aは、デバイス600に、1つ以上の他の視覚特性(例えば、露出及び/又は輝度値)の1つ以上の現在値を更新させ、かつ1つ以上の更新された現在値に基づいて、調整された表現(例えば、表現2230d)を表示させる。 Returning to FIG. 22B, after device 600 detects gesture 2250b, in some embodiments device 600 displays FIG. 22I instead of FIG. 22C. As a result, adjustable automatic visual property control 2254a causes device 600 to update one or more current values of one or more other visual properties (e.g., exposure and/or brightness values) and to display an adjusted representation (e.g., representation 2230d) based on the one or more updated current values.

図22Iに戻ると、デバイス600は、調整可能な自動視覚特性コントロール2254aに向けられたジェスチャ2250i(例えば、右向きドラッグ又はスワイプジェスチャ)を検出する。図22Jに示すように、ジェスチャ2250iを検出したことに応じて、デバイス600は、(例えば、図22Eにおいてジェスチャ2250d及び調整可能な輝度コントロール2254cに関連して上述したような同様の技術を使用して)デバイス600がジェスチャ2250iの接触を検出し続けている間に、調整可能な自動視覚特性コントロール2254aを強調する。図22Jでは、デバイス600は、ジェスチャ2250iのリフトオフ(例えば、接触の検出を停止する)を検出する。 Returning to FIG. 22I, the device 600 detects a gesture 2250i (e.g., a right-drag or swipe gesture) directed at the adjustable automatic visual characteristic control 2254a. As shown in FIG. 22J, in response to detecting the gesture 2250i, the device 600 highlights the adjustable automatic visual characteristic control 2254a while the device 600 continues to detect the touch of the gesture 2250i (e.g., using a similar technique as described above in FIG. 22E in connection with gesture 2250d and adjustable brightness control 2254c). In FIG. 22J, the device 600 detects a lift-off (e.g., stops detecting the touch) of the gesture 2250i.

図22Kに示すように、リフトオフのジェスチャ2250iを検出したことに応じて、デバイス600は、調整可能な自動視覚特性コントロール2254aを、強調することなく(例えば、図22Iにおいて強調なしで表示されるように)再表示し、ジェスチャ2250iの大きさ及び方向(例えば、スワイプの速さ、長さ)に基づいて、自動視覚特性コントロールインジケーション2254a1を、調整可能な自動視覚特性コントロール2254a上の新しい位置に動かす。図22Kでは、ジェスチャ2250iの大きさ及び方向により、デバイス600に、図22Iにおける自動視覚特性コントロールインジケーション2254a1の以前の位置よりも、調整可能な自動視覚特性コントロール2254aの最左端のティックマーク(例えば、自動視覚特性調整の最小値)により近い、調整可能な自動視覚特性コントロール2254a上の新しい位置に、自動視覚特性コントロールインジケーション2254a1を表示させる。自動視覚特性コントロールインジケーション2254a1を、調整可能な自動視覚特性コントロール2254a上の新しい位置に動かすことは、メディア編集ユーザインタフェースの中心に、自動視覚特性コントロールインジケーション2254a1の表示を維持している間に、調整可能な自動視覚特性コントロールのティックマークを右(例えば、ジェスチャ2250iの方向)に動かすことを含む。その結果、最左端のティックマークは、図22Iで表示されたところから、図22Kのメディア編集ユーザインタフェースの中心により近く表示されており、最左端のティックマークとメディア編集ユーザインタフェースの左縁部との間に追加の空間が残される。 22K, in response to detecting the lift-off gesture 2250i, the device 600 redisplays the adjustable automatic visual characteristic control 2254a without highlighting (e.g., as displayed without highlighting in FIG. 22I) and moves the automatic visual characteristic control indication 2254a1 to a new location on the adjustable automatic visual characteristic control 2254a based on the magnitude and direction of the gesture 2250i (e.g., swipe speed, length). In FIG. 22K, the magnitude and direction of the gesture 2250i cause the device 600 to display the automatic visual characteristic control indication 2254a1 in a new location on the adjustable automatic visual characteristic control 2254a that is closer to the leftmost tick mark (e.g., the minimum value of the automatic visual characteristic adjustment) of the adjustable automatic visual characteristic control 2254a than the previous location of the automatic visual characteristic control indication 2254a1 in FIG. 22I. Moving the automatic visual property control indication 2254a1 to a new location on the adjustable automatic visual property control 2254a includes moving the tick mark of the adjustable automatic visual property control to the right (e.g., in the direction of gesture 2250i) while maintaining the display of the automatic visual property control indication 2254a1 at the center of the media editing user interface. As a result, the leftmost tick mark is displayed closer to the center of the media editing user interface in FIG. 22K from where it was displayed in FIG. 22I, leaving additional space between the leftmost tick mark and the left edge of the media editing user interface.

自動視覚特性コントロールインジケーション2254a1を、調整可能な自動視覚特性コントロール2254a上の新しい位置に動かした後、デバイス600は、自動視覚特性コントロールインジケーション2254a1の位置に対応する更新された自動視覚特性調整値に対応するように、自動特性値インジケータ2244aを更新する。具体的には、デバイス600は、自動特性値インジケータ2244aを修正して、自動視覚特性編集ツールアフォーダンス2214aの周辺部をより少なく包含し、これは、より高い自動視覚特性調整値からより低い自動視覚特性調整値に対応する位置から動く自動視覚特性コントロールインジケーション2254a1をミラーリングする。更には、デバイス600は、これらのそれぞれのインジケータの周辺部をより少なく包含するように修正することによって、新しいより低い調整された露出及び輝度値に対応するように、露出値インジケータ2244b及び輝度値インジケータ2244cを更新し、これはまた、より高い自動視覚特性調整値からより低い自動視覚特性調整値に対応する位置から動く自動視覚特性コントロールインジケーション2254a1の移動をミラーリングする。いくつかの実施形態では、1つ以上の他の視覚特性の1つ以上の値に対応する1つ以上の値インジケータは、自動視覚特性コントロールインジケーション2254a1の移動の反対方向に、維持又は調整され得る。いくつかの実施形態では、1つ以上の視覚特性の値は、自動調整アルゴリズムに基づいて計算される。図22Kに示すように、ジェスチャ2250iのリフトオフを検出したことに応じて、デバイス600は、表現2230dの表示を、調整された表現2230eの表示に置き換え、表現2230eは、ジェスチャ2250iのリフトオフを検出したことに応じて調整された、更新された自動視覚特性調整値及び1つ以上の他の視覚特性値に基づいて、調整された表現2230dのバージョンである。 After moving the automatic visual property control indication 2254a1 to a new position on the adjustable automatic visual property control 2254a, the device 600 updates the automatic property value indicator 2244a to correspond to the updated automatic visual property adjustment value corresponding to the position of the automatic visual property control indication 2254a1. Specifically, the device 600 modifies the automatic property value indicator 2244a to encompass less of the periphery of the automatic visual property editing tool affordance 2214a, which mirrors the automatic visual property control indication 2254a1 moving from a position corresponding to a lower automatic visual property adjustment value to a higher automatic visual property adjustment value. Additionally, the device 600 updates the exposure value indicator 2244b and brightness value indicator 2244c to correspond to the new lower adjusted exposure and brightness values by modifying the periphery of these respective indicators to encompass less, which also mirrors the movement of the automatic visual characteristic control indication 2254a1 moving from a position corresponding to a higher to a lower automatic visual characteristic adjustment value. In some embodiments, one or more value indicators corresponding to one or more values of one or more other visual characteristics may be maintained or adjusted in the opposite direction to the movement of the automatic visual characteristic control indication 2254a1. In some embodiments, the values of the one or more visual characteristics are calculated based on an automatic adjustment algorithm. As shown in FIG. 22K, in response to detecting lift-off of gesture 2250i, device 600 replaces the display of representation 2230d with a display of adjusted representation 2230e, where representation 2230e is a version of adjusted representation 2230d based on the updated automatic visual property adjustment values and one or more other visual property values that have been adjusted in response to detecting lift-off of gesture 2250i.

図22Lに示すように、デバイス600は、視覚特性編集ツールアフォーダンス2214が配置されているエリアに向けられたジェスチャ2250l(例えば、ドラッグ又はスワイプジェスチャ)を検出する。ジェスチャ2250lを検出したことに応じて、図22Mに示すように、デバイス600は、デバイス600が、デバイス600のタッチ感知ディスプレイ上の接触を検出し続けている間に(例えば、指の接触がデバイス600のタッチ感知ディスプレイ上に残り続ける間に)、調整可能な自動視覚特性コントロール2254aを強調することをやめる。具体的には、デバイス600は、ティックマーク及び自動視覚特性コントロールインジケーション2254a1を含む、調整可能な自動視覚特性コントロール2254aのサイズを低減する。いくつかの実施形態では、調整可能な自動視覚特性コントロール2254aを強調することをやめることは、デバイス600のユーザを、特定の編集ツールアフォーダンスにナビゲートするのを助けるように試みる。いくつかの実施形態では、デバイス600は、調整可能な自動視覚特性コントロール2254aの部分(例えば、ティックマーク又は自動視覚特性コントロールインジケーション2254a1)の色(例えば、黒から灰色)を変更することにより、調整可能な自動視覚特性コントロール2254aを強調することをやめる。いくつかの実施形態では、デバイス600は、調整可能な自動視覚特性コントロール2254aをぼかすこと、又は焦点から外れて調整可能な自動視覚特性コントロール2254aを表示することにより、調整可能な自動視覚特性コントロール2254aを強調することをやめる。 As shown in FIG. 22L, the device 600 detects a gesture 2250l (e.g., a drag or swipe gesture) directed toward the area where the visual property edit tool affordance 2214 is located. In response to detecting the gesture 2250l, the device 600 de-emphasizes the adjustable automatic visual property control 2254a while the device 600 continues to detect a contact on the touch-sensitive display of the device 600 (e.g., while the finger contact continues to remain on the touch-sensitive display of the device 600), as shown in FIG. 22M. Specifically, the device 600 reduces the size of the adjustable automatic visual property control 2254a, including the tick mark and the automatic visual property control indication 2254a1. In some embodiments, de-emphasizing the adjustable automatic visual property control 2254a attempts to help the user of the device 600 navigate to a particular edit tool affordance. In some embodiments, the device 600 de-emphasizes the adjustable automatic visual characteristic control 2254a by changing the color (e.g., from black to gray) of a portion (e.g., a tick mark or an automatic visual characteristic control indication 2254a1) of the adjustable automatic visual characteristic control 2254a. In some embodiments, the device 600 de-emphasizes the adjustable automatic visual characteristic control 2254a by blurring the adjustable automatic visual characteristic control 2254a or by displaying the adjustable automatic visual characteristic control 2254a out of focus.

図22Mでは、デバイス600は、ジェスチャ2250lのリフトオフ(例えば、接触の検出を停止する)を検出する。図22Nに示すように、ジェスチャ2250lのリフトオフを検出したことに応じて、デバイス600は、調整可能な自動視覚特性コントロール2254aを強調することをやめるのを停止する。デバイス600は、図22Lに表示されたように、自動視覚特性コントロール2254aを再表示する。更には、ジェスチャ2250lを検出したことに応じて、デバイス600は、ジェスチャ2250lの大きさ及び方向(例えば、スワイプの速さ、長さ)に基づいて、視覚特性編集ツールアフォーダンス2214を左にシフトする。図22Nでは、ジェスチャ2250lの大きさ及び方向により、デバイス600に、視覚特性編集ツールアフォーダンス2214f~2214iを表示させ、視覚特性編集ツールアフォーダンス2214a~2214eを表示することを停止させる。特に、視覚特性編集ツールアフォーダンス2214f~2214iはまた、各それぞれのアフォーダンスの周りに値インジケータ2244f~2244iを含む。デバイス600は、デバイス600が自動視覚特性コントロールインジケーション2254a1を、調整可能な自動視覚特性コントロール2254a上の新しい位置に動かすことに応じて、図22J~図22Kにおいて調整された値インジケータ2244f~2244iを表示する。 In FIG. 22M, the device 600 detects lift-off of the gesture 2250l (e.g., stops detecting contact). As shown in FIG. 22N, in response to detecting lift-off of the gesture 2250l, the device 600 stops de-highlighting the adjustable automatic visual property control 2254a. The device 600 re-displays the automatic visual property control 2254a as displayed in FIG. 22L. Furthermore, in response to detecting the gesture 2250l, the device 600 shifts the visual property editing tool affordance 2214 to the left based on the magnitude and direction (e.g., swipe speed, length) of the gesture 2250l. In FIG. 22N, the magnitude and direction of the gesture 2250l cause the device 600 to display the visual property editing tool affordances 2214f-2214i and to stop displaying the visual property editing tool affordances 2214a-2214e. Notably, the visual property editing tool affordances 2214f-2214i also include value indicators 2244f-2244i around each respective affordance. The device 600 displays the adjusted value indicators 2244f-2244i in FIGS. 22J-22K in response to the device 600 moving the automatic visual property control indication 2254a1 to a new position on the adjustable automatic visual property control 2254a.

図22Nでは、デバイス600は、ビネット編集ツールアフォーダンス2214iに対応する位置でのタップジェスチャ2250nを検出する。図22Oに示すように、タップジェスチャ2250nを検出したことに応じて、デバイス600は、調整可能な自動視覚特性コントロール2254a及び自動視覚特性コントロールインジケーション2254a1の表示を、調整可能なビネットコントロール2254iの表示に置き換え、調整可能な自動視覚特性コントロール2254aを表示することを停止する。図22Oでは、デバイス600は、調整可能な輝度コントロール2254c及び輝度コントロールインジケーション2254c1の表示を、調整可能な自動視覚特性コントロール2254a及び自動視覚特性コントロールインジケーション2254a1の表示に置き換えることに関して図22Iにおいて上述したものと同様の技術を使用して、この置き換えを実行する。図22Oにおいて、デバイス600は、ビネットコントロールインジケーション2254i1を、調整可能なビネットコントロール2254iの中央に対応する位置に表示する。 In FIG. 22N, the device 600 detects a tap gesture 2250n at a location corresponding to the vignette edit tool affordance 2214i. As shown in FIG. 22O, in response to detecting the tap gesture 2250n, the device 600 replaces the display of the adjustable automatic visual property control 2254a and the automatic visual property control indication 2254a1 with a display of the adjustable vignette control 2254i and ceases displaying the adjustable automatic visual property control 2254a. In FIG. 22O, the device 600 performs this replacement using a technique similar to that described above in FIG. 22I with respect to replacing the display of the adjustable brightness control 2254c and the brightness control indication 2254c1 with a display of the adjustable automatic visual property control 2254a and the automatic visual property control indication 2254a1. In FIG. 22O, the device 600 displays the vignette control indication 2254i1 at a location corresponding to the center of the adjustable vignette control 2254i.

図22Oでは、デバイス600は、調整可能なビネットコントロール2254iに向けられたジェスチャ2250o(例えば、左向きドラッグ又はスワイプジェスチャ)を検出する。ジェスチャ2250oを検出したことに応じて、図22P~図22Qに示すように、デバイス600は、ビネットコントロールインジケーション2254i1を、調整可能なビネットコントロール2254i上の新しい位置に動かし、図22D~図22Fに関連して上述したようなものと類似の技術を使用して、調整された表現2230fを調整する。表現2230fは、調整可能なビネットコントロール2254i上のビネットコントロールインジケーション2254i1の新しい位置での値に対応する新しいビネット値に基づいて調整された。図22Qに示すように、表現2230fは、図22Pに関して表現2230eにおける犬の周りに表示されたビネット効果よりも、犬の周りに表示されたより顕著なビネット効果を含む。 In FIG. 22O, the device 600 detects a gesture 2250o (e.g., a left-direction drag or swipe gesture) directed at the adjustable vignette control 2254i. In response to detecting the gesture 2250o, as shown in FIG. 22P-Q, the device 600 moves the vignette control indication 2254i1 to a new position on the adjustable vignette control 2254i and adjusts the adjusted representation 2230f using techniques similar to those described above in connection with FIG. 22D-F. The representation 2230f has been adjusted based on a new vignette value that corresponds to the value of the vignette control indication 2254i1 at the new position on the adjustable vignette control 2254i. As shown in FIG. 22Q, the representation 2230f includes a more pronounced vignette effect displayed around the dog than the vignette effect displayed around the dog in the representation 2230e with respect to FIG. 22P.

図22Qに示すように、最右端のティックマーク又は最左端のティックマークは、(例えば、図22Fに表示されている最右端のティックマーク及び図22Kに表示されている最左端のティックマークとは対照的に)図22Qに表示されない。したがって、調整可能なビネットコントロール2254i上の新しい位置は、調整可能なビネットコントロール2254i上のビネットコントロールインジケーション2254i1の以前の位置(例えば、図22O~図22P)に近い。調整可能なビネットコントロール2254i上の新しい位置が、調整可能なビネットコントロール2254i上のビネットコントロールインジケーション2254i1の以前の位置(例えば、図22O~図22P)に比較的近いため、デバイス600は、調整可能なビネットコントロール2254i上のビネットコントロールインジケーション2254i1の以前の位置に、ビネットリセットインジケーション2252i2を表示する。図22Qでは、ビネットコントロールインジケーション2254i1の以前の位置は、デバイス600が自動視覚特性コントロールインジケーション2254a1を、調整可能な自動視覚特性コントロール2254a上の新しい位置に(ジェスチャ2250iの大きさ及び方向に基づいて)動かした後に計算された値に対応する。いくつかの実施形態では、調整可能な自動視覚特性コントロール2254a上の自動視覚特性コントロールインジケーション2254a1を調整することにより、調整可能なビネットコントロール2254i上のビネットリセットインジケーション2252i2の位置を変更することができる。いくつかの実施形態では、ビネットリセットインジケーション2252i2により、ユーザは、自動調整アルゴリズムに基づいて計算された視覚特性の値をリセットすることができる。いくつかの実施形態では、上述の調整可能なコントロール(例えば、調整可能な自動視覚特性コントロール2254a及び調整可能な輝度コントロール2254c)に関して、リセットインジケーションはまた、ジェスチャ2250d又は2250iを検出している間に表示される。しかしながら、ジェスチャ2250d又は2250iのリフトオフを検出した後に、上述のインジケーションが最左端又は最右端のティックマークに近い位置で終了したため、リセットインジケーションは、図22F及び図22Kには表示されない。 22Q, the rightmost tick mark or the leftmost tick mark is not displayed in FIG. 22Q (e.g., in contrast to the rightmost tick mark displayed in FIG. 22F and the leftmost tick mark displayed in FIG. 22K). Thus, the new position on the adjustable vignette control 2254i is close to the previous position (e.g., FIGS. 22O-22P) of the vignette control indication 2254i1 on the adjustable vignette control 2254i. Because the new position on the adjustable vignette control 2254i is relatively close to the previous position (e.g., FIGS. 22O-22P) of the vignette control indication 2254i1 on the adjustable vignette control 2254i, the device 600 displays the vignette reset indication 2252i2 at the previous position of the vignette control indication 2254i1 on the adjustable vignette control 2254i. In FIG. 22Q, the previous position of the vignette control indication 2254i1 corresponds to a value calculated after the device 600 moves the automatic visual characteristic control indication 2254a1 to a new position on the adjustable automatic visual characteristic control 2254a (based on the magnitude and direction of the gesture 2250i). In some embodiments, adjusting the automatic visual characteristic control indication 2254a1 on the adjustable automatic visual characteristic control 2254a can change the position of the vignette reset indication 2252i2 on the adjustable vignette control 2254i. In some embodiments, the vignette reset indication 2252i2 allows the user to reset the value of the visual characteristic calculated based on the automatic adjustment algorithm. In some embodiments, for the adjustable controls mentioned above (e.g., the adjustable automatic visual characteristic control 2254a and the adjustable brightness control 2254c), the reset indication is also displayed during detection of the gesture 2250d or 2250i. However, after detecting lift-off of gesture 2250d or 2250i, the reset indication is not displayed in Figures 22F and 22K because the indications described above ended near the leftmost or rightmost tick mark.

図22Qでは、デバイス600は、調整可能なビネットコントロール2254iに向けられたジェスチャ2250q(例えば、ジェスチャ2250oの反対方向のドラッグ又はスワイプジェスチャ)を検出する。図22Rに示すように、2250qの大きさ及び方向に基づいて、デバイス600は、ビネットリセットインジケーション2252i2が図22Qに表示された位置に、ビネットコントロールインジケーション2254i1を表示する。ビネットリセットインジケーション2252i2が表示された位置に、ビネットコントロールインジケーション2254i1が表示されると、デバイス600は、触覚出力2260aを発する。更には、ビネットコントロールインジケーション2254i1が、ビネットリセットインジケーション2252i2が図22Qで表示された位置(又は図22Oにおけるその初期位置)に表示されるため、デバイス600は、調整された表現2230e(ビネットコントロールインジケーション2254i1の現在の位置に対応する値に基づいて調整された)及びビネットコントロールインジケーション2244iを、22Oに当初表示されていたように再表示する。 In FIG. 22Q, device 600 detects gesture 2250q (e.g., a drag or swipe gesture in the opposite direction to gesture 2250o) directed at adjustable vignette control 2254i. Based on the magnitude and direction of 2250q, device 600 displays vignette control indication 2254i1 at the location where vignette reset indication 2252i2 was displayed in FIG. 22Q, as shown in FIG. 22R. When vignette control indication 2254i1 is displayed at the location where vignette reset indication 2252i2 was displayed, device 600 emits haptic output 2260a. Furthermore, because the vignette control indication 2254i1 is displayed at the position where the vignette reset indication 2252i2 was displayed in FIG. 22Q (or at its initial position in FIG. 22O), the device 600 redisplays the adjusted representation 2230e (adjusted based on the value corresponding to the current position of the vignette control indication 2254i1) and the vignette control indication 2244i as originally displayed in 22O.

図22Rでは、デバイス600は、フィルタ編集モードアフォーダンス2210cに対応する位置でのタップジェスチャ2250rを検出する。図22Sに示すように、タップジェスチャ2250rを検出したことに応じて、デバイス600は、視覚特性編集アフォーダンス2214を、フィルタ編集ツールアフォーダンス2216に置き換える。デバイス600はまた、フィルタ編集モードアフォーダンス2210cの下にモード選択インジケータ2202cを表示し、モード選択インジケータ2202cは、デバイス600が、視覚特性編集モードで動作するように構成されていることから、フィルタリング編集モードで動作するように構成されていることへと変化したことを示す。更には、タップジェスチャ2250rを検出したことに応じて、デバイス600は、ビネットコントロールインジケーション2254i1を表示することを停止する。更には、フィルタなし編集ツールアフォーダンス2216aが選択されている(例えば、「NONE」と示される)ため、デバイス600は、調整可能なコントロールを表示することを停止する。 In FIG. 22R, the device 600 detects a tap gesture 2250r at a location corresponding to the filter edit mode affordance 2210c. As shown in FIG. 22S, in response to detecting the tap gesture 2250r, the device 600 replaces the visual property edit affordance 2214 with the filter edit tool affordance 2216. The device 600 also displays a mode selection indicator 2202c below the filter edit mode affordance 2210c, which indicates that the device 600 has changed from being configured to operate in a visual property edit mode to being configured to operate in a filtering edit mode. Furthermore, in response to detecting the tap gesture 2250r, the device 600 stops displaying the vignette control indication 2254i1. Furthermore, because the no filter edit tool affordance 2216a has been selected (e.g., indicated as "NONE"), the device 600 stops displaying the adjustable controls.

図22Sでは、デバイス600は、ドラマチックフィルタ編集ツールアフォーダンス2216cに対応する位置でのタップジェスチャ2250sを検出する。図22Tに示すように、タップジェスチャ2250sを検出したことに応じて、デバイス600は、ドラマチックフィルタ編集ツールアフォーダンス2216cが選択されていることを示す(例えば、「NONE」を「DRAMATIC」に置き換える)。更には、デバイス600は、調整可能なドラマチックフィルタコントロール2256c及びドラマチックフィルタコントロールインジケーション2256c1を表示する。デバイス600は、調整可能なコントロール2254a、2254c、及び/又は2254iに関連して上述したような、調整可能なドラマチックフィルタコントロール2256c(及び他の調整可能なフィルタコントロール)に向けられた入力を検出したことに応じて、同様の技術を使用する。更には、タップジェスチャ2250sを検出したことに応じて、デバイス600は、表現2230gを表示し、ここで、図22Uの表現2230eは、調整可能なドラマチックフィルタコントロール2256c上のドラマチックフィルタコントロールインジケーション2256c1の初期位置に対応する値に基づいて調整された。 In FIG. 22S, device 600 detects tap gesture 2250s at a location corresponding to dramatic filter edit tool affordance 2216c. As shown in FIG. 22T, in response to detecting tap gesture 2250s, device 600 indicates that dramatic filter edit tool affordance 2216c is selected (e.g., replacing "NONE" with "DRAMATIC"). Additionally, device 600 displays adjustable dramatic filter control 2256c and dramatic filter control indication 2256c1. Device 600 uses similar techniques in response to detecting input directed at adjustable dramatic filter control 2256c (and other adjustable filter controls) as described above in connection with adjustable controls 2254a, 2254c, and/or 2254i. Further, in response to detecting tap gesture 2250s, device 600 displays representation 2230g, where representation 2230e of FIG. 22U has been adjusted based on a value corresponding to the initial position of dramatic filter control indication 2256c1 on adjustable dramatic filter control 2256c.

図22Tでは、デバイス600は、調整可能なドラマチックフィルタコントロール2256cに向けられたジェスチャ2250t(例えば、右向きドラッグ又はスワイプジェスチャ)を検出する。図22Uに示すように、ジェスチャ2250tを検出したことに応じて、デバイス600は、デバイス600がジェスチャ2250d、2250i、及び/又は2250oを検出したことに応じて、上述したものと同様の技術を実行する。デバイス600は、ジェスチャ2250tの大きさ及び方向(例えば、スワイプの速さ、長さ)に基づいて、ドラマチックフィルタコントロールインジケーション2256c1を、調整可能なドラマチックフィルタコントロール2256c上の新しい位置に動かす。ジェスチャ2250tの大きさ及び方向により、デバイス600に、図22Tにおける調整可能なドラマチックフィルタコントロール2256cの以前の位置よりも、調整可能なドラマチックフィルタコントロール2256cの最左端のティックマーク(例えば、最小値)により近い新しい位置に、フィルタコントロールインジケーション2256c1を表示させる。更には、デバイス600は、表現2230gの表示を、調整された表現2230hの表示に置き換え、ここで、表現2230gは、調整可能なドラマチックフィルタコントロール2256c上のフィルタコントロールインジケーション2256c1の新しい位置に対応する値に基づいて調整された。示すように、図22Uにおいて、デバイス600は、(例えば、図22Tにおける)ドラマチックフィルタコントロールインジケーション2256c1の以前の位置よりも、ドラマチックフィルタコントロールインジケーション2256c1の新しい位置がより低い値に関連付けられている(例えば、ドラマチックフィルタの最小値に対応する最左端のティックマークにより近い)ため、図22Tにおける表現2230gのドラマチックフィルタよりも、ドラマチックフィルタが少ない(例えば、水平線の数が少ない)表現2230hを表示する。更には、ドラマチックフィルタ編集ツールアフォーダンス2216cの周りには、値インジケータは表示されない。 In FIG. 22T, device 600 detects gesture 2250t (e.g., a rightward drag or swipe gesture) directed at adjustable dramatic filter control 2256c. As shown in FIG. 22U, in response to detecting gesture 2250t, device 600 performs techniques similar to those described above in response to device 600 detecting gestures 2250d, 2250i, and/or 2250o. Device 600 moves dramatic filter control indication 2256c1 to a new location on adjustable dramatic filter control 2256c based on the magnitude and direction (e.g., swipe speed, length) of gesture 2250t. The magnitude and direction of gesture 2250t cause device 600 to display filter control indication 2256c1 in a new location that is closer to the leftmost tick mark (e.g., the minimum value) of adjustable dramatic filter control 2256c than the previous location of adjustable dramatic filter control 2256c in FIG. 22T. Further, device 600 replaces the display of representation 2230g with a display of adjusted representation 2230h, where representation 2230g has been adjusted based on a value that corresponds to the new location of filter control indication 2256c1 on adjustable dramatic filter control 2256c. As shown, in FIG. 22U, device 600 displays representation 2230h with less dramatic filter (e.g., fewer horizontal lines) than the dramatic filter of representation 2230g in FIG. 22T because the new location of dramatic filter control indication 2256c1 is associated with a lower value (e.g., closer to the leftmost tick mark corresponding to the minimum value of the dramatic filter) than the previous location of dramatic filter control indication 2256c1 (e.g., in FIG. 22T). Furthermore, no value indicator is displayed around dramatic filter edit tool affordance 2216c.

図22Uでは、デバイス600は、フィルタなし編集ツールアフォーダンス2216aに対応する位置でのタップジェスチャ2250uを表示する。図22Vに示すように、タップジェスチャ2250uを検出したことに応じて、デバイス600は、フィルタなし編集ツールアフォーダンス2216aが選択されていることを示す(例えば、「DRAMATIC」を「NONE」に置き換える)。図22Sに関連して上述したように、フィルタなし編集ツールアフォーダンス2216aが選択されている(例えば、「NONE」と示される)ため、デバイス600は、調整可能なコントロールを表示することを停止する。加えて、デバイス600は、表現2230hの表示を、表現2230eの表示に置き換え、ここで、表現2230eは、任意のフィルタに基づいて調整されない(例えば、図22Vの表現2230eに表示されたフィルタを表す水平線がない)。したがって、表現2230eは、任意のフィルタを使用して、調整可能なフィルタコントロールを介して、表現2230eを調整する前に、図22Sに表示された表現と同じである。 In FIG. 22U, device 600 displays tap gesture 2250u at a location corresponding to no filter editing tool affordance 2216a. As shown in FIG. 22V, in response to detecting tap gesture 2250u, device 600 indicates that no filter editing tool affordance 2216a is selected (e.g., replaces "DRAMATIC" with "NONE"). As described above in connection with FIG. 22S, because no filter editing tool affordance 2216a is selected (e.g., indicated as "NONE"), device 600 ceases displaying the adjustable controls. In addition, device 600 replaces the display of representation 2230h with a display of representation 2230e, where representation 2230e is not adjusted based on any filter (e.g., there is no horizontal line representing a filter displayed in representation 2230e of FIG. 22V). Thus, representation 2230e is the same as the representation displayed in FIG. 22S prior to adjusting representation 2230e via the adjustable filter control using any filter.

図22Vでは、デバイス600は、ポートレートメディアモード編集アフォーダンス2210aに対応する位置でのタップジェスチャ2250vを検出する。図22Wに示すように、タップジェスチャ2250vを検出したことに応じて、デバイス600は、ポートレートメディア編集モードアフォーダンス2210aの下にモード選択インジケータ2202aを表示し、フィルタ編集モードアフォーダンス2210cの下のモード選択インジケータ2202cを表示することを停止する。モード選択インジケータ2202aによって示されるように、デバイス600は、ポートレート編集モードで動作するように構成され、これにより、デバイス600はまた、インジケータ領域602内にf値(例えば、数値)のインジケーションを(例えば、図8Hに開示されているのと同様の技術を使用して)提供する、f値インジケータ602eを表示する。更には、タップジェスチャ2250vを検出したことに応じて、デバイス600は、フィルタ編集ツールアフォーダンス2216を、ポートレートメディア編集ツールアフォーダンス2212に置き換える。いくつかの実施形態では、ポートレートメディア編集ツールアフォーダンス2212は、照明効果コントロール628に対応し;したがって、デバイス600は、照明効果コントロール628に関連して図6S~図6Uにおいて上述したものと同様の技術を使用して、ポートレートメディア編集ツールアフォーダンス2212に関連する機能を実行する。 In FIG. 22V, device 600 detects tap gesture 2250v at a location corresponding to portrait media mode edit affordance 2210a. As shown in FIG. 22W, in response to detecting tap gesture 2250v, device 600 displays mode selection indicator 2202a below portrait media edit mode affordance 2210a and stops displaying mode selection indicator 2202c below filter edit mode affordance 2210c. As indicated by mode selection indicator 2202a, device 600 is configured to operate in portrait edit mode, whereby device 600 also displays f-stop indicator 602e, which provides an indication of the f-stop (e.g., a numerical value) within indicator region 602 (e.g., using a technique similar to that disclosed in FIG. 8H). Furthermore, in response to detecting tap gesture 2250v, device 600 replaces filter edit tool affordance 2216 with portrait media edit tool affordance 2212. In some embodiments, the portrait media editing tool affordance 2212 corresponds to the lighting effects control 628; thus, the device 600 performs the functionality associated with the portrait media editing tool affordance 2212 using techniques similar to those described above in FIGS. 6S-6U in connection with the lighting effects control 628.

図22Wに示すように、デバイス600は、自然光編集ツールアフォーダンス2212aの上に照明選択インジケータ2212a1を示し、これは、自然光編集ツールアフォーダンス2212aが選択されていることを示す。図22Sで上述したようなフィルタなし編集ツールアフォーダンス2216aと同様に、自然光編集ツールアフォーダンス2212aが選択されているため、デバイス600は、表現2230eにおいて自然光を使用して動作するように構成される。換言すれば、調整可能な美白効果は、表現2230eを調整するために使用されないため、デバイス600は、(また、図6R~図6Qの照明効果コントロール628に関連して上述した)自然照明効果を調整するために調整可能に表示しない。図22Wでは、デバイス600は、ジェスチャ2250w(例えば、押圧ジェスチャ)を検出する。 As shown in FIG. 22W, device 600 displays lighting selection indicator 2212a1 over natural light editing tool affordance 2212a, indicating that natural light editing tool affordance 2212a is selected. Similar to no filter editing tool affordance 2216a as described above in FIG. 22S, because natural light editing tool affordance 2212a is selected, device 600 is configured to operate using natural light in representation 2230e. In other words, because an adjustable whitening effect is not used to adjust representation 2230e, device 600 does not display an adjustable for adjusting natural lighting effects (also described above in connection with lighting effects control 628 in FIGS. 6R-6Q). In FIG. 22W, device 600 detects gesture 2250w (e.g., a pressing gesture).

図22Xに示すように、デバイス600は、水平線で表示されているポートレートメディア編集ツールアフォーダンス2212の表示を、弓で表示されているポートレートメディア編集ツールアフォーダンス2212の表示に遷移させる。自然光編集ツールアフォーダンス2212aが選択されているため、自然光編集ツールアフォーダンス2212aは、弓の上部又は上部(例えば、メディア編集ユーザインタフェースの中央)に表示され、ポートレートメディア編集ツールアフォーダンス2212b~2212eは、自然光編集ツールアフォーダンス2212aの右にカスケードダウンして表示される。図22Xでは、デバイス600は、接触(例えば、タッチ感知ディスプレイとの指接触)の中断なしで、ジェスチャ2250wの移動を検出する。 As shown in FIG. 22X, device 600 transitions from displaying portrait media editing tool affordances 2212 displayed as a horizontal line to displaying portrait media editing tool affordances 2212 displayed as a bow. Because natural light editing tool affordance 2212a is selected, natural light editing tool affordance 2212a appears at or above the bow (e.g., in the center of the media editing user interface), and portrait media editing tool affordances 2212b-2212e appear cascaded down to the right of natural light editing tool affordance 2212a. In FIG. 22X, device 600 detects movement of gesture 2250w without interruption of contact (e.g., finger contact with a touch-sensitive display).

図22Yに示すように、ジェスチャ2250wの移動を検出しているデバイス600に応じて、デバイス600は、ポートレートメディア編集ツールアフォーダンス2212を左のある位置に動かす。ポートレートメディア編集ツールアフォーダンス2212を動かした後、スタジオ照明編集ツールアフォーダンス2212bは、弓の上部に表示され、自然光編集ツールアフォーダンス2212aは、スタジオ照明編集ツールアフォーダンス2212bの左に表示され、かつポートレートメディア編集ツールアフォーダンス2212c~2212eは、スタジオ照明編集ツールアフォーダンス2212bの右にカスケードダウンして表示される。特定の視覚特性編集ツールアフォーダンスが中心にあるかどうかに関係なく、タップジェスチャに基づいて選択された視覚特性編集ツールアフォーダンス2214とは対照的に、ポートレートメディア編集ツールアフォーダンス2212は、デバイス600がタップジェスチャを特定のメディア編集アフォーダンスに対応する位置で検出したかどうかにかかわらず、中心に選択される。いくつかの実施形態では、特定のポートレートメディア編集ツールアフォーダンスは、視覚特性編集ツールアフォーダンス2214を選択するための同様の技術を使用して、タップジェスチャを介して選択される。 22Y, in response to the device 600 detecting the movement of the gesture 2250w, the device 600 moves the portrait media editing tool affordance 2212 to a position to the left. After moving the portrait media editing tool affordance 2212, the studio lighting editing tool affordance 2212b is displayed at the top of the bow, the natural light editing tool affordance 2212a is displayed to the left of the studio lighting editing tool affordance 2212b, and the portrait media editing tool affordances 2212c-2212e are displayed cascading down to the right of the studio lighting editing tool affordance 2212b. In contrast to the visual property editing tool affordance 2214, which was selected based on a tap gesture regardless of whether the particular visual property editing tool affordance was in the center, the portrait media editing tool affordance 2212 is selected in the center regardless of whether the device 600 detected a tap gesture at a position corresponding to the particular media editing affordance. In some embodiments, a particular portrait media editing tool affordance is selected via a tap gesture, using similar techniques to select the visual property editing tool affordance 2214.

図22Yに示すように、デバイス600は、スタジオ照明編集ツールアフォーダンス2212bの上に照明選択インジケータ2212b1を表示し、これは、スタジオ照明編集ツールアフォーダンス2212bが選択されていることを示す。同時に、デバイス600は、自然光編集ツールアフォーダンス2212aの上に、照明選択インジケータ2212a1を表示することを停止する。スタジオ照明編集ツールアフォーダンス2212bが選択されているため、デバイス600は、スタジオ照明コントロールインジケーション2252b1を有する調整可能なスタジオ照明コントロール2252bを表示する。図22Wにおいて自然光編集ツールアフォーダンス2212aが選択された場合とは対照的に、スタジオ照明編集ツールアフォーダンス2212bであるため、デバイス600は、インジケータ領域602内に照明状態インジケータ602fを表示する。照明状態インジケータ602fは、メディアをキャプチャする際に使用/適用される照明効果の現在値のインジケーションを含む。照明状態インジケータ602fは、図6R~図6Uに関連して上述したものと同様の技術を使用して、以下の図で動作する。照明状態インジケータ602fは、充填されている(例えば、黒として示される)照明状態インジケータ602fを作り上げている9つの電球の約半分及び充填されていない(例えば、白として示される)9つの電球の半分で表示される。充填された9つの電球の半分を示すことは、ほぼ50%のスタジオ照明値に等しい位置で表示されているスタジオ照明コントロールインジケーション2252b1の位置に対応する。コントロール領域606において、デバイス600はまた、照明インジケータ2262aを表示し、これは、スタジオ照明編集ツールアフォーダンス2212bが表示されることを示す。照明インジケータ2262aが表示されるとき、デバイス600は、調整可能な照明コントロールを調整することに向けられたジェスチャを受信すると、照明値(例えば、スタジオ照明値)に基づいて、表現2230eを調整するように構成される。 As shown in FIG. 22Y, the device 600 displays a lighting selection indicator 2212b1 over the studio lighting edit tool affordance 2212b, indicating that the studio lighting edit tool affordance 2212b is selected. At the same time, the device 600 stops displaying the lighting selection indicator 2212a1 over the natural light edit tool affordance 2212a. Because the studio lighting edit tool affordance 2212b is selected, the device 600 displays an adjustable studio lighting control 2252b with a studio lighting control indication 2252b1. As opposed to the natural light edit tool affordance 2212a being selected in FIG. 22W, because it is the studio lighting edit tool affordance 2212b, the device 600 displays a lighting status indicator 602f in the indicator area 602. The lighting status indicator 602f includes an indication of the current value of the lighting effect to be used/applied in capturing the media. The light state indicator 602f operates in the following figures using techniques similar to those described above in connection with Figures 6R-6U. The light state indicator 602f is displayed with approximately half of the nine bulbs making up the light state indicator 602f filled (e.g., shown as black) and half of the nine bulbs unfilled (e.g., shown as white). Showing half of the nine bulbs filled corresponds to the position of the studio lighting control indication 2252b1 being displayed at a position approximately equal to a 50% studio lighting value. In the control area 606, the device 600 also displays a lighting indicator 2262a, which indicates that the studio lighting edit tool affordance 2212b is displayed. When the lighting indicator 2262a is displayed, the device 600 is configured to adjust the representation 2230e based on a lighting value (e.g., a studio lighting value) upon receiving a gesture directed to adjusting an adjustable lighting control.

図22Yでは、デバイス600は、ジェスチャ2250wのリフトオフを検出する。図22Zに示すように、ジェスチャ2250wのリフトオフを検出したことに応じて、デバイス600は、水平線におけるポートレートメディア編集ツールアフォーダンス2212の表示を、ポートレートメディア編集ツールアフォーダンス2212の表示に再表示する。図22Yでは、スタジオ照明編集ツールアフォーダンス2212bが選択されているため、スタジオ照明編集ツールアフォーダンス2212bは、メディア編集ユーザインタフェースの中心に表示される。更には、「STUDIO」は、スタジオ照明編集ツールアフォーダンス2212bが選択されていることを示すために表示される。いくつかの実施形態では、スタジオ照明編集ツールアフォーダンス2212bは、調整可能な照明効果コントロール666として同一の調整可能なコントロールであり、デバイス600は、上の図6S~図6Uで論じられたように、デバイス600を使用して、調整可能な照明効果コントロール666を介して機能を実行する、スタジオ照明編集ツールアフォーダンス2212bを介して、機能を実行するために同様の技術を使用する。 22Y, device 600 detects lift-off of gesture 2250w. As shown in FIG. 22Z, in response to detecting lift-off of gesture 2250w, device 600 redisplays the display of portrait media editing tool affordance 2212 at the horizon to the display of portrait media editing tool affordance 2212. In FIG. 22Y, studio lighting editing tool affordance 2212b is selected, so studio lighting editing tool affordance 2212b is displayed at the center of the media editing user interface. Furthermore, "STUDIO" is displayed to indicate that studio lighting editing tool affordance 2212b is selected. In some embodiments, studio lighting editing tool affordance 2212b is the same adjustable control as adjustable lighting effects control 666, and device 600 uses similar techniques to perform functions via studio lighting editing tool affordance 2212b using device 600 to perform functions via adjustable lighting effects control 666, as discussed in FIG. 6S-6U above.

図22Zでは、デバイス600は、調整可能なスタジオ照明コントロール2252bに向けられたジェスチャ2250z(例えば、左向きドラッグ又はフリックジェスチャ)を検出する。図22AAに示すように、ジェスチャ2250zを検出したことに応じて、デバイス600は、デバイス600がジェスチャ2250d、2250i、及び/又は2250oを検出したことに応じて、上述したものと同様の技術を実行する。図22AAに示すように、デバイス600は、スタジオ照明コントロールインジケーション2252b1を、調整可能なスタジオ照明コントロール2252b上の新しい位置(例えば、最右端のティックマーク)に動かす。新しい位置(例えば、最右端のティックマーク)は、スタジオ照明調整値の最大値に対応する。その結果、デバイス600は、表現2230iを表示し、ここで、表現2230eは、調整可能なスタジオ照明コントロール2252b上のスタジオ照明コントロールインジケーション2252b1の位置に対応する新しい値(例えば、最大スタジオ照明調整)に基づいて調整された。例えば、表現2230iは、表現2230eよりも犬を取り囲む光がより多い。更には、デバイス600はまた、その最大値に設定されている調整可能なスタジオ照明コントロール2252bに対応する、充填されている9つの電球全てを示すように、照明状態インジケータ602fを更新する。特に、デバイス600は、f値インジケータ602eに、値1.4を表示し続ける。図2AAでは、デバイス600は、f値インジケータ602eに対応する位置でのタップジェスチャ2250aaを検出する。図22ABに示すように、タップジェスチャ2250aaを検出したことに応じて、デバイス600は、調整可能なスタジオ照明コントロール2252b及びスタジオ照明コントロールインジケーション2252b1の表示を、調整可能なスタジオ照明深度コントロール2252bb及びスタジオ照明深度コントロールインジケーション2252bb1の表示に置き換える。図22ABでは、スタジオ照明深度コントロールインジケーション2252bb1は、調整可能なスタジオ照明深度コントロール2252bb上の、f値インジケータ602e(例えば、1.4)として表示された深度値に対応する位置に表示される。更には、デバイス600はまた、照明インジケータ2262aの表示を、深度インジケータ2262bの表示に置き換える。照明インジケータ2262aが表示されるとき、デバイス600は、調整可能な深度コントロールに向けられたジェスチャを受信すると、深度値(例えば、スタジオ照明深度値)に基づいて、表現2230iを調整するように構成される。 In FIG. 22Z, device 600 detects gesture 2250z (e.g., a left drag or flick gesture) directed at adjustable studio lighting control 2252b. As shown in FIG. 22AA, in response to detecting gesture 2250z, device 600 performs techniques similar to those described above in response to device 600 detecting gestures 2250d, 2250i, and/or 2250o. As shown in FIG. 22AA, device 600 moves studio lighting control indication 2252b1 to a new position (e.g., the rightmost tick mark) on adjustable studio lighting control 2252b. The new position (e.g., the rightmost tick mark) corresponds to the maximum value of the studio lighting adjustment value. As a result, device 600 displays representation 2230i, where representation 2230e has been adjusted based on the new value (e.g., maximum studio lighting adjustment) corresponding to the location of studio lighting control indication 2252b1 on adjustable studio lighting control 2252b. For example, representation 2230i has more light surrounding the dog than representation 2230e. Furthermore, device 600 also updates light status indicator 602f to show all nine bulbs filled, which correspond to adjustable studio lighting control 2252b set to its maximum value. In particular, device 600 continues to display a value of 1.4 in f-stop indicator 602e. In FIG. 2AA, device 600 detects tap gesture 2250aa at a location corresponding to f-stop indicator 602e. As shown in FIG. 22AB, in response to detecting the tap gesture 2250aa, the device 600 replaces the display of the adjustable studio lighting control 2252b and the studio lighting control indication 2252b1 with a display of the adjustable studio lighting depth control 2252bb and the studio lighting depth control indication 2252bb1. In FIG. 22AB, the studio lighting depth control indication 2252bb1 is displayed on the adjustable studio lighting depth control 2252bb at a position corresponding to the depth value displayed as the f-stop indicator 602e (e.g., 1.4). Furthermore, the device 600 also replaces the display of the lighting indicator 2262a with a display of the depth indicator 2262b. When the lighting indicator 2262a is displayed, the device 600 is configured to adjust the representation 2230i based on the depth value (e.g., the studio lighting depth value) upon receiving a gesture directed at the adjustable depth control.

図22ABでは、デバイス600は、調整可能なスタジオ照明深度コントロール2252bbに向けられたジェスチャ2250ab(例えば、左向きドラッグ又はフリックジェスチャ)を検出する。図22ACに示すように、ジェスチャ2250abを検出したことに応じて、デバイス600は、デバイス600がジェスチャ2250d、2250i、及び/又は2250oを検出したことに応じて、上述したものと同様の技術を実行する。図22ACに示すように、デバイス600は、スタジオ照明深度コントロールインジケーション2252bb1を、調整可能なスタジオ照明深度コントロール2252bb上の新しい位置(例えば、最右端のティックマークに向かって)に動かす。その結果、デバイス600は、表現2230jを表示し、ここで、図22ABの表現2230iは、調整可能なスタジオ照明深度コントロール2252bb上のスタジオ照明深度コントロールインジケーション2252bb1の位置に対応する新しい値に基づいて調整された。例えば、表現2230jは、表現2230iよりも視覚的により深度が高い(例えば、暗色化すされた木及びテーブル)。更には、デバイス600はまた、f値インジケータ602eを、スタジオ照明深度コントロールインジケーション2252bb1の位置に対応する新しい値(例えば、3.4)に更新する。特に、デバイス600は、図22ABに表示されたように、照明状態インジケータ602fを表示し続ける。図22ACでは、デバイス600は、完了アフォーダンス1036cに対応する位置でのタップジェスチャ2250acを検出する。図22ADに示すように、タップジェスチャ2250acを検出したことに応じて、デバイス600は、表現2230jとともにメディアビューワインタフェースを表示する。デバイス600は、表現2230jを保存することによって、以前に表示された表現2230aに作成された修正を保存する。図22AE~図22ALは、アニメーション化された画像メディア(例えば、図22AE~図22AH)及びビデオメディア(例えば、図22AI~図22AL)を編集するように構成されているデバイス600を示す。具体的には、図22AE~図22ALは、デバイス600がアニメーション化された画像メディア及びビデオ画像メディアを編集するように構成されるときに、メディア編集ユーザインタフェースが類似のユーザインタフェース要素を表示することを示す。 In FIG. 22AB, the device 600 detects a gesture 2250ab (e.g., a left-drag or flick gesture) directed at the adjustable studio lighting depth control 2252bb. As shown in FIG. 22AC, in response to detecting the gesture 2250ab, the device 600 performs a technique similar to that described above in response to the device 600 detecting gestures 2250d, 2250i, and/or 2250o. As shown in FIG. 22AC, the device 600 moves the studio lighting depth control indication 2252bb1 to a new position on the adjustable studio lighting depth control 2252bb (e.g., toward the right-most tick mark). As a result, the device 600 displays the representation 2230j, where the representation 2230i of FIG. 22AB has been adjusted based on a new value corresponding to the position of the studio lighting depth control indication 2252bb1 on the adjustable studio lighting depth control 2252bb. For example, representation 2230j has more visual depth (e.g., darkened trees and tables) than representation 2230i. Furthermore, device 600 also updates f-stop indicator 602e to a new value (e.g., 3.4) corresponding to the location of studio lighting depth control indication 2252bb1. In particular, device 600 continues to display light state indicator 602f as displayed in FIG. 22AB. In FIG. 22AC, device 600 detects tap gesture 2250ac at a location corresponding to completion affordance 1036c. As shown in FIG. 22AD, in response to detecting tap gesture 2250ac, device 600 displays a media viewer interface along with representation 2230j. Device 600 saves the modifications made to previously displayed representation 2230a by saving representation 2230j. 22AE-22AL illustrate device 600 configured to edit animated image media (e.g., FIGS. 22AE-22AH) and video media (e.g., FIGS. 22AI-22AL). In particular, FIGS. 22AE-22AL illustrate that when device 600 is configured to edit animated image media and video image media, the media editing user interface displays similar user interface elements.

図22AEに示すように、デバイス600は、キャプチャされたアニメーション化された画像メディアの表現2230kを表示する。表現2280kがアニメーション化された画像メディアの表現であるため、デバイス600は、アニメーション化された画像メディア編集モードアフォーダンス2210eを表示する。アニメーション化された画像メディア編集モードアフォーダンス2210eの下のモード選択インジケータ2202aによって示されるように、アニメーション化された画像メディア編集モードアフォーダンス2210eが選択されるため、デバイス600は、アニメーション化された画像メディアアフォーダンス2220を表示する。アニメーション化された画像メディアアフォーダンス2220は、アニメーション化された画像メディア内の異なる時間に対応するコンテンツのフレームのサムネイル表現(例えば、サムネイル表現2220k)を含む。図22AEでは、サムネイル表現2220kが選択されているため、サムネイル表現2220kは、表現2280kに対応し、ここで、表現2280kは、サムネイル表現2220kの拡大バージョンである。図22AEでは、デバイス600は、視覚特性編集モードアフォーダンス2210bに対応する位置でのタップジェスチャ2250aeを検出する。図22AFに示すように、タップジェスチャ2250aeを検出したことに応じて、デバイス600は、アニメーション化された画像メディア内の表現2280k(又はサムネイル表現2220k)の位置に対応する位置に、スクラバインジケーションコントロール2240aとともにスクラバ2240を表示する。更には、デバイス600は、アニメーション化された画像メディアアフォーダンス2220を、視覚特性編集ツールアフォーダンス2214に置き換え、視覚特性編集モードアフォーダンス2210bの下にモード選択インジケータ2202bを、図22Cに関連して論じられるものと同様の技術を使用して表示する。図22AFでは、デバイス600は、自動視覚特性編集ツールアフォーダンス2214aに対応する位置でのタップジェスチャ2250afを検出する。 As shown in FIG. 22AE, device 600 displays representation 2230k of the captured animated image media. Because representation 2280k is a representation of animated image media, device 600 displays animated image media edit mode affordance 2210e. Because animated image media edit mode affordance 2210e is selected, as indicated by mode selection indicator 2202a below animated image media edit mode affordance 2210e, device 600 displays animated image media affordance 2220. Animated image media affordance 2220 includes thumbnail representations (e.g., thumbnail representation 2220k) of frames of content corresponding to different times within the animated image media. In FIG. 22AE, because thumbnail representation 2220k is selected, thumbnail representation 2220k corresponds to representation 2280k, where representation 2280k is an enlarged version of thumbnail representation 2220k. In FIG. 22AE, the device 600 detects a tap gesture 2250ae at a location corresponding to the visual property editing mode affordance 2210b. As shown in FIG. 22AF, in response to detecting the tap gesture 2250ae, the device 600 displays the scrubber 2240 with the scrubber indication control 2240a at a location corresponding to the location of the representation 2280k (or thumbnail representation 2220k) in the animated image media. Furthermore, the device 600 replaces the animated image media affordance 2220 with the visual property editing tool affordance 2214 and displays the mode selection indicator 2202b below the visual property editing mode affordance 2210b using a technique similar to that discussed in connection with FIG. 22C. In FIG. 22AF, the device 600 detects a tap gesture 2250af at a location corresponding to the automatic visual property editing tool affordance 2214a.

図22AGでは、タップジェスチャ2250afを検出したことに応じて、デバイス600は、メディア編集ユーザインタフェースの中心に、(図22Iに示したように)自動視覚特性編集ツールアフォーダンス2214aを表示する。デバイス600は、調整可能な自動視覚特性コントロール2254a及び自動視覚特性コントロールインジケーション2254a1を更に表示する。更には、タップジェスチャ2250afを検出したことに応じて、デバイス600は、(例えば、露出値インジケータ2244bが周辺部露出編集ツールアフォーダンス2214bの周囲に表示されることによって示されるように)図22Iに関連して上述したようなものと類似の技術を使用して、他の視覚特性編集ツールアフォーダンス2214の1つ以上の現在値を調整する。更に、タップジェスチャ2250agを検出したことに応じて、デバイス600は、表現2280kを、表現2280lに置き換える。デバイス600は、視覚特性編集ツールアフォーダンス2214に対応する調整された現在値に基づいて、表現2280lを表示する。図22AGでは、デバイス600は、スクラバ2240に向けられたジェスチャ2250ag(例えば、右向きドラッグジェスチャ)を検出する。 In FIG. 22AG, in response to detecting the tap gesture 2250af, the device 600 displays the automatic visual property edit tool affordance 2214a (as shown in FIG. 22I) in the center of the media editing user interface. The device 600 further displays an adjustable automatic visual property control 2254a and an automatic visual property control indication 2254a1. Moreover, in response to detecting the tap gesture 2250af, the device 600 adjusts the current values of one or more of the other visual property edit tool affordances 2214 using techniques similar to those described above in connection with FIG. 22I (e.g., as indicated by the exposure value indicators 2244b being displayed around the peripheral exposure edit tool affordance 2214b). Moreover, in response to detecting the tap gesture 2250ag, the device 600 replaces the representation 2280k with the representation 2280l. The device 600 displays the representation 2280l based on the adjusted current value corresponding to the visual property editing tool affordance 2214. In FIG. 22AG, the device 600 detects a gesture 2250ag (e.g., a rightward drag gesture) directed toward the scrubber 2240.

図22AHに示すように、ジェスチャ2250agを検出したことに応じて、デバイス600は、スクラバインジケーションコントロール2240aを、スクラバ2240上の新しい位置に動かす。具体的には、デバイス600は、スクラバインジケーションコントロール2240aを、図22AGのスクラバインジケーションコントロール2240aの位置の右にある新しい位置に動かす。更に、ジェスチャ2250agを検出したことに応じて、デバイス600は、表現2280lを、表現2280lに置き換える。表現2280lは、スクラバ2240上のスクラバインジケーションコントロール2240aの新しい位置に対応する時点のアニメーション化された画像のうちの1つを示す。したがって、表現2280mは、図22AGにおいて表現2280lが対応するアニメーション化された画像メディア内の時間とは異なる、アニメーション化された画像メディア内の時間に対応する。図22AFに示すように、表現2280kを表示している間に、デバイス600が視覚特性編集ツールアフォーダンス2214の1つ以上の現在値を調整して、表現2280lを表示したが、表現2280mはまた、視覚特性編集ツールアフォーダンス2214の調整された1つ以上の現在値に基づいて調整された。したがって、アニメーション化された画像メディア内の特定の時点での表現のうちの1つを調整することはまた、アニメーション化された画像メディア内の異なる時点での他の表現を調整する。そのため、デバイス600が1つ以上の視覚特性に関連付けられた1つ以上の現在値を調整している間に、アニメーション化された画像メディアの表現が表示されない場合であっても、ユーザがスクラバ2240を使用して、1つ以上の現在値を調整した後の表現への変化を閲覧できる。 As shown in FIG. 22AH, in response to detecting gesture 2250ag, device 600 moves scrubbin indication control 2240a to a new position on scrubber 2240. Specifically, device 600 moves scrubbin indication control 2240a to a new position to the right of the position of scrubbin indication control 2240a in FIG. 22AG. Furthermore, in response to detecting gesture 2250ag, device 600 replaces representation 2280l with representation 2280l. Representation 2280l shows one of the animated images at a time corresponding to the new position of scrubbin indication control 2240a on scrubber 2240. Thus, representation 2280m corresponds to a time in the animated image media that is different from the time in the animated image media to which representation 2280l corresponds in FIG. 22AG. As shown in FIG. 22AF, while displaying representation 2280k, device 600 adjusted one or more current values of visual property editing tool affordance 2214 to display representation 2280l, while representation 2280m was also adjusted based on the adjusted one or more current values of visual property editing tool affordance 2214. Thus, adjusting one of the representations at a particular time in the animated image media also adjusts the other representation at a different time in the animated image media. Thus, even if a representation of the animated image media is not displayed while device 600 adjusts one or more current values associated with one or more visual properties, the user can use scrubber 2240 to view the changes to the representation after adjusting one or more current values.

上述のように、図22AI~図22ALは、ビデオメディアを編集するように構成されたデバイス600を示す。図22AIに示すように、デバイス600は、キャプチャされたビデオメディアの表現2282nを表示する。表現2282nがビデオメディアの表現であるため、デバイス600は、ビデオメディア編集モードアフォーダンス2210fを表示する。ビデオメディア編集モードアフォーダンス2210fの下のモード選択インジケータ2202aによって示されるように、アニメーション化された画像メディア編集モードアフォーダンス2210eが選択されるため、デバイス600は、ビデオメディアアフォーダンス2222を表示する。ビデオメディアアフォーダンス2222は、ビデオメディア内の異なる時間に対応するコンテンツのフレームのサムネイル表現(例えば、表現2222n)を含む。したがって、ビデオメディアアフォーダンス2222は、アニメーション化された画像メディアアフォーダンス2220と同様である。サムネイル表現2220nが選択されているため、サムネイル表現2220nは、サムネイル表現2220nの拡大バージョンである、表現2282nに対応する。図22AIでは、デバイス600は、視覚特性編集モードアフォーダンス2210bに対応する位置でのタップジェスチャ2250aiを検出する。 As discussed above, FIGS. 22AI-AL illustrate a device 600 configured to edit video media. As shown in FIG. 22AI, the device 600 displays a representation 2282n of the captured video media. Because representation 2282n is a representation of video media, the device 600 displays a video media editing mode affordance 2210f. Because animated image media editing mode affordance 2210e is selected, as indicated by mode selection indicator 2202a below video media editing mode affordance 2210f, the device 600 displays a video media affordance 2222. The video media affordance 2222 includes thumbnail representations (e.g., representations 2222n) of frames of content corresponding to different times within the video media. Thus, the video media affordance 2222 is similar to the animated image media affordance 2220. Because thumbnail representation 2220n is selected, thumbnail representation 2220n corresponds to representation 2282n, which is an enlarged version of thumbnail representation 2220n. In FIG. 22AI, device 600 detects tap gesture 2250ai at a location that corresponds to visual property edit mode affordance 2210b.

図22AJに示すように、タップジェスチャ2250aiを検出したことに応じて、デバイス600は、ビデオメディア内の表現2282n(又はサムネイル表現2220n)の位置に対応する位置に、スクラバインジケーションコントロール2240aとともにスクラバ2240を表示する。特に、デバイス600は、デバイスがビデオ編集モードで動作するように構成されるとき、及びデバイスがアニメーション化された画像メディアモードで動作するように構成される(例えば、図22AF)とき、スクラバ2240を表示する。図22AJでは、デバイス600は、輝度編集ツールアフォーダンス2214cに対応する位置でのタップジェスチャ2250ajを検出する。図22AKでは、タップジェスチャ2250ajを検出したことに応じて、デバイス600は、自動的に(追加のユーザ入力なしで)動き、図22Cにおいて上述のように、同様の技術を使用して、視覚特性編集ツールアフォーダンス2214a~2214cを左にスライドして、メディア編集ユーザインタフェースの水平中心に輝度編集ツールアフォーダンス2214cを表示する。デバイス600はまた、自動的に(追加のユーザ入力なしで)(例えば、調整可能な輝度コントロール2254cに向けられたジェスチャなしで)、調整可能な輝度コントロール2254c上の位置に輝度コントロールインジケーション2254c1を表示する。更に、タップジェスチャ2250ajを検出したことに応じて、デバイス600は、表現2282nを、表現2282oに置き換える。デバイス600は、(例えば、輝度コントロールインジケーション2254c1の位置に対応する)調整可能な輝度コントロール2254cの現在値に基づいて、表現2282oを表示する。図22AKでは、デバイス600は、スクラバ2240に向けられたジェスチャ2250ak(例えば、右向きドラッグジェスチャ)を検出する。 As shown in FIG. 22AJ, in response to detecting a tap gesture 2250ai, the device 600 displays a scrubber 2240 with a scrubber indication control 2240a at a location corresponding to the location of the representation 2282n (or thumbnail representation 2220n) in the video media. In particular, the device 600 displays the scrubber 2240 when the device is configured to operate in a video editing mode and when the device is configured to operate in an animated image media mode (e.g., FIG. 22AF). In FIG. 22AJ, the device 600 detects a tap gesture 2250aj at a location corresponding to the luminance editing tool affordance 2214c. In FIG. 22AK, in response to detecting the tap gesture 2250aj, the device 600 automatically (without further user input) moves to slide the visual property edit tool affordances 2214a-2214c to the left to display the brightness edit tool affordance 2214c at the horizontal center of the media editing user interface using a similar technique as described above in FIG. 22C. The device 600 also automatically (without further user input) displays the brightness control indication 2254c1 at a position above the adjustable brightness control 2254c (e.g., without a gesture directed at the adjustable brightness control 2254c). Furthermore, in response to detecting the tap gesture 2250aj, the device 600 replaces the representation 2282n with the representation 2282o. The device 600 displays the representation 2282o based on the current value of the adjustable brightness control 2254c (e.g., corresponding to the position of the brightness control indication 2254c1). In FIG. 22AK, the device 600 detects a gesture 2250ak (e.g., a rightward drag gesture) directed toward the scrubber 2240.

図22ALに示すように、ジェスチャ2250akを検出したことに応じて、デバイス600は、スクラバインジケーションコントロール2240aを、スクラバ2240上の新しい位置に動かす。具体的には、デバイス600は、スクラバインジケーションコントロール2240aを、図22AKのスクラバインジケーションコントロール2240aの位置の右にある新しい位置に動かす。更に、ジェスチャ2250akを検出したことに応じて、デバイス600は、表現2282oを、表現2282pに置き換える。表現2282pは、スクラバ2240上のスクラバインジケーションコントロール2240aの新しい位置に対応する時点のビデオメディアのフレームのうちの1つを示す。したがって、表現2282pは、図22AKにおいて表現2282oが対応するビデオメディア内の時間とは異なる、ビデオメディア内の時間に対応する。図22ALに示すように、表現2282nを表示している間に、デバイス600が現在の輝度値を調整して、表現2282oを表示したが、表現2282pはまた、調整された輝度値に基づいて調整された。したがって、(アニメーション化された画像メディアのように)ビデオメディア内の特定の時点での表現のうちの1つを調整することはまた、ビデオメディア内の異なる時間に対応する他の表現を調整する。特に、図22AKにおいて、デバイス600は、デバイス600の底縁部付近に、編集モードアフォーダンス2210、調整可能な輝度コントロール2254c、及び視覚特性編集ツールアフォーダンス2214を表示する。いくつかの実施形態では、デバイス600の底縁部付近に、これらのユーザインタフェース要素を表示することにより、これらのユーザインタフェース要素が、デバイス600の一部のユーザの親指が届く範囲(例えば、デバイスがその手のみで保持されているときのデバイスを保持している手の親指が届く範囲)内にあることができる。 As shown in FIG. 22AL, in response to detecting gesture 2250ak, device 600 moves scrubbin indication control 2240a to a new position on scrubber 2240. Specifically, device 600 moves scrubbin indication control 2240a to a new position to the right of the position of scrubbin indication control 2240a in FIG. 22AK. Furthermore, in response to detecting gesture 2250ak, device 600 replaces representation 2282o with representation 2282p. Representation 2282p shows one of the frames of the video media at a time corresponding to the new position of scrubbin indication control 2240a on scrubber 2240. Thus, representation 2282p corresponds to a time in the video media that is different from the time in the video media to which representation 2282o corresponds in FIG. 22AK. As shown in FIG. 22AL, while displaying representation 2282n, device 600 adjusted the current brightness value to display representation 2282o, while representation 2282p was also adjusted based on the adjusted brightness value. Thus, adjusting one of the representations at a particular time in the video media (such as animated image media) also adjusts the other representations corresponding to different times in the video media. In particular, in FIG. 22AK, device 600 displays edit mode affordance 2210, adjustable brightness control 2254c, and visual property editing tool affordance 2214 near the bottom edge of device 600. In some embodiments, displaying these user interface elements near the bottom edge of device 600 allows these user interface elements to be within reach of the thumbs of some users of device 600 (e.g., the thumb of the hand holding the device when the device is held in that hand alone).

図22ALでは、デバイス600は、デバイス600の時計回り回転を検出する。図22AMに示すように、時計回り回転2250alを検出したことに応じて、デバイス600は、縦向きのメディア編集ユーザインタフェースの表示を、横向きのメディア編集ユーザインタフェースの表示に遷移させる。図22AMに示すように、メディア編集ユーザインタフェースを横向きに表示するときに、デバイス600は、デバイス600の右縁部付近に、編集モードアフォーダンス2210、調整可能な輝度コントロール2254c、及び視覚特性編集ツールアフォーダンス2214を表示する。いくつかの実施形態では、メディアユーザインタフェースが横向きにある間に、デバイス600の右縁部付近に、これらのユーザインタフェース要素を表示することにより、メディア編集ユーザインタフェースを回転させるときに、デバイス600のいくらかのユーザの親指が届く範囲内に、ユーザ要素を維持する。 In FIG. 22AL, device 600 detects a clockwise rotation of device 600. As shown in FIG. 22AM, in response to detecting clockwise rotation 2250al, device 600 transitions from displaying a portrait media editing user interface to displaying a landscape media editing user interface. As shown in FIG. 22AM, when displaying the media editing user interface in landscape orientation, device 600 displays edit mode affordance 2210, adjustable brightness control 2254c, and visual property editing tool affordance 2214 near the right edge of device 600. In some embodiments, displaying these user interface elements near the right edge of device 600 while the media user interface is in landscape orientation keeps the user elements within reach of the thumbs of some users of device 600 when rotating the media editing user interface.

図23A~図23Bは、いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。方法2300は、表示デバイス(例えば、タッチ感知ディスプレイ;112)を備えたデバイス(例えば、100、300、500、600)で実行される。方法2300のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 23A-23B are flow diagrams illustrating a method for editing media captured using an electronic device, according to some embodiments. Method 2300 is performed on a device (e.g., 100, 300, 500, 600) with a display device (e.g., touch-sensitive display; 112). Some operations of method 2300 are optionally combined, the order of some operations is optionally changed, and some operations are optionally omitted.

いくつかの実施形態では、電子デバイス(例えば、600)は、コンピュータシステムである。コンピュータシステムは、任意選択的に、ディスプレイ生成構成要素と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the electronic device (e.g., 600) is a computer system. The computer system is optionally in communication (e.g., wired communication, wireless communication) with a display generation component and with one or more input devices. The display generation component is configured to provide visual output, such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. The one or more input devices are configured to receive input, such as a touch-sensitive surface that receives user input. In some embodiments, the one or more input devices are integrated with the computer system. In some embodiments, the one or more input devices are separate from the computer system. Thus, the computer system can transmit data (e.g., image data or video data) via a wired or wireless connection to an integrated or external display generation component to visually generate content (e.g., using a display device) and can receive wired or wireless connection input from one or more input devices.

後述するように、方法2300は、キャプチャされたメディアを編集するための直感的な仕方を提供する。この方法は、メディアを編集する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアを編集することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, the method 2300 provides an intuitive way to edit captured media. The method reduces the cognitive burden on the user when editing media, thereby creating a more efficient human-machine interface. For battery-operated computing devices, enabling users to edit media more quickly and efficiently conserves power and extends the time between battery charges.

電子デバイス(例えば、600)は、表示デバイスを介して、視覚メディア(例えば、画像、ビデオのフレーム)の表現(例えば、2230a~2230p)と、視覚メディアの表現(例えば、2230a~p)を編集する第1の編集可能パラメータ(例えば、メディア編集パラメータ(例えば、2214)(例えば、自動(例えば、2214a)、露出(例えば、2214b)、ブリリアンス、ハイライト、影、コントラスト、輝度(例えば、2214c)、ブラックポイント、彩度、自然な彩度、温度、色合い、鮮明度、明瞭度、ノイズ低減、ビネット、色、白黒、照明パラメータ(例えば、2212)(例えば、自然光、スタジオ光、輪郭光、舞台光、モノ舞台光)、フィルタリング(例えば、2216)パラメータ(例えば、オリジナル(例えば、2216a)、ビビッド、ビビッドウォーム、ビビッドクール、ドラマチック(例えば、2216c)、ドラマチックウォーム、ドラマチッククール、モノ、シルバートーン、ノワール)、クロッピングパラメータ(例えば、2218)、補正パラメータ(例えば、水平視点補正、垂直視点補正、水平線補正)))に対応する(例えば、表す、示す、制御する)第1のアフォーダンス(例えば、2210~2216、2252~2256)と、視覚メディアの表現(例えば、2230a~2230p)を編集する第2の編集可能パラメータ(例えば、メディア編集パラメータ(例えば、2214)(例えば、自動(例えば、2214a)、露出(例えば、2214b)、ブリリアンス、ハイライト、影、コントラスト、輝度(例えば、2214c)、ブラックポイント、彩度、自然な彩度、温度、色合い、鮮明度、明瞭度、ノイズ低減、ビネット、色、白黒、照明パラメータ(例えば、2212)(例えば、自然光、スタジオ光、輪郭光、舞台光、モノ舞台光)、フィルタリング(例えば、2216)パラメータ(例えば、オリジナル(例えば、2216a)、ビビッド、ビビッドウォーム、ビビッドクール、ドラマチック(例えば、2216c)、ドラマチックウォーム、ドラマチッククール、モノ、シルバートーン、ノワール)、クロッピングパラメータ(例えば、2218)、補正パラメータ(例えば、水平視点補正、垂直視点補正、水平線補正)))に対応する(例えば、表す、示す、制御する、一部である)第2のアフォーダンス(例えば、2210~2216)と、を含む、メディア(例えば、画像、ビデオ)編集ユーザインタフェースを表示する(2302)。 The electronic device (e.g., 600) displays, via a display device, a representation (e.g., 2230a-2230p) of visual media (e.g., an image, a frame of video) and a first set of editable parameters (e.g., media editing parameters (e.g., 2214) (e.g., auto (e.g., 2214a), exposure (e.g., 2214b), brilliance, highlights, shadows, contrast, brightness (e.g., 2214c), black point, saturation, vibrance, temperature, tint, sharpness, clarity, noise reduction, vignette, color, black and white, lighting parameters, etc.) for editing the representation (e.g., 2230a-p) of the visual media. a first affordance (e.g., 2210-2213) corresponding to (e.g., representing, indicating, controlling) a first affordance (e.g., 2212) (e.g., natural light, studio light, contour light, stage light, mono stage light), filtering (e.g., 2216) parameters (e.g., original (e.g., 2216a), vivid, vivid warm, vivid cool, dramatic (e.g., 2216c), dramatic warm, dramatic cool, mono, silver tone, noir), cropping parameters (e.g., 2218), correction parameters (e.g., horizontal perspective correction, vertical perspective correction, horizon correction)). 6, 2252-2256), and second editable parameters for editing the representation of the visual media (e.g., 2230a-2230p) (e.g., media editing parameters (e.g., 2214) (e.g., auto (e.g., 2214a), exposure (e.g., 2214b), brilliance, highlights, shadows, contrast, brightness (e.g., 2214c), black point, saturation, vibrance, temperature, tint, sharpness, clarity, noise reduction, vignette, color, black and white, lighting parameters (e.g., 2212) (e.g., natural light, studio light, edge light, stage light, mono stage light), filtering (e.g., 2220), and the like. 16) Displaying a media (e.g., image, video) editing user interface (2302) including second affordances (e.g., 2210-2216) corresponding to (e.g., representing, indicating, controlling, being a part of) parameters (e.g., original (e.g., 2216a), vivid, vivid warm, vivid cool, dramatic (e.g., 2216c), dramatic warm, dramatic cool, mono, silver tone, noir), cropping parameters (e.g., 2218), correction parameters (e.g., horizontal perspective correction, vertical perspective correction, horizon correction)).

メディア編集ユーザインタフェースを表示している間に、電子デバイスは、第1のアフォーダンス(例えば、2250c、2250h)の選択に対応する第1のユーザ入力(例えば、アフォーダンス上のタップ入力)を検出する(2304)。 While displaying the media editing user interface, the electronic device detects (2304) a first user input (e.g., a tap input on the affordance) corresponding to a selection of a first affordance (e.g., 2250c, 2250h).

いくつかの実施形態では、第1のユーザ入力(例えば、2250c、2250h、2250n)は、第1のアフォーダンス(2214a、2214c、2214n)上のタップ入力である。 In some embodiments, the first user input (e.g., 2250c, 2250h, 2250n) is a tap input on the first affordance (2214a, 2214c, 2214n).

第1のアフォーダンスの選択に対応する第1のユーザ入力を検出したことに応じて、電子デバイスは、表示デバイス上に、メディア編集ユーザインタフェース内のそれぞれの位置(例えば、第1及び第2のアフォーダンスに隣接する位置(第1及び第2のアフォーダンスの下の位置))に、第1の編集可能パラメータを調整する調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)(例えば、グラフィカル制御要素(例えば、スライダ))を表示する(2306)。いくつかの実施形態では、調整可能なコントロールは、第1及び第2のアフォーダンスから、又は表示デバイスの左側/右側からそれぞれの位置にスライドする(例えば、図22C~図22D)。 In response to detecting a first user input corresponding to a selection of the first affordance, the electronic device displays (2306) on the display device adjustable controls (e.g., 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) (e.g., graphical control elements (e.g., sliders)) for adjusting the first editable parameter at respective positions (e.g., adjacent to (below) the first and second affordances) in the media editing user interface. In some embodiments, the adjustable controls slide from the first and second affordances or from the left/right sides of the display device to their respective positions (e.g., FIGS. 22C-22D).

第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、かつ第1の編集可能パラメータが選択されている間に(例えば、2204)(例えば、図22C~図22D)(例えば、メディアユーザインタフェースの中央の中心に押圧されて表示されるか、又は異なる色(例えば、グレーアウトされていない)で表示される)、電子デバイスは、第1の編集可能パラメータを調整する調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)に向けられた第1のジェスチャ(例えば、2250d、2250i、2250o、2250t、2250z、2250ab)(例えば、ドラッグジェスチャ(例えば、調整可能なコントロール上のある対応する位置(例えば、ティックマーク)から調整可能なコントロール上の別の対応する位置へとインジケーション(例えば、スライダバー)をドラッグする))を検出する(2308)。いくつかの実施形態では、複数の条件が満たされていると、複数のアフォーダンスが表示される。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプション(例えば、スライダ)を提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 While displaying an adjustable control for adjusting a first editable parameter and while the first editable parameter is selected (e.g., 2204) (e.g., FIGS. 22C-22D) (e.g., displayed centered in the middle of the media user interface or displayed in a different color (e.g., not grayed out)), the electronic device detects (2308) a first gesture (e.g., 2250d, 2250i, 2250o, 2250t, 2250z, 2250ab) (e.g., a drag gesture (e.g., dragging an indication (e.g., a slider bar) from one corresponding location (e.g., a tick mark) on the adjustable control to another corresponding location on the adjustable control)) directed at the adjustable control (e.g., 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) that adjusts the first editable parameter. In some embodiments, multiple affordances are displayed when multiple conditions are met. Providing additional control options (e.g., sliders) without cluttering the UI with additional controls displayed enhances usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs and reducing user errors when operating/interacting with the device), and also reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)に向けられた第1のジェスチャ(例えば、2250d、2250i、2250o、2250t、2250z、2250ab)を検出したことに応じて(2310)、電子デバイスは、第1のジェスチャに従って(例えば、第1のジェスチャの大きさに従って)第1の編集可能パラメータの現在値を調整する(例えば、新しい位置でスライダ上にスライダバー表示する)(例えば、図22E~図22F)(2312)。 In response to detecting a first gesture (e.g., 2250d, 2250i, 2250o, 2250t, 2250z, 2250ab) directed at an adjustable control (e.g., 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) that adjusts the first editable parameter while the first editable parameter is selected (2310), the electronic device adjusts the current value of the first editable parameter according to the first gesture (e.g., according to the magnitude of the first gesture) (e.g., displaying a slider bar on the slider at a new position) (e.g., Figures 22E-22F) (2312).

いくつかの実施形態では、第1の編集可能パラメータが選択されている間に(2204a、2204c、2204i)、第1の編集可能パラメータを調整する調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)に向けられた第1のジェスチャ(例えば、2250d、2250i、2250o、2250t、2250z、2250ab)を検出したことに応じて(2310)、電子デバイスは、視覚メディアの表現の表示を、第1の編集可能パラメータの調整された現在値に基づいて調整される視覚メディアの調整された表現(例えば、2230b、2230e)に置き換える(2314)(例えば、編集可能パラメータがコントラストである場合、(例えば、第1のジェスチャの大きさによって現在調整された)第1の編集可能パラメータの現在値に基づいて調整される表現は、最初に表示される視覚メディアの表現よりも、より多くの又は少ないコントラストを有する)。調整可能なコントロールの値を変更したことに応じて、調整された表現を表示することによって、キャプチャされたメディアの表現に対するパラメータの現在の効果についてのフィードバックをユーザに提供し、ユーザが調整を受け入れると決定する場合に、調整可能なコントロールに関連付けられた動作が実行されることを示す視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, in response to detecting (2310) a first gesture (e.g., 2250d, 2250i, 2250o, 2250t, 2250z, 2250ab) directed toward an adjustable control (e.g., 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) that adjusts the first editable parameter while the first editable parameter is selected (2204a, 2204c, 2204i), the electronic device replaces (2314) the display of the representation of the visual media with an adjusted representation (e.g., 2230b, 2230e) of the visual media that is adjusted based on the current adjusted value of the first editable parameter (e.g., if the editable parameter is contrast, the representation that is adjusted based on the current value of the first editable parameter (e.g., currently adjusted by the magnitude of the first gesture) has more or less contrast than the representation of the visual media originally displayed). In response to changing the value of the adjustable control, feedback is provided to the user as to the current effect of the parameter on the representation of the captured media by displaying the adjusted representation, and if the user decides to accept the adjustment, visual feedback is provided to the user indicating that an action associated with the adjustable control will be performed. Providing the user with improved visual feedback enhances usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1の編集可能パラメータは、自動調整編集可能パラメータである(例えば、電子デバイスが自動調整アフォーダンス(例えば、第1の編集可能パラメータアフォーダンス(例えば、2214a))の選択、又は自動調整編集可能パラメータを調整する調整可能なコントロール(例えば、2254a)の値の変化を検出するとき、電子デバイスは、他の編集可能(edible)パラメータ(例えば、コントラスト、色合い、彩度)の値を計算し、他の編集可能パラメータの現在値を自動的に更新する)(例えば、22H~22K)。いくつかの実施形態では、電子デバイスが第1のジェスチャに従って第1の編集可能パラメータの現在値を調整することは、第2の編集可能パラメータ(例えば、図22H~図22Kの2244a、2244b、2244c)を含む複数の編集可能パラメータの現在値を調整することを含む。操作を実行するために必要な入力の数(例えば、画像の複数の編集可能パラメータを調整する)が減ることにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the first editable parameter is an auto-adjusting editable parameter (e.g., when the electronic device detects a selection of an auto-adjusting affordance (e.g., a first editable parameter affordance (e.g., 2214a)) or a change in the value of an adjustable control (e.g., 2254a) that adjusts the auto-adjusting editable parameter, the electronic device calculates values of other editable parameters (e.g., contrast, hue, saturation) and automatically updates the current values of the other editable parameters) (e.g., 22H-22K). In some embodiments, the electronic device adjusting the current value of the first editable parameter in accordance with the first gesture includes adjusting current values of multiple editable parameters including the second editable parameter (e.g., 2244a, 2244b, 2244c of FIGS. 22H-22K). Reducing the number of inputs required to perform an operation (e.g., adjusting multiple editable parameters of an image) enhances usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、メディア編集ユーザインタフェースは、複数の編集可能パラメータ現在値インジケータ(例えば、2244a~2244i)(例えば、パラメータの値に基づいて更新される編集可能パラメータに対応するアフォーダンスの周囲のグラフィカル境界)を含み、複数の編集可能パラメータ現在値インジケータは、視覚メディアの表現の第2の編集可能パラメータに対応する値インジケータ(例えば、第2の編集可能パラメータに対応する値インジケータは、選択されると、第2の編集可能パラメータを調整するコントロールを表示するアフォーダンスの一部として、又はアフォーダンスに隣接して表示される)と、視覚メディアの表現の第3の編集可能パラメータに対応する値インジケータ(例えば、第3の編集可能パラメータに対応する値インジケータは、選択されると、第2の編集可能パラメータを調整するコントロールを表示するアフォーダンスの一部として、又はアフォーダンスに隣接して表示される)と、を含む。いくつかの実施形態では、電子デバイスが複数の編集可能パラメータの現在値を調整することは、電子デバイスが第3の編集可能パラメータの現在値を調整することと、第2の編集可能パラメータの調整された現在値に基づいて、第2の編集可能パラメータ(例えば、図22H~図22Kの2244a、2244b、2244c)に対応する値インジケータを更新することと、第3の編集可能パラメータの調整された現在値に基づいて、第3の編集可能パラメータ(例えば、図22H~図22Kの2244a、2244b、2244c)に対応する値インジケータを更新することと、を含む。いくつかの実施形態では、現在値インジケータは、アフォーダンスの周囲にある(例えば、第1の進度インジケータは、第1のアフォーダンスの周囲にあり、第2の進度インジケータは、第2のアフォーダンスの周囲にある)。いくつかの実施形態では、第1の編集可能パラメータのアフォーダンスの一部として、又はアフォーダンスに隣接して表示される第1の編集可能パラメータの調整された現在値に基づいて更新される第1の編集可能パラメータに対応する値インジケータが存在する。(例えば、図22K)。編集可能パラメータが更新される(又は変化する)ときに値インジケータを提供することにより、ユーザは、調整可能な表現を表示するように変化した編集可能パラメータの現在値を判定することができる。更には、自動調整アルゴリズムにおける変化に基づいて値インジケータを自動的に更新することにより、ユーザは、自動調整アルゴリズムが特定の編集可能パラメータの特定の値をどのように変化したかを迅速に判定することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the media editing user interface includes a plurality of editable parameter current value indicators (e.g., 2244a-2244i) (e.g., graphical boundaries around affordances corresponding to editable parameters that are updated based on the values of the parameters), including a value indicator corresponding to a second editable parameter of the visual media representation (e.g., the value indicator corresponding to the second editable parameter is displayed as part of or adjacent to an affordance that, when selected, displays a control for adjusting the second editable parameter) and a value indicator corresponding to a third editable parameter of the visual media representation (e.g., the value indicator corresponding to the third editable parameter is displayed as part of or adjacent to an affordance that, when selected, displays a control for adjusting the second editable parameter). In some embodiments, the electronic device adjusting the current values of the plurality of editable parameters includes the electronic device adjusting the current value of a third editable parameter, updating a value indicator corresponding to the second editable parameter (e.g., 2244a, 2244b, 2244c in FIGS. 22H-K) based on the adjusted current value of the second editable parameter, and updating a value indicator corresponding to the third editable parameter (e.g., 2244a, 2244b, 2244c in FIGS. 22H-K) based on the adjusted current value of the third editable parameter. In some embodiments, the current value indicators are at the periphery of the affordance (e.g., the first progress indicator is at the periphery of the first affordance and the second progress indicator is at the periphery of the second affordance). In some embodiments, there is a value indicator corresponding to the first editable parameter that is updated based on the adjusted current value of the first editable parameter displayed as part of or adjacent to the affordance of the first editable parameter. (e.g., FIG. 22K). By providing a value indicator when an editable parameter is updated (or changed), a user can determine the current value of the editable parameter that has changed to display the adjustable representation. Moreover, by automatically updating the value indicator based on changes in the auto-tuning algorithm, a user can quickly determine how the auto-tuning algorithm has changed a particular value of a particular editable parameter. Providing improved visual feedback to the user can improve usability of the device and provide a more efficient user-device interface (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), which in turn can reduce the device's power usage and improve battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出している間に、電子デバイスは、第1の編集可能パラメータを調整する調整可能なコントロール(例えば、図22E、図22J、図22Pの2254a、2254c、及び2254i)を視覚的に強調する(例えば、グレーアウトされていないものとして表示する、調整可能な入力コントロールが焦点が合って表示されている間に、焦点から外れているものとしてユーザインタフェースの一部を表示する、異なる色又は拡大として表示する)。いくつかの実施形態では、電子デバイスは、第1のジェスチャ(例えば、2250d、2250i、2250o)のリフトオフを検出するまでに、調整可能なコントロールを視覚的に強調する。入力を調整可能なコントロールに提供している間に調整可能なコントロールを強調することにより、ユーザは、動作の現在の状態が調整可能なコントロールに影響を与えることを判定することができ、かつユーザが調整可能なコントロールの値を正確に設定する変更を増加させることによって、ユーザが調整可能なコントロールを特定の値に設定することによって、誤りを低減する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, while detecting a first gesture directed at an adjustable control that adjusts a first editable parameter, the electronic device visually highlights (e.g., 2254a, 2254c, and 2254i in FIG. 22E, FIG. 22J, FIG. 22P) the adjustable control that adjusts the first editable parameter (e.g., displaying as not grayed out, displaying a portion of the user interface as out of focus while the adjustable input control is displayed in focus, displaying as a different color or enlarged). In some embodiments, the electronic device visually highlights the adjustable control until it detects lift-off of the first gesture (e.g., 2250d, 2250i, 2250o). Highlighting the adjustable control while providing input to the adjustable control allows the user to determine that the current state of the operation affects the adjustable control, and reduces errors by the user setting the adjustable control to a particular value by increasing the change that the user makes to accurately set the value of the adjustable control. Providing improved visual feedback to the user improves usability of the device and makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1の編集可能パラメータは、視覚フィルタ効果強度(例えば、フィルタ効果の強度(例えば、クール、ビビッド、ドラマチック))(例えば、図22T~図22Vの2216a~2216d)である。いくつかの実施形態では、電子デバイスが第1のジェスチャに従って第1の編集可能パラメータの現在値を調整することは、電子デバイスが視覚メディアの表現(例えば、2230g及び2230h)の表示を、視覚フィルタ効果強度の現在値に基づいて調整された視覚メディアの表現(例えば、フィルタされた表現)に置き換えることを更に含む。 In some embodiments, the first editable parameter is a visual filter effect intensity (e.g., the intensity of the filter effect (e.g., cool, vivid, dramatic)) (e.g., 2216a-2216d in Figures 22T-22V). In some embodiments, the electronic device adjusting the current value of the first editable parameter in accordance with the first gesture further includes the electronic device replacing a display of the representation of the visual media (e.g., 2230g and 2230h) with a representation of the visual media (e.g., a filtered representation) that has been adjusted based on the current value of the visual filter effect intensity.

いくつかの実施形態では、アスペクト比アフォーダンス(例えば、上部のボタン)は、スライダを有する。いくつかの実施形態では、電子デバイスは、ユーザインタフェース要素(例えば、スライダ及びオプション)を、親指が届くように異なるデバイス上で異なるように表示する。いくつかの実施形態では、視覚メディアのフレームとアニメーション化された画像メディアとの間をナビゲーションするキーフレームは、同じである。 In some embodiments, the aspect ratio affordance (e.g., a button at the top) has a slider. In some embodiments, the electronic device displays user interface elements (e.g., sliders and options) differently on different devices for thumb reach. In some embodiments, the keyframes for navigating between frames of visual media and animated image media are the same.

表示デバイス上に、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、電子デバイスは、第2のアフォーダンス(例えば、2250c、2250h)(例えば、図22N)の選択に対応する第2のユーザ入力(例えば、アフォーダンス上のタップ入力)を検出する(2316)。 While displaying on the display device an adjustable control for adjusting the first editable parameter, the electronic device detects (2316) a second user input (e.g., a tap input on the affordance) corresponding to selection of a second affordance (e.g., 2250c, 2250h) (e.g., FIG. 22N).

いくつかの実施形態では、第2のユーザ入力は、第2のアフォーダンス(2214a、2214c、2214n)上のタップ入力(例えば、2250c、2250h、2250n)である。 In some embodiments, the second user input is a tap input (e.g., 2250c, 2250h, 2250n) on the second affordance (2214a, 2214c, 2214n).

第2のアフォーダンス(2214a、2214c、2214n)の選択に対応する第2のユーザ入力(例えば、タップ)入力(例えば、2250c、2250h、2250n)を検出したことに応じて、電子デバイスは、メディア編集ユーザインタフェース内のそれぞれの位置(例えば、第1の及び第2のアフォーダンスに隣接する位置(第1の及び第2のアフォーダンスの下の位置))に、第2の編集可能パラメータ(例えば、グラフィカル制御要素(例えば、スライダ))を調整する調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)を表示する(2318)。いくつかの実施形態では、調整可能なコントロールは、第1及び第2のアフォーダンスから、又は表示デバイスの左側/右側からそれぞれの位置にスライドする。いくつかの実施形態では、複数の条件が満たされていると、複数のアフォーダンスが表示される。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプション(例えば、スライダ)を提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In response to detecting a second user input (e.g., tap) input (e.g., 2250c, 2250h, 2250n) corresponding to a selection of the second affordance (2214a, 2214c, 2214n), the electronic device displays (2318) adjustable controls (e.g., 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) for adjusting a second editable parameter (e.g., a graphical control element (e.g., a slider)) at respective positions (e.g., adjacent to the first and second affordances (positions below the first and second affordances)) within the media editing user interface. In some embodiments, the adjustable controls slide from the first and second affordances or from the left/right sides of the display device to their respective positions. In some embodiments, multiple affordances are displayed when multiple conditions are met. Providing additional control options (e.g., sliders) without cluttering the UI with additional controls displayed enhances usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs and reducing user errors when operating/interacting with the device), and also reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1の編集可能パラメータを調整する調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)は、第1の静的部分(例えば、スライダのティックマーク(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)(例えば、スライダのフレーム(例えば、ティックマーク、スライダ範囲、色))と、第1の可変部分(例えば、現在値のインジケーション(例えば、スライダバー))(例えば、インジケーション2252b1、2252bb1、2254a1-i1、2256c1)と、を含む。いくつかの実施形態では、第2の編集可能パラメータを調整する調整可能なコントロール(例えば、2254)は、第1の静的部分(例えば、スライダのフレーム(例えば、ティックマーク、スライダの範囲、色))と、第2の可変部分(例えば、インジケーション2252b1、2252bb1、2254a1-i1、2256c1)(例えば、現在値のインジケーション(例えば、スライダバー))と、を含む。いくつかの実施形態では、第2の可変部分は、第1の可変部分とは異なる。いくつかの実施形態では、電子デバイスがメディア編集ユーザインタフェース内のそれぞれの位置に、第2の編集可能パラメータを調整する調整可能なコントロールを表示することは、電子デバイスが、表示デバイス上に、メディア編集ユーザインタフェース内のそれぞれの位置に第1の静的部分の表示を維持すること(例えば、調整可能なコントロールの1つ以上の他の部分が維持及び/又は更新されている(例えば、値インジケータが新しい値を反映するように更新される)間に、調整可能なコントロールの1つ以上の部分を維持すること(例えば、スライダの表示された位置及びフレーム(例えば、ティックマーク)は、表示され続ける))(例えば、スライダの表示は、複数の編集動作の間に維持される)(例えば、図22H~図22I、図22N~図22Oのインジケーション2252b1、2252bb1、2254a1~i1、2256c1)を含む。いくつかの実施形態では、第2の可変部分が表示されると、第1の可変部分は、表示を停止されるか、又は第2のインジケーションの表示を、第1のインジケーションの表示に置き換える。いくつかの実施形態では、第1及び第2の可変位置は、スライダ上の異なる位置にある。いくつかの実施形態では、第1及び第2の可変部分は、スライダ上で同じ位置にある。いくつかの実施形態では、第1及び第2の可変部分は、第1及び第2の値(例えば、第1のタイプ(例えば、スズ(tin))の値は、第2のタイプ(例えば、コントラスト)の値とは異なる)である間、スライダ上の同じ位置に表示される。いくつかの実施形態では、第1の値及び第2の値は、異なるタイプの値である。いくつかの実施形態では、電子デバイスは、第1の編集パラメータに対応する第1の値の第1の可変部分の表示を置き換え、調整可能なコントロール上の第2の編集パラメータに対応する第2の値の第2の可変部分を表示する。2つの調整可能なコントロールの間で切り替えるとき、調整可能なコントロールの静的部分を維持することにより、UI上に表示される要素の変化を同時に最小化しながら、ユーザが異なる編集可能パラメータを設定できるようにすることにより、デバイスの更なるコントロールをユーザに提供する。表示される追加のコントロールによってUIを雑然とさせることなく、追加のオプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, an adjustable control (e.g., 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) that adjusts a first editable parameter includes a first static portion (e.g., a slider tick mark (e.g., 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) (e.g., a slider frame (e.g., tick mark, slider range, color)) and a first variable portion (e.g., an indication of a current value (e.g., a slider bar)) (e.g., indication 2252b1, 2252bb1 , 2254a1-i1, 2256c1). In some embodiments, the adjustable control (e.g., 2254) for adjusting the second editable parameter includes a first static portion (e.g., a slider frame (e.g., tick marks, slider range, color)) and a second variable portion (e.g., indications 2252b1, 2252bb1, 2254a1-i1, 2256c1) (e.g., an indication of a current value (e.g., a slider bar)). In some embodiments, the second variable portion is different from the first variable portion. In some implementations, In one embodiment, the electronic device displaying an adjustable control for adjusting the second editable parameter at a respective location within the media editing user interface may include the electronic device maintaining, on the display device, a display of the first static portion at a respective location within the media editing user interface (e.g., maintaining one or more portions of the adjustable control (e.g., a displayed position of a slider) while one or more other portions of the adjustable control are maintained and/or updated (e.g., a value indicator is updated to reflect a new value). and frames (e.g., tick marks) continue to be displayed) (e.g., the display of the slider is maintained between multiple editing operations) (e.g., indications 2252b1, 2252bb1, 2254a1-i1, 2256c1 of FIGS. 22H-I, 22N-O). In some embodiments, when the second variable portion is displayed, the first variable portion is stopped from displaying or replaces the display of the second indication with the display of the first indication. In some embodiments, the first and second variable portions are at different positions on the slider. In some embodiments, the first and second variable portions are at the same position on the slider. In some embodiments, the first and second variable portions are displayed at the same position on the slider while the first and second values are (e.g., values of the first type (e.g., tin) are different from values of the second type (e.g., contrast). In some embodiments, the first value and the second value are values of different types. In some embodiments, the electronic device replaces the display of the first variable portion of the first value corresponding to the first editing parameter with a second variable portion of the second value corresponding to the second editing parameter on the adjustable control. By maintaining the static portion of the adjustable control when switching between the two adjustable controls, the user is provided with additional control over the device by allowing the user to set different editable parameters while simultaneously minimizing changes in elements displayed on the UI. Providing additional options without cluttering the UI with additional controls displayed enhances usability of the device, makes the user-device interface more efficient (e.g., by helping the user make appropriate inputs and reducing user errors when operating/interacting with the device), and also reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1の編集可能パラメータを調整する調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)及び第2の編集可能パラメータを調整する調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)は、同じ相対位置に調整されると、1つ以上の視覚的特徴(例えば、スライダ上のティックマーク)を共有する(例えば、第1の編集可能パラメータを調整する調整可能なコントロール及び第2の編集可能パラメータを調整する調整可能なコントロールは、中央値、最大値及び/又は最小値に調整されると、同じ外観を有する)(例えば、図22H~図22I;図22N~図22O)。同じ相対位置で視覚的特徴を共有する調整可能なコントロールを提供することにより、UI上に表示される要素の変化(例えば、要素及び/又は要素の表現の位置の変化)を同時に最小化しながら、ユーザが異なる編集可能パラメータを設定できるようにすることにより、デバイスの更なるコントロールをユーザに提供する。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the adjustable controls that adjust a first editable parameter (e.g., 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) and the adjustable controls that adjust a second editable parameter (e.g., 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) share one or more visual features (e.g., tick marks on a slider) when adjusted to the same relative position (e.g., the adjustable controls that adjust a first editable parameter and the adjustable controls that adjust a second editable parameter have the same appearance when adjusted to a median, maximum, and/or minimum value) (e.g., Figs. 22H-22I; 22N-22O). Providing adjustable controls that share visual features in the same relative position provides the user with additional control of the device by allowing the user to set different editable parameters while simultaneously minimizing changes to elements displayed on the UI (e.g., changes to the position of the elements and/or representations of the elements). Providing additional controls without cluttering the UI with additional controls displayed enhances usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

第2の編集可能パラメータを調整する調整可能なコントロールを表示している間に、かつ第2の編集可能パラメータが選択されている間に(例えば、メディアユーザインタフェースの中央の中心に押圧されて表示されるか、又は異なる色(例えば、グレーアウトされていない)で表示される)、電子デバイスは、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャ(例えば、2250d、2250i、2250o)(例えば、ドラッグジェスチャ(例えば、調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)上のある対応する位置(例えば、ティックマーク)から調整可能なコントロール上の別の対応する位置へとインジケーション(例えば、スライダバー)をドラッグする))を検出する(2320)。 While displaying an adjustable control for adjusting a second editable parameter and while the second editable parameter is selected (e.g., displayed pressed in the center of the media user interface or displayed in a different color (e.g., not grayed out)), the electronic device detects (2320) a second gesture (e.g., 2250d, 2250i, 2250o) directed at the adjustable control for adjusting the second editable parameter (e.g., a drag gesture (e.g., dragging an indication (e.g., a slider bar) from one corresponding location (e.g., a tick mark) on the adjustable control (e.g., 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) to another corresponding location on the adjustable control).

第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)に向けられた第2のジェスチャ(例えば、2250d、2250i、2250o)を検出したことに応じて(2322)、電子デバイスは、第2のジェスチャに従って(例えば、第2のジェスチャの大きさに従って)第2の編集可能パラメータの現在値を調整する(例えば、新しい位置でスライダ上にスライダバー表示する)(例えば、図22J~図22K)(2324)。異なる編集可能パラメータを調整する異なる調整可能なコントロールを提供することにより、ユーザが望ましくない方法で意図せずに表現を変更することを回避すること、及び同時に、調整可能なコントロールへの入力が入力に基づいて表現を変更することをユーザが認識できるようにすることにより、デバイスの更なるコントロールをユーザに提供する。表示される追加のコントロールによってUIを雑然とさせることなく、追加制御できるようにすることにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In response to detecting a second gesture (e.g., 2250d, 2250i, 2250o) directed at an adjustable control (e.g., 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) that adjusts the second editable parameter while the second editable parameter is selected (2322), the electronic device adjusts the current value of the second editable parameter (e.g., displaying a slider bar on the slider at a new position) according to the second gesture (e.g., according to the magnitude of the second gesture) (2324) (e.g., Figs. 22J-22K). Providing different adjustable controls that adjust different editable parameters provides the user with more control over the device by avoiding the user unintentionally changing the representation in an undesirable way and at the same time allowing the user to recognize that inputs to the adjustable controls will change the representation based on the inputs. Providing additional control without cluttering the UI with additional controls displayed enhances usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャ(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)を検出したことに応じて(2322)、電子デバイスは、視覚メディアの表現(2230a~2230p)の表示を、第2の編集可能パラメータの調整された現在値に基づいて調整される視覚メディアの調整された表現(2230a~2230p)に置き換える(2326)(例えば、編集可能パラメータが色合いである場合、(例えば、第2のジェスチャの大きさによって現在調整された)第2の編集可能パラメータの現在値に基づいて調整される表現は、最初に表示される視覚メディアの表現よりも、より多くの又は少ない色合いを有する)(例えば、図22J~図22K)。調整可能なコントロールの値を変更したことに応じて、調整された表現を表示することによって、キャプチャされたメディアの表現に対するパラメータの現在の効果についてのフィードバックをユーザに提供し、ユーザが調整を受け入れると決定する場合に、調整可能なコントロールに関連付けられた動作が実行されることを示す視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, in response to detecting a second gesture (e.g., 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) directed toward an adjustable control that adjusts the second editable parameter while the second editable parameter is selected (2322), the electronic device replaces (2326) the display of the representation of the visual media (2230a-2230p) with an adjusted representation of the visual media (2230a-2230p) that is adjusted based on the current adjusted value of the second editable parameter (e.g., if the editable parameter is a hue, the representation that is adjusted based on the current value of the second editable parameter (e.g., currently adjusted by the magnitude of the second gesture) has more or less hue than the representation of the visual media originally displayed) (e.g., Figures 22J-22K). In response to changing the value of the adjustable control, feedback is provided to the user as to the current effect of the parameter on the representation of the captured media by displaying the adjusted representation, and if the user decides to accept the adjustment, visual feedback is provided to the user indicating that an action associated with the adjustable control will be performed. Providing the user with improved visual feedback enhances usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、メディア編集ユーザインタフェースが、視覚メディアの表現を編集する第4の編集可能パラメータに対応する第3のアフォーダンス(例えば、2214f~i)を含まない間に、電子デバイスは、第3のユーザ入力(例えば、2250l)(例えば、スワイプジェスチャ(例えば、メディア編集ユーザインタフェースのコントロール領域に対応する位置で、アフォーダンス上のタップ(例えば、中央にあるディスプレイの縁部に向かうアフォーダンス))を検出する。いくつかの実施形態では、第3のユーザ入力(例えば、2250l)を検出したことに応じて、電子デバイスは、第3のアフォーダンス(例えば、2214f~i)を表示する(例えば、ディスプレイにスライドオンする第3のアフォーダンスのアニメーションを表示する)。いくつかの実施形態では、電子デバイスはまた、第3のアフォーダンス(例えば、2214f~i)を表示するときに、第1のアフォーダンス(2214a)及び/又は第2のアフォーダンス(2214c)を表示することを停止する。いくつかの実施形態では、対応するパラメータのための複数のアフォーダンスを、第3のユーザ入力を検出する前に表示されず、第3のユーザ入力を検出したことに応じて、表示される多くのアフォーダンスは、第3のユーザ入力(例えば、スワイプ又はドラッグジェスチャの接触の移動の速さ及び/又は方向)(例えば、図22L~図22N)の大きさ(例えば、速さ及び/又は距離)及び/又は方向に基づいて選択される。 In some embodiments, while the media editing user interface does not include a third affordance (e.g., 2214f-i) corresponding to a fourth editable parameter for editing the representation of the visual media, the electronic device detects a third user input (e.g., 2250l) (e.g., a swipe gesture (e.g., a tap on an affordance (e.g., an affordance toward an edge of a display in the center) at a location corresponding to a control area of the media editing user interface). In some embodiments, in response to detecting the third user input (e.g., 2250l), the electronic device displays a third affordance (e.g., 2214f-i) (e.g., a fourth affordance sliding onto the display). In some embodiments, the electronic device also stops displaying the first affordance (2214a) and/or the second affordance (2214c) when displaying the third affordance (e.g., 2214f-i). In some embodiments, multiple affordances for the corresponding parameters are not displayed prior to detecting the third user input, and in response to detecting the third user input, the number of affordances displayed is selected based on the magnitude (e.g., speed and/or distance) and/or direction of the third user input (e.g., speed and/or direction of contact movement of a swipe or drag gesture) (e.g., FIGS. 22L-22N).

いくつかの実施形態では、電子デバイスが第1のジェスチャに従って第1の編集可能パラメータの現在値を調整することは、第1の編集可能パラメータの現在値(例えば、調整された現在値)が第1の編集可能パラメータに対する所定のリセット値(例えば、2252i2)(例えば、自動調整アルゴリズムによって計算された値)に対応するとの判定に従って、電子デバイスが触知出力(例えば、2260a)(例えば、振動)を生成することを更に含む。いくつかの実施形態では、電子デバイスが第1のジェスチャに従って第1の編集可能パラメータの現在値を調整することは、第1の編集可能パラメータの現在値(例えば、調整された現在値)が第1の編集可能パラメータに対する所定のリセット値(例えば、自動調整アルゴリズムによって計算された値)に対応しないとの判定に従って、電子デバイスが触知出力(例えば、振動)を生成することをやめることを更に含む。いくつかの実施形態では、インジケータ(例えば、スライダ上の着色された又は太字化されたティックマーク又はスライダ上の別の識別ユーザインタフェース要素)は、スライダ上に表示されて、所定のリセット値を示す。(例えば、図22Q~図22R)。その元の条件に表現をリセットするための追加のコントロールオプションを提供することにより、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、複数の条件が満たされていると、複数のアフォーダンスが表示される。 In some embodiments, the electronic device adjusting the current value of the first editable parameter in accordance with the first gesture further includes the electronic device generating a tactile output (e.g., 2260a) (e.g., a vibration) in accordance with a determination that the current value of the first editable parameter (e.g., the adjusted current value) corresponds to a predefined reset value (e.g., 2252i2) (e.g., a value calculated by an auto-tuning algorithm) for the first editable parameter. In some embodiments, the electronic device adjusting the current value of the first editable parameter in accordance with the first gesture further includes the electronic device ceasing to generate the tactile output (e.g., a vibration) in accordance with a determination that the current value of the first editable parameter (e.g., the adjusted current value) does not correspond to a predefined reset value (e.g., a value calculated by an auto-tuning algorithm) for the first editable parameter. In some embodiments, an indicator (e.g., a colored or bolded tick mark on the slider or another identifying user interface element on the slider) is displayed on the slider to indicate the predefined reset value. (e.g., Figs. 22Q-22R). Providing an additional control option to reset the representation to its original condition makes the user-device interface more efficient (e.g., by helping the user provide appropriate inputs when operating/interacting with the device and reducing user errors) and also reduces device power usage and improves battery life by allowing the user to use the device more quickly and efficiently. In some embodiments, multiple affordances are displayed when multiple conditions are met.

いくつかの実施形態では、第1の編集可能パラメータを調整する調整可能なコントロールを表示し、かつ第3のユーザ入力(例えば、2250l)を検出している間に、電子デバイスは、第1の編集可能パラメータを調整する調整可能なコントロールを視覚的に抑制する(例えば、図22Mの2254a1)(例えば、グレーアウトされ、より小さく、焦点から外れて、暗色で表示する)。いくつかの実施形態では、電子デバイスは、第3のユーザ入力のリフトオフを検出するまで、調整可能なコントロールを視覚的に抑制する(例えば、図22L~図22N)。編集可能パラメータを通じてナビゲーションしている間に調整可能なコントロールを強調することをやめることにより、調整可能なコントロールの現在の状態についてのフィードバックをユーザに提供し、ユーザは、動作の現在の状態が調整可能なコントロールに影響を与えないことを判定することができ、特定のユーザインタフェース要素の顕著な表示を減少させることによって、ユーザが特定の編集可能パラメータにナビゲーションすることによって、誤りを低減する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, while displaying an adjustable control that adjusts a first editable parameter and detecting a third user input (e.g., 2250l), the electronic device visually suppresses the adjustable control that adjusts the first editable parameter (e.g., 2254a1 in FIG. 22M) (e.g., grayed out, smaller, out of focus, darkened). In some embodiments, the electronic device visually suppresses the adjustable control until it detects lift-off of the third user input (e.g., FIGS. 22L-22N). By de-emphasizing the adjustable control while navigating through the editable parameters, the user is provided with feedback about the current state of the adjustable control, allowing the user to determine that the current state of the operation does not affect the adjustable control, and by reducing the prominent display of the particular user interface element, the user is reduced from making errors by navigating to a particular editable parameter. Providing improved visual feedback to the user improves usability of the device and makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第3のユーザ入力(例えば、2250l)は、第1の編集可能パラメータを調整する調整可能なコントロールが表示されている間に(例えば、2254a1)、電子デバイスによって受信される。いくつかの実施形態では、電子デバイスが第3のアフォーダンスを表示することは、第4の編集可能パラメータが第1のタイプのパラメータ(例えば、2212a~2212d)(例えば、所定の位置(例えば、メディア編集ユーザインタフェースの中心)に表示される場合に調整のために自動的に選択されるパラメータ)であるときに満たされる基準を含む、第1の1組の基準が満たされているとの判定に従って、電子デバイスは、メディア編集ユーザインタフェース内のそれぞれの位置に、第4の編集可能パラメータを調整する調整可能なコントロール(例えば、図22Yの2252b1)を表示することを含む。いくつかの実施形態では、第1の1組の基準は、第3のアフォーダンスが第2のそれぞれの位置(例えば、編集可能パラメータに対応するアフォーダンスを表示する制御リボンの中心)(例えば、このような回転、コントラスト、輝度、明度、彩度などを調整するために選択される前に選択入力を必要としない編集可能パラメータは、編集可能パラメータのデフォルト状態が、視覚メディアの表現の現在の状態に対応する)で表示されるときに満たされる基準を含む。いくつかの実施形態では、電子デバイスが第3のアフォーダンス(例えば、2214a~2214i)を表示することはまた、第1の1組の基準が満たされていないとの判定に従って、電子デバイスは、メディア編集ユーザインタフェース内のそれぞれの位置に第4の編集可能パラメータを調整する調整可能なコントロール(例えば、2214h)を表示することをやめることを含む。いくつかの実施形態では、電子デバイスはまた、第1の編集可能パラメータを調整する調整可能なコントロールの表示を維持する。いくつかの実施形態では、第1の1組の基準は、第4の編集可能パラメータが第2のタイプのパラメータ(例えば、所定の位置に表示される場合に調整のために自動的に選択されないパラメータ(例えば、フィルタ又は編集ツールなどを調整するために選択される前に選択入力を必要とする編集可能パラメータは、フィルタ又は編集ツールのデフォルト用途が、フィルタ又は編集ツールを視覚メディアの表現に適用することによって、視覚メディアの表現を変更する))(例えば、図22H~図22I及び図22W~図22Z)であると満たされていない。 In some embodiments, a third user input (e.g., 2250l) is received by the electronic device while an adjustable control for adjusting the first editable parameter is displayed (e.g., 2254a1). In some embodiments, the electronic device's displaying of the third affordance includes, pursuant to a determination that a first set of criteria is met, including criteria that are met when the fourth editable parameter is a first type of parameter (e.g., 2212a-2212d) (e.g., a parameter that is automatically selected for adjustment when displayed in a predetermined position (e.g., the center of the media editing user interface), the electronic device displays an adjustable control for adjusting the fourth editable parameter (e.g., 2252b1 of FIG. 22Y) in a respective position within the media editing user interface. In some embodiments, the first set of criteria includes criteria that are met when the third affordance is displayed in a second respective location (e.g., at the center of a control ribbon displaying an affordance corresponding to the editable parameter) (e.g., for editable parameters that do not require a selection input before being selected to adjust such rotation, contrast, brightness, luminance, saturation, etc., a default state of the editable parameter corresponds to a current state of the representation of the visual media). In some embodiments, the electronic device's displaying of the third affordance (e.g., 2214a-2214i) also includes, pursuant to a determination that the first set of criteria is not met, the electronic device ceasing to display an adjustable control (e.g., 2214h) for adjusting the fourth editable parameter in the respective location within the media editing user interface. In some embodiments, the electronic device also maintains display of an adjustable control for adjusting the first editable parameter. In some embodiments, the first set of criteria is not met if the fourth editable parameter is a second type of parameter (e.g., a parameter that is not automatically selected for adjustment when displayed in a given location (e.g., an editable parameter that requires a selection input before it can be selected for adjustment, such as a filter or editing tool, where the default use of the filter or editing tool is to modify the representation of the visual media by applying the filter or editing tool to the representation of the visual media)) (e.g., Figures 22H-22I and 22W-22Z).

いくつかの実施形態では、視覚メディアの表現及び第1のアフォーダンス(例えば、2214c)を表示している間に、電子デバイスは、視覚メディアの表現が第1の編集可能パラメータに基づいて現在調整されているかどうかの状態(例えば、図22F~図22Gの2204c)を示す第1の編集可能パラメータ状態インジケータ(例えば、2214c)(例えば、編集可能パラメータのオン/オフをトグルする選択可能ユーザインタフェースオブジェクト)を表示する。いくつかの実施形態では、電子デバイスは、第1のアフォーダンスの選択に対応する第4のユーザ入力を検出する。いくつかの実施形態では、第4のユーザ入力(例えば、2250f及び/又は2250g)を検出したことに応じて、かつ視覚メディアの表現が第1の編集可能パラメータに基づいて現在調整されている(例えば、第1の編集可能パラメータ状態インジケータがアクティブである又は選択されているものとして表示されるとき(例えば、押圧されて及び/又は異なる色で(例えば、飽和していない及び/又は暗色化又はグレーアウトされていない)表示されているなどの、第1の編集可能パラメータがアクティブであるという視覚インジケーションを表示する)との判定に従って、電子デバイスは、視覚メディアの表現が第1の編集可能パラメータに基づいて現在調整されていないことを示すように、第1の編集可能パラメータ状態インジケータを更新し(例えば、第1の編集可能パラメータ状態インジケータが非アクティブ又は選択されていないものとして表示されるとき(例えば、押圧されていない及び/又は異なる色で(例えば、暗色化された及び/又は飽和されていない若しくはグレーアウトされている)あるなどの、第1の編集可能パラメータが非アクティブであるという視覚インジケーションを表示する)、視覚メディアの表現の表示を、第1の編集可能パラメータに基づいて調整されなかった視覚メディアの表現に置き換える(例えば、表現は、第1の編集可能パラメータ(例えば、コントラスト)に対応する元のキャプチャされた値(例えば、メディアがキャプチャされたときの元のコントラスト値)を有する)。いくつかの実施形態では、第4のユーザ入力を検出したことに応じて、かつ視覚メディアの表現が第1の編集可能パラメータに基づいて現在調整されていない(例えば、第1の編集可能パラメータ状態インジケータが非アクティブである又は選択されていないものとして表示されているとき(例えば、押圧されている及び/又は異なる色で(例えば、暗色化された及び/又は飽和されていない若しくはグレーアウトされている)などの、第1の編集可能パラメータが非アクティブであるという視覚インジケーションとともに表示される))との判定に従って、電子デバイスは、視覚メディアの表現が第1の編集可能パラメータの現在値に基づいて現在調整されていることを示すように、第1の編集可能パラメータ状態インジケータを更新し(例えば、第1の編集可能パラメータ状態インジケータがアクティブ又は選択されているものとして表示されているとき(例えば、押圧されている及び/又は異なる色で(例えば、飽和された及び/又は暗色化されていない若しくはグレーアウトされていない)あるとして表示されているなどの、第1の編集可能パラメータがアクティブであるという視覚インジケーションとともに表示される)、視覚メディアの表現の表示を、第1の編集可能パラメータに基づいて調整された視覚メディアの表現(例えば、第1の編集可能パラメータの現在値(例えば、第1の編集可能パラメータを調整する調整可能なコントロール上に表示された現在値)に基づいて調整された表現)に置き換える(例えば、図22F~図22H)。 In some embodiments, while displaying the representation of the visual media and the first affordance (e.g., 2214c), the electronic device displays a first editable parameter state indicator (e.g., 2214c) (e.g., a selectable user interface object that toggles the editable parameter on/off) that indicates a state of whether the representation of the visual media is currently being adjusted based on the first editable parameter (e.g., 2204c in FIGS. 22F-G). In some embodiments, the electronic device detects a fourth user input corresponding to a selection of the first affordance. In some embodiments, in response to detecting a fourth user input (e.g., 2250f and/or 2250g) and following a determination that the representation of the visual media is currently adjusted based on the first editable parameter (e.g., when the first editable parameter status indicator is displayed as active or selected (e.g., displaying a visual indication that the first editable parameter is active, such as being pressed and/or displayed in a different color (e.g., not saturated and/or not darkened or grayed out)), the electronic device updates the first editable parameter to indicate that the representation of the visual media is not currently adjusted based on the first editable parameter. update the visual media data state indicator (e.g., when the first editable parameter state indicator is displayed as inactive or not selected (e.g., displaying a visual indication that the first editable parameter is inactive, such as being not pressed and/or in a different color (e.g., darkened and/or desaturated or grayed out)), and replace the display of the representation of the visual media with a representation of the visual media that has not been adjusted based on the first editable parameter (e.g., the representation has an original captured value (e.g., the original contrast value when the media was captured) that corresponds to the first editable parameter (e.g., contrast). In an embodiment, in response to detecting a fourth user input, and in accordance with a determination that the representation of the visual media is not currently adjusted based on the first editable parameter (e.g., when the first editable parameter status indicator is displayed as inactive or not selected (e.g., displayed with a visual indication that the first editable parameter is inactive, such as being pressed and/or in a different color (e.g., shaded and/or desaturated or grayed out))), the electronic device updates the first editable parameter status indicator to indicate that the representation of the visual media is currently adjusted based on the current value of the first editable parameter. and (e.g., when the first editable parameter state indicator is displayed as active or selected (e.g., displayed along with a visual indication that the first editable parameter is active, such as displayed as pressed and/or in a different color (e.g., not saturated and/or shaded or grayed out)), replaces the display of the representation of the visual media with a representation of the visual media adjusted based on the first editable parameter (e.g., a representation adjusted based on the current value of the first editable parameter (e.g., the current value displayed on an adjustable control that adjusts the first editable parameter)) (e.g., Figures 22F-22H).

いくつかの実施形態では、第3の編集可能パラメータ現在値インジケータ(例えば、2244a~2244i)は、第1のアフォーダンス(例えば、2214a~2214i)の少なくとも一部分を視覚的に包囲しており(例えば、周囲に円形に包まれている、包含する)、第4の編集可能パラメータ現在値(例えば、2244a~2244i)インジケータは、第2のアフォーダンス(例えば、2214a~2214i)を視覚的に包囲している(例えば、周囲に円形に包まれている、包含する)。いくつかの実施形態では、進度インジケータは、現在値の関係に基づいて、第1の編集可能パラメータが設定され得る最大値に、色(例えば、青色)で満たす円形状態バーを含む)。編集可能パラメータが更新される(又は変化する)ときに値インジケータを提供することにより、ユーザは、調整可能な表現を表示するように変化した編集可能パラメータの現在値を判定することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the third editable parameter current value indicator (e.g., 2244a-2244i) visually surrounds (e.g., is wrapped in a circle around, contains) at least a portion of the first affordance (e.g., 2214a-2214i), and the fourth editable parameter current value (e.g., 2244a-2244i) indicator visually surrounds (e.g., is wrapped in a circle around, contains) the second affordance (e.g., 2214a-2214i). In some embodiments, the progress indicator includes a circular status bar that fills with a color (e.g., blue) to the maximum value to which the first editable parameter may be set based on the relationship of the current value). By providing a value indicator as the editable parameter is updated (or changed), the user can determine the current value of the editable parameter that has changed to display an adjustable representation. Providing improved visual feedback to the user improves usability of the device and makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、電子デバイスは、1つ以上のカメラを含む。いくつかの実施形態では、視覚メディアの表現は、1つ又はカメラの視野の表現である。いくつかの実施形態では、メディア編集ユーザインタフェースは、電子デバイスが、照明効果及び深度効果の適用を可能にする第1のキャプチャモード(例えば、カメラモード(例えば、ポートレートモード(例えば、メディア照明キャプチャコントロール(例えば、ポートレート照明効果コントロール(例えば、スタジオ照明、輪郭照明、舞台照明))))で視覚メディアをキャプチャ(又は編集)するように構成されている間に表示される。いくつかの実施形態では、第1の編集可能パラメータは、照明効果強度(例えば、602f)(例えば、シミュレートされた光量(例えば、光度))である。いくつかの実施形態では、第2の編集可能パラメータは、深度効果強度(例えば、602e)(例えば、ボケ効果強度、シミュレートされたf値)(例えば、図22W~図22AC)である。 In some embodiments, the electronic device includes one or more cameras. In some embodiments, the representation of the visual media is a representation of the field of view of one or more cameras. In some embodiments, the media editing user interface is displayed while the electronic device is configured to capture (or edit) the visual media in a first capture mode (e.g., camera mode (e.g., portrait mode (e.g., media lighting capture controls (e.g., portrait lighting effect controls (e.g., studio lighting, contour lighting, stage lighting)))) that enables the application of lighting and depth effects. In some embodiments, the first editable parameter is a lighting effect intensity (e.g., 602f) (e.g., simulated amount of light (e.g., luminosity)). In some embodiments, the second editable parameter is a depth effect intensity (e.g., 602e) (e.g., bokeh effect intensity, simulated f-stop) (e.g., Figures 22W-22AC).

いくつかの実施形態では、第1の編集可能パラメータは、照明効果パラメータ(例えば、602f)(例えば、図22W~図22AC)に対応する。いくつかの実施形態では、メディア編集ユーザインタフェースは、照明効果パラメータに対する値インジケータ(例えば、602f)(例えば、パラメータの値に基づいて更新される編集可能パラメータに対応するアフォーダンスの周囲のグラフィカル境界)を含む。いくつかの実施形態では、電子デバイスが第1のジェスチャに従って第1の編集可能パラメータの現在値を調整することは、電子デバイスが、第1の編集可能パラメータの調整された現在値に基づいて、照明効果パラメータを調整すること(例えば、照明効果の最大可能値に対する現在値の一部分に基づいて、より多くの又は少ない光をアクティブ(例えば、グレーアウトしない)として表示すること)を含む。動作を実行している間にアクティブ化状態を反映するようにアイコンの視覚特性を更新することにより、アイコンの現在の状態についてのフィードバックをユーザに提供し、調整可能なコントロールの値が変化していることを示す視覚的フィードバックをユーザに提供する。いくつかの実施形態では、深度インジケータは、照明インジケータとは異なる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the first editable parameter corresponds to a lighting effect parameter (e.g., 602f) (e.g., FIGS. 22W-22AC). In some embodiments, the media editing user interface includes a value indicator (e.g., 602f) for the lighting effect parameter (e.g., a graphical boundary around an affordance corresponding to the editable parameter that is updated based on the value of the parameter). In some embodiments, the electronic device adjusting a current value of the first editable parameter according to the first gesture includes the electronic device adjusting the lighting effect parameter based on the adjusted current value of the first editable parameter (e.g., displaying more or less light as active (e.g., not grayed out) based on a portion of the current value relative to a maximum possible value of the lighting effect). Updating visual characteristics of the icon to reflect the activation state while performing the operation provides feedback to the user about the current state of the icon and provides visual feedback to the user indicating that the value of the adjustable control is changing. In some embodiments, the depth indicator is distinct from the lighting indicator. Providing improved visual feedback to the user improves usability of the device and makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

方法2300に関して上述された処理(例えば、図23A~図23B)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2500、2700、2800、3000、3200、3400、3600、3800、4000、及び4200は、方法2300を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。 It should be noted that the details of the processes (e.g., FIGS. 23A-23B) described above with respect to method 2300 are also applicable in a similar manner to the methods described above. For example, methods 700, 900, 1100, 1300, 1500, 1700, 1900, 2100, 2500, 2700, 2800, 3000, 3200, 3400, 3600, 3800, 4000, and 4200 optionally include one or more of the characteristics of the various methods described above with reference to method 2300. For the sake of brevity, these details will not be repeated below.

図24A~図24ABは、いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図25A~図25Bにおける処理を含む、以下で説明する処理を例示するために使用される。 FIGS. 24A-24AB show example user interfaces for editing media captured using an electronic device, according to some embodiments. The user interfaces in these figures are used to illustrate the processes described below, including the processes in FIGS. 25A-25B.

理解を向上させるために、図24A~図24Jは、後処理技術により(例えば、メディアがキャプチャされた後に)、以前にキャプチャされたメディアの表現の水平線、垂直遠近歪、及び水平遠近歪の位置を補正する(例えば、低減する及び/又は変更する)ユーザインタフェースの例を提供するために、以下で論じられる。いくつかの実施形態では、表現の水平線、垂直遠近歪、及び水平遠近歪の位置は、カメラの位置(例えば、傾斜、角度)、又はメディアをキャプチャしている間のカメラレンズの形状及び/若しくは位置によって影響を受ける。 To improve understanding, FIGS. 24A-24J are discussed below to provide examples of user interfaces for correcting (e.g., reducing and/or modifying) the position of the horizon, vertical perspective, and horizontal perspective of a representation of previously captured media through post-processing techniques (e.g., after the media has been captured). In some embodiments, the position of the horizon, vertical perspective, and horizontal perspective of the representation is affected by the position (e.g., tilt, angle) of the camera or the shape and/or position of the camera lens while capturing the media.

図24Aにおいて、電子デバイス600は、以前にキャプチャされたメディア(例えば、写真)の表現2430aを含むメディアビューワユーザインタフェースを表示する。表現2430aは、矩形プリズム2432の横方向面2432bで足をぶらぶらさせながら矩形プリズム2432の上に座っている人を示す。横方向面2432bの他に、図示される矩形プリズム2432の唯一の他の面は、端面2432aである。表現2430aは、水平線が表現2430aにおいて対角線であるため、補正されていない水平線2438を含む(例えば、水平線2438の一部の点が異なるy値を有する場合)。図24Eに示すように(以下に詳細に論じられる)、デバイス600は、水平線2438が表現のx軸に沿ってのみ進むように見えるように、表現2430aを調整することによって(例えば、水平線の各点が同一のy値を有する場合)、水平線2438の位置を補正する。更には、図24Aにおいて、表現2430aは、補正されていない垂直遠近歪を含む。垂直線2434a~2434cが表現2430a内で平行であるべきだが(例えば、実際の垂直線(例えば、自然又は実世界環境内)プリズムは平行であるため)、垂直線2434a~2434cは、表現2430aの底部に向かって、それぞれの点で視覚的に収束するように見える。図24Hに示すように、デバイス600は、垂直線2434a~2434cが平行(例えば、収束していない)であるように見えるように、表現2430aを調整することによって、垂直視点を補正する。更に、図24Aにおいて、表現2430aは、補正されていない水平遠近歪を含む。例えば、水平線2436a~2436bが表現2430a内で平行であるべきだが(例えば、実際のプリズムの水平線(例えば、自然又は実世界環境内)、水平線2436a~2436bは、表現2430a内で右から左へ動いて収束するように見える。図24Jに示すように、デバイス600は、水平線2436a~2436bが平行(例えば、収束していない)であるように見えるように、表現2430aを調整することによって、水平視点を補正する。図24Aに示すように、メディアビューワユーザインタフェースはまた、編集アフォーダンス644aを含む。 In FIG. 24A, the electronic device 600 displays a media viewer user interface that includes a representation 2430a of previously captured media (e.g., a photograph). The representation 2430a shows a person sitting on a rectangular prism 2432 with their feet dangling on a lateral face 2432b of the rectangular prism 2432. Besides the lateral face 2432b, the only other face of the rectangular prism 2432 shown is the end face 2432a. The representation 2430a includes a horizontal line 2438 that is not corrected because the horizontal line is a diagonal in the representation 2430a (e.g., if some points of the horizontal line 2438 have different y values). As shown in FIG. 24E (discussed in more detail below), the device 600 corrects the position of the horizontal line 2438 by adjusting the representation 2430a (e.g., if each point of the horizontal line has the same y value) so that the horizontal line 2438 appears to run only along the x-axis of the representation. Moreover, in Fig. 24A, representation 2430a includes an uncorrected vertical perspective distortion. Although vertical lines 2434a-c should be parallel in representation 2430a (e.g., because actual vertical lines (e.g., in natural or real-world environments) prisms are parallel), vertical lines 2434a-c appear to visually converge at their respective points toward the bottom of representation 2430a. As shown in Fig. 24H, device 600 corrects for the vertical viewpoint by adjusting representation 2430a such that vertical lines 2434a-c appear to be parallel (e.g., not converging). Moreover, in Fig. 24A, representation 2430a includes an uncorrected horizontal perspective distortion. For example, while the horizontal lines 2436a-2436b should be parallel in the representation 2430a (e.g., the horizon of an actual prism (e.g., in a natural or real-world environment), the horizontal lines 2436a-2436b appear to converge moving from right to left in the representation 2430a. As shown in FIG. 24J, the device 600 corrects the horizontal viewpoint by adjusting the representation 2430a so that the horizontal lines 2436a-2436b appear to be parallel (e.g., not converging). As shown in FIG. 24A, the media viewer user interface also includes an edit affordance 644a.

図24Aでは、デバイス600は、編集アフォーダンス644aに対応する位置でのタップジェスチャ2450aを検出する。図24Bに示すように、タップジェスチャ2450aを検出したことに応じて、デバイス600は、メディアビューワユーザインタフェースを、メディア編集ユーザインタフェースに置き換える(例えば、図22A~図22Bに関連して上述したように)。メディア編集ユーザインタフェースは、図24Aにおいて表現2430aに対応する表現2430bを含む。すなわち、表現2430bは、キャプチャされたメディアの同一の表現を示し、表現2430aに関連して上述したように、水平線、垂直遠近歪、及び水平遠近歪と同一の位置を有する。メディア編集ユーザインタフェースはまた、図22Aにおいて上述されたメディア編集ユーザインタフェースと同様の構成要素を含む。しかしながら、図22Aにおいて上述されたメディア編集ユーザインタフェースとは対照的に、デバイス600は、表現2430bによって表されたキャプチャされたメディアが写真メディアであることを判定する。その結果、デバイス600は、写真メディアが写真を編集する特定の1組の編集ツールを有さないことを判定する。また、この判定に従って、デバイス600は、写真メディアを編集するメディア編集モードアフォーダンスを表示せずに、編集モードアフォーダンス2210b~2210dを(例えば、ポートレートモードメディア編集モードアフォーダンス2210aなどの第4のメディア編集アフォーダンスの代わりに)表示する。具体的には、編集モードアフォーダンス2210b~2210dは、視覚特性編集モードアフォーダンス2210b、フィルタ編集モードアフォーダンス2210c、及び画像コンテンツ編集モードアフォーダンス2210dを含む。図24Bに示すように、視覚特性編集モードアフォーダンス2210bは、モード選択インジケータ2202bによって示すように、選択される。その結果、デバイス600は、図22B~図22Cで論じられた同様の技術を使用して、視覚特性編集ツールアフォーダンス2214を表示する。 In FIG. 24A, device 600 detects a tap gesture 2450a at a location corresponding to edit affordance 644a. As shown in FIG. 24B, in response to detecting tap gesture 2450a, device 600 replaces the media viewer user interface with a media editing user interface (e.g., as described above in connection with FIGS. 22A-22B). The media editing user interface includes representation 2430b that corresponds to representation 2430a in FIG. 24A. That is, representation 2430b shows the same representation of the captured media, with the same positions of the horizon lines, vertical perspective distortion, and horizontal perspective distortion as described above in connection with representation 2430a. The media editing user interface also includes similar components to the media editing user interface described above in FIG. 22A. However, in contrast to the media editing user interface described above in FIG. 22A, device 600 determines that the captured media represented by representation 2430b is photographic media. As a result, device 600 determines that photographic media does not have a specific set of editing tools for editing photographs. Also, in accordance with this determination, device 600 does not display a media editing mode affordance for editing photo media, but displays edit mode affordances 2210b-2210d (e.g., instead of a fourth media editing affordance, such as portrait mode media editing mode affordance 2210a). Specifically, edit mode affordances 2210b-2210d include visual property editing mode affordance 2210b, filter editing mode affordance 2210c, and image content editing mode affordance 2210d. As shown in FIG. 24B, visual property editing mode affordance 2210b is selected, as indicated by mode selection indicator 2202b. As a result, device 600 displays visual property editing tool affordance 2214, using similar techniques discussed in FIGs. 22B-22C.

図24Bでは、デバイス600は、画像コンテンツ編集モードアフォーダンス2210dに対応する位置でのタップジェスチャ2450bを検出する。図24Cに示すように、タップジェスチャ2450bを検出したことに応じて、デバイス600は、デバイスが画像コンテンツ編集モードで表現を編集するように構成されることを示すように、画像コンテンツ編集モードアフォーダンス2210dの下にモード選択インジケータ2202dを表示する。更には、デバイス600は、視覚特性編集ツールアフォーダンス2214を、画像コンテンツ編集ツールアフォーダンス2218に置き換える。画像コンテンツ編集ツールアフォーダンス2218を表示することは、(表現の水平線の位置を補正するための)歪み矯正編集ツールアフォーダンス2218aと、(表現の垂直遠近歪を補正するための)垂直視点編集ツールアフォーダンス2218bと、(表現の水平遠近歪を補正するための)水平視点編集ツールアフォーダンス2218cと、を同時に表示することを含む。デバイス600は、歪み矯正編集ツールアフォーダンス2218aを選択されたものとして表示し、これは、歪み矯正編集ツールアフォーダンス2218aの上部に隣接して表示されるツール選択インジケータ2204aによって示される。歪み矯正編集ツールアフォーダンス2218aを選択されたものとして表示することに加えて、デバイス600はまた、調整可能なストレート化コントロール2258aの中心付近の位置にストレート化コントロールインジケーション2258a1を表示する。 In FIG. 24B, the device 600 detects a tap gesture 2450b at a location corresponding to the image content editing mode affordance 2210d. As shown in FIG. 24C, in response to detecting the tap gesture 2450b, the device 600 displays a mode selection indicator 2202d below the image content editing mode affordance 2210d to indicate that the device is configured to edit the representation in the image content editing mode. Furthermore, the device 600 replaces the visual property editing tool affordance 2214 with an image content editing tool affordance 2218. Displaying the image content editing tool affordance 2218 includes simultaneously displaying a distortion correction editing tool affordance 2218a (for correcting the position of the horizon of the representation), a vertical perspective editing tool affordance 2218b (for correcting the vertical perspective distortion of the representation), and a horizontal perspective editing tool affordance 2218c (for correcting the horizontal perspective distortion of the representation). The device 600 displays the distortion straightening edit tool affordance 2218a as selected, as indicated by a tool selection indicator 2204a displayed adjacent to the top of the distortion straightening edit tool affordance 2218a. In addition to displaying the distortion straightening edit tool affordance 2218a as selected, the device 600 also displays a straightening control indication 2258a1 in a position near the center of the adjustable straightening control 2258a.

図24Cでは、デバイス600は、表現2430bに向けられたデピンチジェスチャ2450cを検出する。図24Dに示すように、デピンチジェスチャ2450cを検出したことに応じて、デバイス600は、表現2430bのズームイン表現(例えば、2×ズーム)に対応する表現2430cを表示することにより、表現2430bのズームレベル(例えば、1×ズーム)を変更する。ズームインの結果として、表現2430cは、矩形プリズム2432及び水平線2438の一部分を示し、一方、矩形プリズム2432及び水平線2438の別の部分の表示を停止される。水平線2438の表示された部分は、対角線であり、水平線2438の一部の点は、異なるy値である。表現2430cはまた、鳥2440を含み続け、これは、表現2430bの左上に表示された。 In FIG. 24C, device 600 detects a de-pinch gesture 2450c directed at representation 2430b. As shown in FIG. 24D, in response to detecting de-pinch gesture 2450c, device 600 changes the zoom level (e.g., 1× zoom) of representation 2430b by displaying representation 2430c that corresponds to a zoomed-in representation (e.g., 2× zoom) of representation 2430b. As a result of the zoom-in, representation 2430c shows a portion of rectangular prism 2432 and horizontal line 2438 while other portions of rectangular prism 2432 and horizontal line 2438 are suppressed from being displayed. The displayed portion of horizontal line 2438 is a diagonal line, and some points of horizontal line 2438 are at different y values. Representation 2430c also continues to include bird 2440, which was displayed at the top left of representation 2430b.

更には、図24Dに示すように、デバイス600は、表現2430cによって表されたキャプチャされたメディアが、方法1100に関連して記載されるものと同様の技術を使用してキャプチャされたと判定した。したがって、キャプチャされたメディアは、表現2430cとして表示される視覚コンテンツ(例えば、図10E~図10Gにおいてメディアをキャプチャするときに、ライブプレビュー630内に表示されるようにキャプチャされた視覚コンテンツ)と、表現2430cとして表示されない追加の視覚コンテンツ(例えば、図10E~図10Gにおいてメディアをキャプチャするときに、インジケータ領域602及びコントロール領域606内に表示されるようにキャプチャされた視覚コンテンツ、過剰にキャプチャされたコンテンツ)と、を含む。いくつかの実施形態では、追加の視覚コンテンツは、視覚コンテンツの所定の空間的境界の外側(例えば、当初キャプチャされたフレームの外側、又は図10E~図10Gにおけるライブプレビュー630の外側)にある視覚コンテンツを含むことができる。いくつかの実施形態では、キャプチャされたメディアに対応するデータファイルは、表現2430cとして表示される視覚コンテンツと、表現2430cとして表示されない追加の視覚コンテンツと、を含む。デバイス600が表現2430cによって表されたキャプチャされたメディアが追加のデータを含むと判定した結果として、デバイス600は、(キャプチャされたメディアの表現を自動的に編集する)自動調整アフォーダンス1036bを表示する。いくつかの実施形態では、デバイス600が、表現2430cによって表されたキャプチャされたメディアが追加の視覚コンテンツを含まないと判定する場合、デバイス600は、自動調整アフォーダンス1036bを表示しない。 24D, device 600 has determined that the captured media represented by representation 2430c was captured using a technique similar to that described in connection with method 1100. Thus, the captured media includes visual content displayed as representation 2430c (e.g., visual content captured to be displayed in live preview 630 when capturing media in FIGS. 10E-10G) and additional visual content not displayed as representation 2430c (e.g., visual content captured to be displayed in indicator area 602 and control area 606 when capturing media in FIGS. 10E-10G, over-captured content). In some embodiments, the additional visual content can include visual content that is outside of a predetermined spatial boundary of the visual content (e.g., outside of the originally captured frame or outside of live preview 630 in FIGS. 10E-10G). In some embodiments, a data file corresponding to the captured media includes visual content displayed as representation 2430c and additional visual content not displayed as representation 2430c. As a result of device 600 determining that the captured media represented by representation 2430c includes additional data, device 600 displays auto-adjust affordance 1036b (which automatically edits the representation of the captured media). In some embodiments, if device 600 determines that the captured media represented by representation 2430c does not include additional visual content, device 600 does not display auto-adjust affordance 1036b.

図24Dでは、デバイス600は、調整可能なストレート化コントロール2258aに向けられたジェスチャ2450d(左向きフリック、又はドラッグジェスチャ)を検出する。図24Eに示すように、ジェスチャ2450dを検出したことに応じて、デバイス600は、デバイス600がジェスチャ2250d、2250i、及び/又は2250oを検出したことに応じて、上述したものと同様の技術を実行する。デバイス600は、ジェスチャ2450dの大きさ及び方向(例えば、スワイプの速さ、長さ)に基づいて、ストレート化コントロールインジケーション2258a1を、調整可能なストレート化コントロール2258a上の新しい位置に動かし、値インジケータ2248aを表示する。ジェスチャ2450dの大きさ及び方向により、デバイス600に、調整可能なストレート化コントロール2258aの最右端のティックマーク(例えば、最大値)により近い新しい位置に、ストレート化コントロールインジケーション2258a1を表示させる。更には、デバイス600は、表現2430dを表示し、ここで、表現2430dは、調整可能なストレート化コントロール2258a上のストレート化コントロールインジケーション2258a1の新しい位置に対応する値に基づいて調整された表現2430cのバージョンである。表現2430dによって示されるように、デバイス600は、水平線2438が表現のx軸に沿ってのみ進むように見えるまで(例えば、水平線の各点が同一のy値を有する場合)、表現2430cを時計回りに回転させる。キャプチャされたメディアが表現2430dに表示されなかった追加のコンテンツを含むため、デバイス600は、鳥2440が表現2430dに表示され続けるように、表現2430cを回転させている間に追加の視覚コンテンツを利用する(例えば、持ち込む)。表現2430cに表示されない追加の視覚コンテンツ(例えば、画像がキャプチャされたときに、インジケータ領域602内に表示されない視覚コンテンツ)を利用することにより、デバイス600は、表現2430d内の視覚コンテンツの表示を維持することができる。対照的に、いくつかの実施形態では、鳥2440は、表現2430dに表示され続けない。例えば、キャプチャされたメディアが、表示されていない追加の視覚コンテンツを含まないとき、デバイス600は、ジェスチャ2450dを検出したことに応じて、表現2404cを回転させるときに点線2466より上の領域をクロップアウトする。明確にするために図24D~図24Eに示すように、デバイス600は、点線2466より上の領域をクロップアウトして、調整された表現を矩形に見えるようにする(例えば、クロップされない場合、点線2466より上の領域の一部分は、メディア編集ユーザインタフェースの外側にある)。したがって、点線2466でクロッピング後、デバイス600は、図24Eの点線2466より上の領域を表示することを停止する。いくつかの実施形態では、垂直遠近歪を補正することは、表現の視点を垂直方向(例えば、下から上)に傾けることを含む。いくつかの実施形態では、垂直視点を補正することは、表現内の水平線を調整することを含み、これにより、表現が、垂直視点が表現内で変更したかのように視覚的に表示される。 In FIG. 24D, the device 600 detects a gesture 2450d (a leftward flick or drag gesture) directed at the adjustable straightening control 2258a. As shown in FIG. 24E, in response to detecting gesture 2450d, the device 600 performs techniques similar to those described above in response to device 600 detecting gestures 2250d, 2250i, and/or 2250o. Based on the magnitude and direction of gesture 2450d (e.g., swipe speed, length), the device 600 moves the straightening control indication 2258a1 to a new position on the adjustable straightening control 2258a and displays the value indicator 2248a. The magnitude and direction of gesture 2450d causes the device 600 to display the straightening control indication 2258a1 in a new position closer to the rightmost tick mark (e.g., maximum value) of the adjustable straightening control 2258a. Further, device 600 displays representation 2430d, where representation 2430d is a version of representation 2430c adjusted based on a value corresponding to the new position of straightening control indication 2258a1 on adjustable straightening control 2258a. As shown by representation 2430d, device 600 rotates representation 2430c clockwise until horizontal line 2438 appears to proceed only along the representation's x-axis (e.g., when each point on the horizontal line has the same y value). Because the captured media includes additional content that was not displayed in representation 2430d, device 600 utilizes (e.g., brings in) additional visual content while rotating representation 2430c such that bird 2440 continues to be displayed in representation 2430d. By utilizing additional visual content not displayed in representation 2430c (e.g., visual content not displayed in indicator area 602 when the image was captured), device 600 can maintain the display of the visual content in representation 2430d. In contrast, in some embodiments, bird 2440 does not continue to be displayed in representation 2430d. For example, when the captured media does not include additional visual content that is not being displayed, device 600 crops out the area above dotted line 2466 when rotating representation 2404c in response to detecting gesture 2450d. As shown in FIGS. 24D-E for clarity, device 600 crops out the area above dotted line 2466 to make the adjusted representation appear rectangular (e.g., if not cropped, a portion of the area above dotted line 2466 would be outside the media editing user interface). Thus, after cropping at dotted line 2466, device 600 stops displaying the area above dotted line 2466 in FIG. 24E. In some embodiments, correcting for vertical perspective distortion includes tilting the viewpoint of the representation vertically (e.g., from bottom to top). In some embodiments, correcting the vertical viewpoint includes adjusting horizontal lines in the representation, such that the representation appears visually as if the vertical viewpoint had changed in the representation.

図24Eでは、デバイス600は、表現2430dに向けられたピンチングジェスチャ2450eを検出する。図24Fに示すように、ピンチングジェスチャ2450eを検出したことに応じて、デバイス600は、表現2430bが図24Cに表示された以前のズームレベルまで、表現2430dをズームアウトすることによって、表現2430eを表示する。表現2430eに示すように、デバイス600は、表現2430dに調整とともに表示された、水平線2438の一部分を表示し続ける。特に、デバイス600はまた、水平線2438の全体が表現のx軸に沿ってのみ進むように見えるように(例えば、水平線の各点が同一のy値を有する場合)調整しながら、表現2430dに表示されなかった水平線2438の一部分を表示する。したがって、デバイス600(図24E~図24Dによって示されるように)は、表現のズームレベルとは無関係に、表現への調整を行い及び維持することができる。 In FIG. 24E, device 600 detects pinching gesture 2450e directed at representation 2430d. As shown in FIG. 24F, in response to detecting pinching gesture 2450e, device 600 displays representation 2430e by zooming out representation 2430d to the previous zoom level at which representation 2430b was displayed in FIG. 24C. As shown in representation 2430e, device 600 continues to display the portion of horizontal line 2438 that was displayed with the adjustment in representation 2430d. Notably, device 600 also displays the portion of horizontal line 2438 that was not displayed in representation 2430d, adjusting it so that the entire horizontal line 2438 appears to proceed only along the x-axis of the representation (e.g., if each point on the horizontal line has the same y value). Thus, device 600 (as shown by FIGS. 24E-24D) can make and maintain adjustments to a representation regardless of the zoom level of the representation.

図24Fでは、デバイス600は、垂直視点編集ツールアフォーダンス2218bに対応する位置でのタップジェスチャ2450fを検出する。図24Gに示すように、タップジェスチャ2450fを検出したことに応じて、デバイス600は、デバイス600がタップジェスチャ2250h及び/又は2250nを検出したことに応じて、上述したものと同様の技術を実行する。図24Gでは、デバイス600は、調整可能なストレート化コントロール2258a及びストレート化コントロールインジケーション2258a1の表示を、調整可能な垂直遠近歪コントロール2258b及び垂直遠近歪コントロールインジケーション2258b1の表示に置き換える。更には、デバイス600は、ツール選択インジケータ2204bを表示し、かつツール選択インジケータ2204aを表示することを停止して、デバイス600が垂直遠近歪調整モードで動作するように構成されていることを示す。 In FIG. 24F, device 600 detects tap gesture 2450f at a location corresponding to vertical perspective edit tool affordance 2218b. As shown in FIG. 24G, in response to detecting tap gesture 2450f, device 600 performs a technique similar to that described above in response to device 600 detecting tap gestures 2250h and/or 2250n. In FIG. 24G, device 600 replaces the display of adjustable straightening control 2258a and straightening control indication 2258a1 with the display of adjustable vertical perspective control 2258b and vertical perspective control indication 2258b1. Additionally, device 600 displays tool selection indicator 2204b and ceases displaying tool selection indicator 2204a to indicate that device 600 is configured to operate in vertical perspective adjustment mode.

図24Gでは、デバイス600は、調整可能な垂直遠近歪コントロール2258bに向けられたジェスチャ2450g(右向きフリック、又はドラッグジェスチャ)を検出する。図24Hに示すように、ジェスチャ2450gを検出したことに応じて、デバイス600は、デバイス600がジェスチャ2250d、2250i、及び/又は2250oを検出したことに応じて、上述したものと同様の技術を実行する。具体的には、デバイス600は、ジェスチャ2450gの大きさ及び方向(例えば、スワイプの速さ、長さ)に基づいて、垂直遠近歪コントロールインジケーション2258b1を、調整可能な垂直遠近歪コントロール2258b上の新しい位置に動かす。ジェスチャ2450gを検出したことに応じて、デバイス600はまた、調整可能な垂直遠近歪コントロール2258b上の垂直遠近歪コントロールインジケーション2258b1の新しい位置に対応する値に基づいて調整された表現2430fを表示する。その結果、デバイス600は、図24Gの垂直線2434a~2434cと比較して、メディアユーザインタフェースの底部に向かって動かすときに、収束が少なくなるように垂直線2434a~2434cを修正する。図24Hに示すように、垂直線2434a~2434cは、平行であるように見える。 In FIG. 24G, the device 600 detects a gesture 2450g (a rightward flick or drag gesture) directed at the adjustable vertical perspective control 2258b. As shown in FIG. 24H, in response to detecting the gesture 2450g, the device 600 performs a technique similar to that described above in response to the device 600 detecting gestures 2250d, 2250i, and/or 2250o. Specifically, the device 600 moves the vertical perspective control indication 2258b1 to a new position on the adjustable vertical perspective control 2258b based on the magnitude and direction (e.g., swipe speed, length) of the gesture 2450g. In response to detecting the gesture 2450g, the device 600 also displays an adjusted representation 2430f based on a value corresponding to the new position of the vertical perspective control indication 2258b1 on the adjustable vertical perspective control 2258b. As a result, the device 600 modifies the vertical lines 2434a-c to be less converging as they are moved toward the bottom of the media user interface, as compared to the vertical lines 2434a-c in FIG. 24G. As shown in FIG. 24H, the vertical lines 2434a-c appear to be parallel.

図24Hでは、表現2430fを表示している間に、デバイス600は、水平視点編集ツールアフォーダンス2218cに対応する位置でのタップジェスチャ2450hを検出する。図24Iに示すように、タップジェスチャ2450hを検出したことに応じて、デバイス600は、デバイス600がタップジェスチャ2250h、2250n、及び2450fを検出したことに応じて、上述したものと同様の技術を実行する。具体的には、デバイス600は、調整可能な垂直遠近歪コントロール2258b及び垂直遠近歪コントロールインジケーション2258b1の表示を、調整可能な水平遠近歪コントロール2258c及び調整可能な水平遠近歪コントロールインジケーション2258c1の表示に置き換える。更には、デバイス600は、ツール選択インジケータ2204cを表示し、かつツール選択インジケータ2204bを表示することを停止して、デバイス600が水平遠近歪調整モードで動作するように構成されていることを示す。 24H, while displaying representation 2430f, device 600 detects tap gesture 2450h at a location corresponding to horizontal perspective edit tool affordance 2218c. As shown in FIG. 24I, in response to detecting tap gesture 2450h, device 600 performs a technique similar to that described above in response to device 600 detecting tap gestures 2250h, 2250n, and 2450f. Specifically, device 600 replaces the display of adjustable vertical perspective control 2258b and vertical perspective control indication 2258b1 with the display of adjustable horizontal perspective control 2258c and adjustable horizontal perspective control indication 2258c1. Additionally, device 600 displays tool selection indicator 2204c and ceases displaying tool selection indicator 2204b to indicate that device 600 is configured to operate in horizontal perspective adjustment mode.

図24Iでは、デバイス600は、調整可能な水平遠近歪コントロール2258cに向けられたジェスチャ2450i(左向きフリック、又はドラッグジェスチャ)を検出する。図24Jに示すように、ジェスチャ2450iを検出したことに応じて、デバイス600は、デバイス600がジェスチャ2250d、2250i、及び/又は2250oを検出したことに応じて、上述したものと同様の技術を実行する。具体的には、デバイス600は、ジェスチャ2450iの大きさ及び方向(例えば、スワイプの速さ、長さ)に基づいて、水平遠近歪コントロールインジケーション2258c1を、調整可能な水平遠近歪コントロール2258c上の新しい位置に動かす。ジェスチャ2450iを検出したことに応じて、デバイス600はまた、調整可能な水平遠近歪コントロール2258c上の水平遠近歪コントロールインジケーション2258c1の新しい位置に対応する値に基づいて調整された表現2430fのバージョンである表現2430gを表示する。その結果、デバイス600は、メディアユーザインタフェースを右から左へ動かすときに、収束が少なくなるように水平線2436a~2436bを修正する。図24Jでは、水平線2436a~2436bの収束が低減されると、矩形プリズム2432の横方向面2432bの長さが低減される。いくつかの実施形態では、水平遠近歪を補正することは、表現の視点を水平方向(例えば、左から右)に傾けることを含む。いくつかの実施形態では、水平視点を補正することは、表現内の垂直線を調整することを含み、これにより、表現が、水平視点が表現内で変更したかのように視覚的に表示される。 In FIG. 24I, the device 600 detects a gesture 2450i (a leftward flick or drag gesture) directed at the adjustable horizontal perspective control 2258c. As shown in FIG. 24J, in response to detecting the gesture 2450i, the device 600 performs techniques similar to those described above in response to the device 600 detecting gestures 2250d, 2250i, and/or 2250o. Specifically, the device 600 moves the horizontal perspective control indication 2258c1 to a new position on the adjustable horizontal perspective control 2258c based on the magnitude and direction (e.g., speed, length of the swipe) of the gesture 2450i. In response to detecting the gesture 2450i, the device 600 also displays a representation 2430g, which is a version of the representation 2430f adjusted based on a value corresponding to the new position of the horizontal perspective control indication 2258c1 on the adjustable horizontal perspective control 2258c. As a result, the device 600 modifies the horizontal lines 2436a-2436b to converge less when moving the media user interface from right to left. In FIG. 24J, as the convergence of the horizontal lines 2436a-2436b is reduced, the length of the lateral face 2432b of the rectangular prism 2432 is reduced. In some embodiments, correcting the horizontal perspective distortion includes tilting the viewpoint of the representation horizontally (e.g., from left to right). In some embodiments, correcting the horizontal viewpoint includes adjusting vertical lines in the representation, such that the representation appears visually as if the horizontal viewpoint has changed in the representation.

いくつかの実施形態では、垂直遠近歪及び/又は水平遠近歪を調整するとき、デバイス600は、表現に表示されていない追加のコンテンツを利用して、キャプチャされたメディア内の垂直又は水平遠近歪を調整する(例えば、低減する又は増加させる)。いくつかの実施形態では、水平線、垂直、又は水平の表現を調整後、デバイス600は、調整された表現内に含まれない視覚コンテンツのグレーアウト(例えば、半透明)部分を表示する。いくつかの実施形態では、デバイス600は、調整された表現と、調整された表現内に含まれない視覚コンテンツとの間に視覚境界部を表示する。 In some embodiments, when adjusting vertical and/or horizontal perspective distortion, device 600 adjusts (e.g., reduces or increases) the vertical or horizontal perspective distortion in the captured media using additional content not displayed in the representation. In some embodiments, after adjusting the horizon, vertical, or horizontal representation, device 600 displays grayed-out (e.g., semi-transparent) portions of visual content not included in the adjusted representation. In some embodiments, device 600 displays a visual boundary between the adjusted representation and the visual content not included in the adjusted representation.

図24J~図24Oは、アスペクト比調整モードで動作するデバイス600を示す。アスペクト比調整モードで動作するとき、デバイス600は、図8J及び図14A~図14Uに関して上述したものと同様の技術を使用する。図24Jでは、デバイス600は、アスペクト比コントロールアフォーダンス626cに対応するジェスチャ2450jを検出する。図24Kに示すように、ジェスチャ2450jを検出したことに応じて、デバイス600は、表現2430g上に視覚境界部608を表示する。図24Kでは、図14Aと同様に、デバイス600は、視覚部分1404と暗色部分1406との間に視覚境界部608を表示する。視覚部分1404は、既定の入力位置1410A~1410Dを含む。加えて、ジェスチャ2450jを検出したことに応じて、デバイス600は、水平アスペクト比コントロールアフォーダンス626c1及び垂直アスペクト比コントロールアフォーダンス626c2を表示する。視覚境界部608の水平側がその垂直側よりも長いため、デバイス600は、(例えば、太さ、ハイライト)水平アスペクト比コントロールアフォーダンス626c1を強調し、水平インジケータ2462dを表示して、視覚境界部608が水平向き(例えば、横向き)であることを示す。更に、ジェスチャ2450jを検出したことに応じて、デバイス600は、元の(オリジナル)アスペクト比ツール2470a、自由形式アスペクト比ツール2470b、正方形(スクエア)のアスペクト比ツール2470c、及び3:2アスペクト比ツール2470ddを含む、アスペクト比ツールアフォーダンス2470を表示する。デバイス600は、表現2430gのアスペクト比が3:2アスペクト比であることを判定する。したがって、デバイス600は、3:2アスペクト比ツール2470ddの周囲にアスペクト比選択インジケータ2470dd1を表示する。いくつかの実施形態では、アスペクト比ツールアフォーダンス2470に関連して本明細書に記載される構成要素及び技術は、上述のアスペクト比コントロール1470及び818に関連して述べられたものと同じである。 24J-24O show device 600 operating in aspect ratio adjustment mode. When operating in aspect ratio adjustment mode, device 600 uses techniques similar to those described above with respect to FIG. 8J and FIG. 14A-14U. In FIG. 24J, device 600 detects gesture 2450j corresponding to aspect ratio control affordance 626c. As shown in FIG. 24K, in response to detecting gesture 2450j, device 600 displays visual border 608 on representation 2430g. In FIG. 24K, similar to FIG. 14A, device 600 displays visual border 608 between visual portion 1404 and dark portion 1406. Visual portion 1404 includes predefined input positions 1410A-1410D. Additionally, in response to detecting gesture 2450j, device 600 displays horizontal aspect ratio control affordance 626c1 and vertical aspect ratio control affordance 626c2. Because the horizontal sides of visual border 608 are longer than its vertical sides, device 600 enhances (e.g., thickens, highlights) horizontal aspect ratio control affordance 626c1 and displays horizontal indicator 2462d to indicate that visual border 608 is horizontally oriented (e.g., landscape). Further, in response to detecting gesture 2450j, device 600 displays aspect ratio tool affordances 2470, including original aspect ratio tool 2470a, freeform aspect ratio tool 2470b, square aspect ratio tool 2470c, and 3:2 aspect ratio tool 2470dd. Device 600 determines that the aspect ratio of representation 2430g is a 3:2 aspect ratio. Thus, the device 600 displays an aspect ratio selection indicator 2470dd1 around the 3:2 aspect ratio tool 2470dd. In some embodiments, the components and techniques described herein in connection with the aspect ratio tool affordance 2470 are the same as those described in connection with the aspect ratio controls 1470 and 818 above.

図24Kでは、デバイス600は、既定の入力位置1410Bに向けられたジェスチャ2450k(例えば、下向きドラッグジェスチャ)を検出する。図24Lに示すように、ジェスチャ2450kを検出したことに応じて、デバイス600は、図14E~図14Iの1495Bに関連して上述したものと同様の技術を使用して、視覚境界部608のアスペクト比を変更する。デバイス600が視覚境界部608のアスペクト比を変更すると、デバイス600は、視覚境界部608のアスペクト比(例えば、視覚境界部608に取り囲まれた表現のアスペクト比と同じ)が既定のアスペクト比(例えば、正方形、3:2)ではないことを判定する。この判定の結果として、デバイス600は、アスペクト比ツール2470ddの周りのアスペクト比選択インジケータ2470dd1を表示することを停止し、自由形式アスペクト比ツール2470ddの周りにアスペクト比選択インジケータ2470b1を表示する。視覚境界部608のアスペクト比が変化するとき、デバイス600はまた、視覚境界部608の垂直側が視覚境界部608の水平側よりも大きいことを判定する。この判定の結果として、デバイス600は、水平アスペクト比コントロールアフォーダンス626c1を強調する代わりに、(例えば、太さ、ハイライト)垂直アスペクト比コントロールアフォーダンス626c2を強調する。デバイス600は、水平インジケータ2462dの表示を、垂直インジケータ2462eに置き換える。更には、デバイス600が、視覚境界部608の垂直側が視覚境界部608の水平側よりも大きいことを判定するため(例えば、垂直又は縦向き)、デバイス600は、3:2アスペクト比ツール2470ddを、2:3アスペクト比ツール2470d(例えば、逆のアスペクト比ツール)に置き換え、視覚境界部608の幅が視覚境界部608の長さよりも短いという比較と一致するようにする。 In FIG. 24K, device 600 detects gesture 2450k (e.g., a downward drag gesture) directed toward predefined input location 1410B. As shown in FIG. 24L, in response to detecting gesture 2450k, device 600 modifies the aspect ratio of visual border 608 using techniques similar to those described above in connection with 1495B of FIGS. 14E-14I. As device 600 modifies the aspect ratio of visual border 608, device 600 determines that the aspect ratio of visual border 608 (e.g., the same as the aspect ratio of the representation surrounded by visual border 608) is not the predefined aspect ratio (e.g., square, 3:2). As a result of this determination, device 600 ceases displaying aspect ratio selection indicator 2470dd1 around aspect ratio tool 2470dd and displays aspect ratio selection indicator 2470b1 around freeform aspect ratio tool 2470dd. As the aspect ratio of the visual border 608 changes, the device 600 also determines that the vertical sides of the visual border 608 are larger than the horizontal sides of the visual border 608. As a result of this determination, instead of emphasizing the horizontal aspect ratio control affordance 626c1, the device 600 emphasizes (e.g., thickens, highlights) the vertical aspect ratio control affordance 626c2. The device 600 replaces the display of the horizontal indicator 2462d with a vertical indicator 2462e. Furthermore, because the device 600 determines that the vertical sides of the visual border 608 are larger than the horizontal sides of the visual border 608 (e.g., vertical or portrait orientation), the device 600 replaces the 3:2 aspect ratio tool 2470dd with a 2:3 aspect ratio tool 2470d (e.g., an inverse aspect ratio tool) to match the comparison that the width of the visual border 608 is smaller than the length of the visual border 608.

図24Lでは、デバイス600は、2:3アスペクト比ツール2470dの位置に対応するタップジェスチャ2450lである。図24Mに示すように、タップジェスチャ2450lを検出したことに応じて、デバイス600は、アスペクト比ツールアフォーダンス2470を右にシフトすることにより、メディア編集ユーザインタフェースの中心に、2:3アスペクト比ツール2470dを表示する。図24Mでは、デバイス600は、元のアスペクト比ツール2470a及び自由形式アスペクト比ツール2470bを表示することを停止し、3:4アスペクト比ツール2470e及び3:5アスペクト比ツール2470fを、2:3アスペクト比ツール2470dの右に表示する。デバイス600はまた、アスペクト比ツール2470dが選択されることを示すために、2:3アスペクト比ツール2470dの周囲に選択アスペクト比選択インジケータ2470d1を表示する。ジェスチャ2450lを検出したことに応じて、デバイス600はまた、自動的に(更なるユーザ入力なしで)、2:3アスペクト比で視覚境界部608を表示する。 In FIG. 24L, the device 600 taps the gesture 2450l corresponding to the location of the 2:3 aspect ratio tool 2470d. In response to detecting the tap gesture 2450l, the device 600 displays the 2:3 aspect ratio tool 2470d in the center of the media editing user interface by shifting the aspect ratio tool affordance 2470 to the right, as shown in FIG. 24M. In FIG. 24M, the device 600 stops displaying the original aspect ratio tool 2470a and the freeform aspect ratio tool 2470b, and displays the 3:4 aspect ratio tool 2470e and the 3:5 aspect ratio tool 2470f to the right of the 2:3 aspect ratio tool 2470d. The device 600 also displays a selection aspect ratio selection indicator 2470d1 around the 2:3 aspect ratio tool 2470d to indicate that the aspect ratio tool 2470d is selected. In response to detecting gesture 2450l, device 600 also automatically (without further user input) displays visual border 608 in a 2:3 aspect ratio.

図24Mでは、デバイス600は、水平アスペクト比コントロールアフォーダンス626c1の位置に対応するタップジェスチャ2450mを検出する。図24Nに示すように、ジェスチャタッピング2450mを検出したことに応じて、デバイス600は、自動的に(更なるユーザ入力なしで)、2:3アスペクト比での視覚境界部608の表示を、3:2アスペクト比での視覚境界部608の表示に置き換える。特に、デバイス600は、表現2430gを回転させることなく、この置き換えを実行する(例えば、視覚境界部608のあるアスペクト比を逆のアスペクト比に変更する)。更には、ジェスチャ2450mを検出したことに応じて、デバイス600は、水平アスペクト比アフォーダンス626c1を再強調し、かつ垂直アスペクト比アフォーダンス626c2を強調することをやめる。デバイス600はまた、アスペクト比ツールアフォーダンス2470を、図24Mに表示されるものである逆のアスペクト比ツールに変更する(例えば、2:3アスペクト比ツール2470dから対応する3:2アスペクト比ツール2470dd、3:4アスペクト比ツール2470eから対応する4:3アスペクト比ツール2470ee、及び5:3アスペクト比ツール2470fから対応する3:5アスペクト比ツール2470ffに変更する)。 In FIG. 24M, device 600 detects tap gesture 2450m corresponding to the location of horizontal aspect ratio control affordance 626c1. As shown in FIG. 24N, in response to detecting gesture tapping 2450m, device 600 automatically (without further user input) replaces the display of visual border 608 in a 2:3 aspect ratio with a display of visual border 608 in a 3:2 aspect ratio. Notably, device 600 performs this replacement without rotating representation 2430g (e.g., changing one aspect ratio of visual border 608 to the opposite aspect ratio). Moreover, in response to detecting gesture 2450m, device 600 re-emphasizes horizontal aspect ratio affordance 626c1 and de-emphasizes vertical aspect ratio affordance 626c2. The device 600 also changes the aspect ratio tool affordance 2470 to the inverse aspect ratio tool of the one displayed in FIG. 24M (e.g., from the 2:3 aspect ratio tool 2470d to the corresponding 3:2 aspect ratio tool 2470dd, from the 3:4 aspect ratio tool 2470e to the corresponding 4:3 aspect ratio tool 2470ee, and from the 5:3 aspect ratio tool 2470f to the corresponding 3:5 aspect ratio tool 2470ff).

図24Nでは、デバイス600は、アスペクト比コントロールアフォーダンス626cに対応する位置でのタップジェスチャ2450nを検出する。図24Oに示すように、タップジェスチャ2450nを検出したことに応じて、デバイス600は、視覚境界部608(例えば、視覚部分1404)に取り囲まれた視覚コンテンツを含む、表現2430hを表示する。したがって、表現2430hは、3:2アスペクト比のアスペクト比を有し、これは、タップジェスチャ2450mを検出したことに応じて、表示された。タップジェスチャ2450nがまた、アスペクト比調整モードで動作しないようにデバイス600を構成するため、デバイス600は、画像コンテンツ編集ツールアフォーダンス2218を再表示し、かつアスペクト比編集ツールアフォーダンス2470を表示することを停止する。 In FIG. 24N, device 600 detects tap gesture 2450n at a location corresponding to aspect ratio control affordance 626c. As shown in FIG. 24O, in response to detecting tap gesture 2450n, device 600 displays representation 2430h including visual content surrounded by visual border 608 (e.g., visual portion 1404). Representation 2430h thus has an aspect ratio of 3:2 aspect ratio, which was displayed in response to detecting tap gesture 2450m. Because tap gesture 2450n also configures device 600 not to operate in aspect ratio adjustment mode, device 600 redisplays image content editing tool affordance 2218 and stops displaying aspect ratio editing tool affordance 2470.

図24Oでは、デバイス600は、フリップコントロールアフォーダンス2402aに対応する位置でのタップジェスチャ2450oを検出する。図24Pに示すように、タップジェスチャ2450oを検出したことに応じて、デバイス600は、表現2430iを表示する。表現2430iは、表現2430hの視覚コンテンツから水平に反転された(例えば、水平鏡像を作成する)視覚コンテンツを含む。例えば、矩形プリズム2432上に座っている人は、表現2430h内の右側から表現2430iの左側に移動している。いくつかの実施形態では、別のフリップコントロールアフォーダンス上のジェスチャ2450oを検出したことに応じて、デバイス600は、表現を垂直に反転させ(例えば、垂直鏡像を作成する)、鳥2440は、調整された表現の底部に表示される。 In FIG. 24O, device 600 detects tap gesture 2450o at a location corresponding to flip control affordance 2402a. As shown in FIG. 24P, in response to detecting tap gesture 2450o, device 600 displays representation 2430i. Representation 2430i includes visual content that is flipped horizontally (e.g., creating a horizontal mirror image) from the visual content of representation 2430h. For example, a person sitting on rectangular prism 2432 has moved from the right side in representation 2430h to the left side of representation 2430i. In some embodiments, in response to detecting gesture 2450o on another flip control affordance, device 600 flips the representation vertically (e.g., creating a vertical mirror image) and bird 2440 appears at the bottom of the adjusted representation.

図24Pでは、デバイス600は、回転コントロールアフォーダンス2402bに対応する位置でのタップジェスチャ2450pを検出する。図24Qに示すように、タップジェスチャ2450pを検出したことに応じて、デバイス600は、表現2430iを回転させて、表現2430jを表示する。表現2430jは、2:3アスペクト比を有し、これは、表現2430iの逆のアスペクト比である。しかしながら、ジェスチャが水平アスペクト比コントロールアフォーダンス626c1又は垂直アスペクト比コントロールアフォーダンス626c2に向けられていると検出されたときとは対照的に、デバイス600は、回転コントロールアフォーダンス2402bに対応する位置でのジェスチャに応じて、表現全体を回転させる。 In FIG. 24P, device 600 detects tap gesture 2450p at a location corresponding to rotate control affordance 2402b. As shown in FIG. 24Q, in response to detecting tap gesture 2450p, device 600 rotates representation 2430i to display representation 2430j. Representation 2430j has a 2:3 aspect ratio, which is the inverse aspect ratio of representation 2430i. However, in contrast to when the gesture is detected to be directed toward horizontal aspect ratio control affordance 626c1 or vertical aspect ratio control affordance 626c2, device 600 rotates the entire representation in response to the gesture at a location corresponding to rotate control affordance 2402b.

図24Qでは、デバイス600は、リセットアフォーダンス2402dに対応する位置でのタップジェスチャ2450qを検出する。図24Rに示すように、リセットアフォーダンス2402d上のタップジェスチャ2450qを検出したことに応じて、デバイス600は、表現2430bを表示し、図24B~図24Qにおける表現を行う調整を行わない。調整を再設定すると、デバイス600は、調整可能な画像コンテンツコントロール2258a~2258cに対応する以前の調整された値を再設定する(デバイス600が調整可能な水平遠近歪コントロール2258c上の水平遠近歪インジケーション2258c1を図24Iのその初期位置に動かすことによって示されるように)。その結果、画像コンテンツ値インジケータ2248a~2248cは、調整可能な画像コンテンツコントロール2258a~2258cの周りの表示を停止させる。 In FIG. 24Q, the device 600 detects a tap gesture 2450q at a location corresponding to the reset affordance 2402d. As shown in FIG. 24R, in response to detecting the tap gesture 2450q on the reset affordance 2402d, the device 600 displays the representation 2430b and does not make the adjustments made to the representations in FIG. 24B-Q. Upon resetting the adjustments, the device 600 resets the previously adjusted values corresponding to the adjustable image content controls 2258a-2258c (as shown by the device 600 moving the horizontal perspective distortion indication 2258c1 on the adjustable horizontal perspective distortion control 2258c to its initial position in FIG. 24I). As a result, the image content value indicators 2248a-2248c stop displaying around the adjustable image content controls 2258a-2258c.

図24Rでは、デバイス600は、自動調整アフォーダンス1036bに対応する位置でのタップジェスチャ2450rを検出する。図24Sに示すように、タップジェスチャ2450rを検出したことに応じて、デバイス600は、追加の入力なしで自動的に、表現2430kを表示する。表現2430kは、デバイス600が自動調整アルゴリズムに基づいて調整された表現2430bのバージョンである。図24Rにおいて、水平線2438の位置、垂直遠近歪(例えば、収束がより少ない垂直線2434a~2434c)、及び水平遠近歪(例えば、収束がより少ない水平線2436a~2436b)は、表現2430aの水平線2438の位置、垂直遠近歪、水平遠近歪とは異なる。 In FIG. 24R, device 600 detects tap gesture 2450r at a location corresponding to auto-adjust affordance 1036b. As shown in FIG. 24S, in response to detecting tap gesture 2450r, device 600 automatically displays representation 2430k without additional input. Representation 2430k is a version of representation 2430b that device 600 has adjusted based on the auto-adjust algorithm. In FIG. 24R, the position of horizontal line 2438, vertical perspective distortion (e.g., vertical lines 2434a-2434c that converge less), and horizontal perspective distortion (e.g., horizontal lines 2436a-2436b that converge less) are different from the position of horizontal line 2438, vertical perspective distortion, and horizontal perspective distortion of representation 2430a.

図24Sでは、デバイス600は、取消アフォーダンス1036dに対応する位置でのタップジェスチャ2450sを検出する。図24Tに示すように、タップジェスチャ2450sを検出したことに応じて、デバイス600は、任意の調整なしのキャプチャされたメディアの表現である表現2430aを表示する。図24Tでは、デバイス600は、自動調整アフォーダンス1036bに対応する位置でのジェスチャ2450tを検出する。図24Uに示すように、タップジェスチャ2450tを検出したことに応じて、デバイス600は、追加の入力なしで自動的に、表現2430kを表示し、ここで、表現2430a(例えば、表現2430bと同じ)は、自動調整アルゴリズムに基づいて調整されている。 In FIG. 24S, device 600 detects tap gesture 2450s at a location corresponding to cancel affordance 1036d. As shown in FIG. 24T, in response to detecting tap gesture 2450s, device 600 displays representation 2430a, which is a representation of the captured media without any adjustment. In FIG. 24T, device 600 detects gesture 2450t at a location corresponding to auto-adjust affordance 1036b. As shown in FIG. 24U, in response to detecting tap gesture 2450t, device 600 automatically, without additional input, displays representation 2430k, where representation 2430a (e.g., the same as representation 2430b) has been adjusted based on the auto-adjust algorithm.

図24Uでは、デバイス600は、表現2430kに向けられたジェスチャ2450u(例えば、スワイプジェスチャ)を検出する。図24Vに示すように、ジェスチャ2450uを検出したことに応じて、デバイス600は、キャプチャされたメディアの表現2480aを表示する。図24Vにおいて、キャプチャされたメディアは、ライブアニメーション化された画像メディアに対応する。 In FIG. 24U, device 600 detects gesture 2450u (e.g., a swipe gesture) directed at representation 2430k. As shown in FIG. 24V, in response to detecting gesture 2450u, device 600 displays representation 2480a of captured media. In FIG. 24V, the captured media corresponds to live animated image media.

図24V~図24ABは、アニメーション化された画像メディア(例えば、図24V~図24Y)及びビデオメディア(例えば、図24Z~図24AB)を編集するように構成されているデバイス600を示す。具体的には、図24V~図24ABは、デバイス600がアニメーション化された画像メディア及びビデオ画像メディアを編集するように構成されるときに、メディア編集ユーザインタフェースが類似のユーザインタフェース要素を表示することを示す。メディアの視覚特性(例えば、輝度、自動視覚特性値)を使用して、アニメーション化された画像メディア及びビデオ画像メディアを編集する、図22AE~図22AMとは対照的に、図24V~図24ABは、画像コンテンツを使用して、アニメーション化された画像メディア及びビデオ画像メディアを類似の方法(例えば、表現の水平線の位置を変更する)で編集することを示す。 24V-24AB illustrate device 600 configured to edit animated image media (e.g., 24V-24Y) and video media (e.g., 24Z-24AB). Specifically, 24V-24AB illustrate that when device 600 is configured to edit animated image media and video image media, the media editing user interface displays similar user interface elements. In contrast to 22AE-22AM, which uses visual properties of the media (e.g., brightness, automatic visual property values) to edit animated image media and video image media, 24V-24AB illustrate using image content to edit animated image media and video image media in a similar manner (e.g., changing the position of the horizon of the representation).

図24Vに示すように、デバイス600は、キャプチャされたアニメーション化された画像メディアの表現2480kを表示する。表現2480kがアニメーション化された画像メディアの表現であるため、デバイス600は、アニメーション化された画像メディア編集モードアフォーダンス2210eを表示する。アニメーション化された画像メディア編集モードアフォーダンス2210eの下のモード選択インジケータ2202eによって示されるように、アニメーション化された画像メディア編集モードアフォーダンス2210eが選択されるため、デバイス600は、アニメーション化された画像メディアアフォーダンス2220を表示する(例えば、図22AEに関連して上述したように)。 As shown in FIG. 24V, device 600 displays representation 2480k of the captured animated image media. Because representation 2480k is a representation of animated image media, device 600 displays animated image media editing mode affordance 2210e. Because animated image media editing mode affordance 2210e is selected, as indicated by mode selection indicator 2202e below animated image media editing mode affordance 2210e, device 600 displays animated image media affordance 2220 (e.g., as described above in connection with FIG. 22AE).

図24Vでは、デバイス600は、画像コンテンツ編集モードアフォーダンス2210dに対応する位置でのタップジェスチャ2450vを検出する。図24Wに示すように、タップジェスチャ2450vを検出したことに応じて、デバイス600は、アニメーション化された画像メディア内の表現2480k(又はサムネイル表現2420k)の位置に対応する位置に、スクラバインジケーションコントロール2240aとともにスクラバ2240を表示する。更には、デバイス600は、アニメーション化された画像メディアアフォーダンス2220を、画像コンテンツ編集ツールアフォーダンス2218に置き換え、画像コンテンツ編集モードアフォーダンス2210dの下にモード選択インジケータ2202dを、図24Cに関連して論じられるものと同様の技術を使用して表示する。 In FIG. 24V, the device 600 detects a tap gesture 2450v at a location corresponding to the image content editing mode affordance 2210d. As shown in FIG. 24W, in response to detecting the tap gesture 2450v, the device 600 displays the scrubber 2240 with the scrubber indication control 2240a at a location corresponding to the location of the representation 2480k (or thumbnail representation 2420k) in the animated image media. Furthermore, the device 600 replaces the animated image media affordance 2220 with the image content editing tool affordance 2218 and displays a mode selection indicator 2202d below the image content editing mode affordance 2210d using a technique similar to that discussed in connection with FIG. 24C.

図24Wでは、デバイス600は、タップジェスチャ2450wを検出する。図24Xに示すように、タップジェスチャ2450wを検出したことに応じて、デバイス600は、(例えば、自動的に、ユーザ入力なしで)、表現2480kを歪み矯正して、表現2480lを表示する。図24Xでは、デバイス600は、スクラバ2240に向けられたジェスチャ2450x(例えば、左向きドラッグジェスチャ)を検出する。図24Vに示すように、ジェスチャ2450xを検出したことに応じて、デバイス600は、スクラバインジケーションコントロール2240aを、スクラバ2240上の新しい位置に動かす。具体的には、デバイス600は、スクラバインジケーションコントロール2240aを、図24Xのスクラバインジケーションコントロール2240aの位置の左にある新しい位置に動かす。更に、ジェスチャ2450xを検出したことに応じて、デバイス600は、表現2480lを、表現2480mに置き換える。表現2480mは、スクラバ2240上のスクラバインジケーションコントロール2240aの新しい位置に対応する時点のアニメーション化された画像のうちの1つを示す。したがって、表現2480mは、表現2480l(例えば、又は2480k)が対応するアニメーション化された画像メディア内の時間とは異なる、アニメーション化された画像メディア内の時間に対応する。図24Vに示すように、表現2480kを表示している間に、デバイス600が画像コンテンツ編集ツールアフォーダンス2218の1つ以上の現在値を調整して、表現2480lを表示したが、表現2480mはまた、画像コンテンツ編集ツールアフォーダンス2218の調整された1つ以上の現在値に基づいて調整された。したがって、アニメーション化された画像メディア内の特定の時点での表現のうちの1つを調整することはまた、アニメーション化された画像メディア内の異なる時点での他の表現を調整する。そのため、デバイス600が1つ以上の画像コンテンツ編集ツール値に関連付けられた1つ以上の現在値を調整している間に、アニメーション化された画像メディアの表現が表示されない場合であっても、ユーザがスクラバ2240を使用して、1つ以上の現在値を調整した後の表現への変化を閲覧できる。デバイス600は、図24Z~図24ABに示すように、ビデオメディアについての類似のプロセスを完了する。図24AA及び図24ABに示すように、図24Z~24AAにおける画像コンテンツ値を調整した後、デバイス600は、ユーザがスクラバ2240を使用して、1つ以上の現在値を調整した後の異なる表現への変化を閲覧できる。 In FIG. 24W, device 600 detects tap gesture 2450w. As shown in FIG. 24X, in response to detecting tap gesture 2450w, device 600 (e.g., automatically, without user input) rectifies representation 2480k to display representation 2480l. In FIG. 24X, device 600 detects gesture 2450x (e.g., a leftward drag gesture) directed toward scrubber 2240. As shown in FIG. 24V, in response to detecting gesture 2450x, device 600 moves scrubber indication control 2240a to a new position on scrubber 2240. Specifically, device 600 moves scrubber indication control 2240a to a new position to the left of the position of scrubber indication control 2240a in FIG. 24X. Further, in response to detecting gesture 2450x, device 600 replaces representation 2480l with representation 2480m, which shows one of the animated images at a time corresponding to the new position of scrubber indication control 2240a on scrubber 2240. Thus, representation 2480m corresponds to a time in the animated image media that is different from the time in the animated image media to which representation 2480l (e.g., or 2480k) corresponds. As shown in FIG. 24V, while displaying representation 2480k, device 600 adjusted one or more current values of image content editing tool affordances 2218 to display representation 2480l, but representation 2480m was also adjusted based on the adjusted one or more current values of image content editing tool affordances 2218. Thus, adjusting one of the representations at a particular time in the animated image media also adjusts the other representation at a different time in the animated image media. Thus, even if the animated image media representation is not displayed while the device 600 is adjusting one or more current values associated with one or more image content editing tool values, the user can use the scrubber 2240 to view the changes to the representation after adjusting the one or more current values. The device 600 completes a similar process for video media, as shown in Figures 24Z-24AB. As shown in Figures 24AA and 24AB, after adjusting the image content values in Figures 24Z-24AA, the device 600 can allow the user to use the scrubber 2240 to view the changes to a different representation after adjusting one or more current values.

図25A~図25Bは、いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。方法2500は、表示デバイス(例えば、タッチ感知ディスプレイ)を備えたデバイス(例えば、100、300、500、600)で実行される。方法2500のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 25A-25B are flow diagrams illustrating a method for editing media captured using an electronic device, according to some embodiments. Method 2500 is performed on a device (e.g., 100, 300, 500, 600) with a display device (e.g., a touch-sensitive display). Some operations of method 2500 are optionally combined, the order of some operations is optionally changed, and some operations are optionally omitted.

いくつかの実施形態では、電子デバイス(例えば、600)は、コンピュータシステムである。コンピュータシステムは、任意選択的に、ディスプレイ生成構成要素と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the electronic device (e.g., 600) is a computer system. The computer system is optionally in communication (e.g., wired communication, wireless communication) with a display generation component and with one or more input devices. The display generation component is configured to provide visual output, such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. The one or more input devices are configured to receive input, such as a touch-sensitive surface that receives user input. In some embodiments, the one or more input devices are integrated with the computer system. In some embodiments, the one or more input devices are separate from the computer system. Thus, the computer system can transmit data (e.g., image data or video data) via a wired or wireless connection to an integrated or external display generation component to visually generate content (e.g., using a display device) and can receive wired or wireless connection input from one or more input devices.

後述するように、方法2500は、キャプチャされたメディアを編集するための直感的な仕方を提供する。この方法は、メディアを編集する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアを編集することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, the method 2500 provides an intuitive way to edit captured media. The method reduces the cognitive burden on the user when editing media, thereby creating a more efficient human-machine interface. For battery-operated computing devices, enabling users to edit media more quickly and efficiently conserves power and extends the time between battery charges.

電子デバイス(例えば、600)は、表示デバイス(例えば、タッチ感知ディスプレイ)を介して、第1の視覚メディア(例えば、画像、ビデオのフレーム)の第1の表現(例えば、表現2430a~2430k)(2504)と、第1の視覚メディアの遠近歪(例えば、2218-c)(例えば、(画像の現在の水平線、垂直線、平行線の)歪み状態、遠近歪状態)に対する現在の調整量(例えば、垂直度、水平度、又は水平線調整度)のインジケーション(例えば、2258a1~2258c1)(例えば、スライダ上の第1の位置にあるスライダコントロール)を含む調整可能なコントロール(2506)(例えば、2258a~2258c)(例えば、グラフィカルコントロール要素(例えば、スライダ))と、を同時に表示することを含む第1のユーザインタフェース(例えば、クロッピングユーザインタフェース及び/又はプロスペクティブ編集ユーザインタフェース)を表示する(2502)。 The electronic device (e.g., 600) displays (2502) a first user interface (e.g., a cropping user interface and/or a prospective editing user interface) that includes simultaneously displaying, via a display device (e.g., a touch-sensitive display), a first representation (e.g., representations 2430a-2430k) (2504) of a first visual media (e.g., an image, a frame of a video) and an adjustable control (2506) (e.g., 2258a-2258c) (e.g., a graphical control element (e.g., a slider)) that includes an indication (e.g., 2258a1-2258c1) (e.g., a slider control in a first position on the slider) of a current adjustment amount (e.g., vertical degree, horizontal degree, or horizon adjustment degree) to the perspective distortion (e.g., 2218-c) (e.g., distortion state (of the current horizontal, vertical, parallel lines of the image), perspective distortion state) of the first visual media.

いくつかの実施形態では、第1のユーザインタフェースは、第1のアフォーダンス(例えば、2218c)を含み(2508)、第1のアフォーダンスは、選択されると、第1の視覚メディアの水平遠近歪に対する現在の調整量を示すように、調整可能なコントロールのインジケーションを更新し、かつユーザ入力に基づいて第1の視覚メディアの水平遠近歪に対する現在の調整量の調整を可能にするように調整可能なコントロールを構成する。いくつかの実施形態では、水平遠近歪調整アフォーダンス上のタップを検出したことに応じて、電子デバイスは、第1の視覚メディアの遠近歪の現在の調整量が水平遠近歪の調整の現在の量に対応するように、調整可能なコントロール(例えば、2545c)を構成する。いくつかの実施形態では、第1のユーザインタフェースは、第2のアフォーダンス(例えば、2218b)を含み(2510)、第2のアフォーダンスは、選択されると、第1の視覚メディアの垂直遠近歪に対する現在の調整量を示すように、調整可能なコントロールのインジケーションを更新し、かつユーザ入力に基づいて第1の視覚メディアの垂直遠近歪に対する現在の調整量の調整を可能にするように調整可能なコントロールを構成する。いくつかの実施形態では、垂直遠近歪調整アフォーダンス上のタップを検出したことに応じて、電子デバイスは、第1の視覚メディアの遠近歪の現在の調整量が垂直遠近歪の調整の現在の量に対応するように、調整可能なコントロール(例えば、2454b)を構成する。 In some embodiments, the first user interface includes (2508) a first affordance (e.g., 2218c) that, when selected, updates an indication of the adjustable control to indicate a current amount of adjustment to the horizontal perspective distortion of the first visual media and configures the adjustable control to enable adjustment of the current amount of adjustment to the horizontal perspective distortion of the first visual media based on user input. In some embodiments, in response to detecting a tap on the horizontal perspective distortion adjustment affordance, the electronic device configures the adjustable control (e.g., 2545c) such that the current amount of adjustment of the perspective distortion of the first visual media corresponds to a current amount of adjustment of the horizontal perspective distortion. In some embodiments, the first user interface includes (2510) a second affordance (e.g., 2218b) that, when selected, updates an indication of the adjustable control to indicate a current adjustment to the vertical perspective distortion of the first visual media and configures the adjustable control to allow adjustment of the current adjustment to the vertical perspective distortion of the first visual media based on user input. In some embodiments, in response to detecting a tap on the vertical perspective adjustment affordance, the electronic device configures the adjustable control (e.g., 2454b) such that the current adjustment of the perspective distortion of the first visual media corresponds to a current amount of adjustment of the vertical perspective distortion.

いくつかの実施形態では、第1のアフォーダンス(例えば、2218c)及び第2のアフォーダンス(例えば、2218b)を(例えば、同時に)表示している間に、選択されると、第1の視覚メディアの第1の表現内の視覚コンテンツを回転させる現在の調整量を示す(例えば、視覚コンテンツ内の第1の実視水平線を歪み矯正する)ように、調整可能なコントロールのインジケーションを更新する、第3のアフォーダンス(例えば、2218a)を同時に表示する(2512)。いくつかの実施形態では、視点歪み矯正調整アフォーダンス上のタップを検出したことに応じて、電子デバイスは、第1の視覚メディアの水平線補正の現在の調整量が水平線補正の調整の現在の量に対応するように、調整可能なコントロール(例えば、2454a)を構成する。 In some embodiments, while displaying (e.g., simultaneously) the first affordance (e.g., 2218c) and the second affordance (e.g., 2218b), the electronic device simultaneously displays (2512) a third affordance (e.g., 2218a) that, when selected, updates an indication of the adjustable control to indicate a current amount of adjustment to rotate the visual content in the first representation of the first visual media (e.g., to skew correct a first visual horizon in the visual content). In some embodiments, in response to detecting a tap on the viewpoint skew correction adjustment affordance, the electronic device configures the adjustable control (e.g., 2454a) such that the current amount of adjustment of the horizon correction of the first visual media corresponds to the current amount of adjustment of the horizon correction.

表示デバイス上に、第1のユーザインタフェースを表示している間に、電子デバイスは、調整可能なコントロール(例えば、2258a~2258c)に向けられた(例えば、上で)ジェスチャ(例えば、スワイプ又はドラッグジェスチャ)を含むユーザ入力(例えば、2450d、2450g、2450i)を検出する(2514)。 While displaying the first user interface on the display device, the electronic device detects (2514) a user input (e.g., 2450d, 2450g, 2450i) including a gesture (e.g., a swipe or drag gesture) directed at (e.g., up) an adjustable control (e.g., 2258a-2258c).

調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出したことに応じて、電子デバイスは、表示デバイス上に、ジェスチャの大きさに基づいて選択された遠近歪に対するそれぞれの調整量(例えば、ジェスチャが第1の大きさを有するときに第1の量によって現在の量の遠近歪、及びジェスチャが第1の大きさとは異なる第2の大きさを有するときに第1の量とは異なる第2の量によって遠近歪を調整する現在の量の遠近歪を調整する)で第1の視覚メディア(例えば、画像、ビデオのフレーム)の第2の表現(例えば、2530c~2430k)を表示する(2516)。いくつかの実施形態では、第2の表現が特定の位置(例えば、表示を停止する前の第1の表現の以前の位置)に表示されると、第2の表現を、第1の表現に置き換える。編集可能パラメータを調整する調整可能なコントロールを提供すること、及び調整可能なコントロールに向けられた入力に応じて、調整された表現を表示することにより、ユーザが意図せずに表現を変更することを回避すること、及び同時に、調整可能なコントロールへの入力が入力に基づいて表現を変更することをユーザが認識できるようにすることにより、デバイスの更なるコントロールをユーザに提供する。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In response to detecting user input including a gesture directed at the adjustable control, the electronic device displays (2516) on the display device a second representation (e.g., 2530c-2430k) of the first visual media (e.g., an image, a frame of a video) with a respective adjustment amount to the perspective distortion selected based on the magnitude of the gesture (e.g., adjusting the current amount of perspective distortion by a first amount when the gesture has a first magnitude, and adjusting the current amount of perspective distortion by a second amount different from the first amount when the gesture has a second magnitude different from the first magnitude). In some embodiments, the second representation replaces the first representation when the second representation is displayed at a particular location (e.g., a previous location of the first representation before ceasing display). Providing an adjustable control that adjusts an editable parameter and displaying the adjusted representation in response to input directed at the adjustable control provides the user with more control over the device by avoiding the user unintentionally changing the representation and at the same time allowing the user to recognize that input to the adjustable control changes the representation based on the input. Providing additional controls without cluttering the UI with additional controls displayed enhances usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、遠近歪は、水平遠近歪(例えば、2218c、2436a~2436b)に対応する。いくつかの実施形態では、第1の視覚メディアの第1の表現の水平遠近歪の量は、第1の視覚メディアの第2の表現の水平遠近歪の量とは異なる。いくつかの実施形態では、第1の表現は、水平遠近歪が少ない。 In some embodiments, the perspective distortion corresponds to horizontal perspective distortion (e.g., 2218c, 2436a-2436b). In some embodiments, the amount of horizontal perspective distortion in a first representation of the first visual media is different from the amount of horizontal perspective distortion in a second representation of the first visual media. In some embodiments, the first representation has less horizontal perspective distortion.

いくつかの実施形態では、遠近歪は、垂直遠近歪(例えば、2218b、2434a~2434b)(例えば、実世界で平行な線は画像内では平行線でないように、カメラ角度及び/又はレンズによって引き起こされる画像の歪み)に対応する。いくつかの実施形態では、第1の視覚メディアの第1の表現の垂直遠近歪の量は、第1の視覚メディアの第2の表現の垂直遠近歪の量とは異なる。いくつかの実施形態では、第1の表現は、垂直遠近歪が少ない。 In some embodiments, the perspective distortion corresponds to vertical perspective distortion (e.g., 2218b, 2434a-2434b) (e.g., image distortion caused by camera angle and/or lens such that lines that are parallel in the real world are not parallel in the image). In some embodiments, the amount of vertical perspective distortion in a first representation of the first visual media is different from the amount of vertical perspective distortion in a second representation of the first visual media. In some embodiments, the first representation has less vertical perspective distortion.

いくつかの実施形態では、第1の表現は、第1の実視水平線(例えば、2218a、2238)を含む。いくつかの実施形態では、第1の視覚メディアの第1の表現が、第1の視覚メディアの第1の表現内の視覚境界部(例えば、画像内の水平線(例えば、スカイライン))に対する回転度を含んでいる間に、電子デバイスは、第1の視覚メディアの第1の表現の回転度を変化させる入力を検出する。いくつかの実施形態では、第1の視覚メディアの第1の表現の回転度を変化させる(例えば、表現内の水平線を歪み矯正するために表現内の視覚コンテンツを回転させる)入力を検出したことに応じて、電子デバイスは、入力に基づいて判定された量だけ第1の視覚メディアの第1の表現を回転させる(例えば、画像の縁部に対して画像の水平線がまっすぐになるように、第1の視覚メディアの表現を回転させる)。 In some embodiments, the first representation includes a first visual horizon (e.g., 2218a, 2238). In some embodiments, while the first representation of the first visual media includes a degree of rotation relative to a visual boundary in the first representation of the first visual media (e.g., a horizon (e.g., skyline) in the image), the electronic device detects an input that changes the degree of rotation of the first representation of the first visual media. In some embodiments, in response to detecting an input that changes the degree of rotation of the first representation of the first visual media (e.g., rotating visual content in the representation to skew the horizon in the representation), the electronic device rotates the first representation of the first visual media by an amount determined based on the input (e.g., rotating the representation of the first visual media to straighten the horizon of the image relative to an edge of the image).

いくつかの実施形態では、第1の表現(例えば、2430g)は、第1の視覚メディアの第1の視覚コンテンツを含む。いくつかの実施形態では(例えば、図24K~図24L)、第1の視覚メディアの第1の表現が第1の視覚コンテンツ(例えば、メディアがキャプチャされたときにキャプチャされたコンテンツ)を含んでいる間に、電子デバイスは、第1の表現の第1の視覚コンテンツを変化させる1組の1つ以上の入力(例えば、自動調整アフォーダンス上のタップ、画像をクロップするために第1の位置から第2の位置への視覚境界部のドラッグ)を検出する。いくつかの実施形態では(例えば、図24K~図24L)、第1の視覚メディアの第1の表現の第1の視覚コンテンツを変化させる1組の1つ以上の入力を検出したことに応じて、電子デバイスは、第1の視覚メディアの第1の視覚コンテンツとは異なる第1の視覚メディアの第2の視覚コンテンツを含む第1の視覚メディアの第4の表現を表示する。いくつかの実施形態では(例えば、図24K~図24L)、第3の表現は、第1の表現に含まれる視覚コンテンツよりも、第1の視覚メディアの視覚コンテンツをより多く含む。いくつかの実施形態では(例えば、図24K~図24L)、第3の表現は、第1の表現に含まれる視覚コンテンツよりも、第1の視覚メディアの視覚コンテンツをより少なく含む。いくつかの実施形態では、第3の表現は、第1の表現に含まれる視覚コンテンツよりも、第1の視覚メディアの視覚コンテンツをより少なく含む。いくつかの実施形態では(例えば、図24K~24L)、第2の視覚コンテンツは、追加のコンテンツ(例えば、第1の表現に表されない視覚コンテンツデータ(例えば、メディアをキャプチャしたときからの、動作に有用なコンテンツ及びデータ)を含む、第2の視覚メディアに対応するファイルからのコンテンツ)である。 In some embodiments, the first representation (e.g., 2430g) includes a first visual content of a first visual media. In some embodiments (e.g., Figs. 24K-24L), while the first representation of the first visual media includes the first visual content (e.g., the content captured when the media was captured), the electronic device detects a set of one or more inputs that change the first visual content of the first representation (e.g., a tap on an auto-adjust affordance, dragging a visual border from a first position to a second position to crop the image). In some embodiments (e.g., Figs. 24K-24L), in response to detecting the set of one or more inputs that change the first visual content of the first representation of the first visual media, the electronic device displays a fourth representation of the first visual media that includes a second visual content of the first visual media that is different from the first visual content of the first visual media. In some embodiments (e.g., Figs. 24K-24L), the third representation includes more visual content of the first visual media than the visual content included in the first representation. In some embodiments (e.g., FIGS. 24K-24L), the third representation includes less visual content of the first visual media than the visual content included in the first representation. In some embodiments, the third representation includes less visual content of the first visual media than the visual content included in the first representation. In some embodiments (e.g., FIGS. 24K-24L), the second visual content is additional content (e.g., content from a file corresponding to the second visual media that includes visual content data not represented in the first representation (e.g., content and data useful for operation from the time the media was captured)).

いくつかの実施形態では、第1のユーザインタフェースは、自動調整アフォーダンス(例えば、1036b)を含む。いくつかの実施形態では(例えば、図24R)、電子デバイスは、自動調整アフォーダンスに対応する入力(例えば、タップジェスチャ)を検出する。いくつかの実施形態では(例えば、図24R~図24S)、自動調整アフォーダンスに対応する入力を検出したことに応じて、電子デバイスは、(例えば、第1の視覚メディアのアルゴリズム及び特性に基づいて)水平遠近歪パラメータ(例えば、水平遠近歪補正量)、垂直遠近歪パラメータ(例えば、垂直遠近歪補正量)、回転パラメータ(例えば、回転量)からなる群から選択される第1の視覚メディアの2つ以上のパラメータの現在値を自動的に(例えば、更なるユーザ入力なしで;値を指定するユーザ入力なしで)、調整する。いくつかの実施形態では、2つ以上のパラメータの選択された現在値の大きさ、方向は、視覚メディアのコンテンツの分析に基づいて、デバイスによって自動的に選択される(例えば、視覚メディアの分析に基づいて、より多くの水平遠近歪が検出されると、より多くの水平遠近歪補正が選択され、視覚メディアの分析に基づいて、より少ない水平遠近歪が検出されると、より少ない水平遠近歪補正が選択され、視覚メディアの分析に基づいて、より多くの垂直遠近歪が検出されると、より多くの垂直遠近歪補正が選択され、視覚メディアの分析に基づいて、より少ない垂直遠近歪が検出されると、より少ない垂直遠近歪補正が選択され、視覚メディアの分析に基づいて、より多くの水平線回転が検出されると、より多くの回転が選択され、視覚メディアの分析に基づいて、より少ない水平線回転が検出されると、より少ない回転が選択される)。いくつかの実施形態では、デバイスは、水平遠近歪パラメータ(例えば、量の水平遠近歪補正)、垂直遠近歪パラメータ(例えば、量の垂直遠近歪補正)、及び回転パラメータ(例えば、回転量)、及び視覚コンテンツパラメータへ変更を自動的に適用する。いくつかの実施形態では、視覚コンテンツの表現は、他のパラメータを調整している間に、(例えば、より多くの又は少ないコンテンツを表示するために)自動的にクロップされる。いくつかの実施形態では、自動調整アフォーダンスに対応する入力を検出したことに応じて、電子デバイスは、2つ以上の調整されたパラメータの調整された現在値に基づいて、第1の視覚メディアの第5の表現を(例えば、自動的に)表示する。自動調整アルゴリズムに基づいて表現を自動的に更新することにより、ユーザは、自動調整アルゴリズムが表現をどのように変化したかを迅速に判定することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the first user interface includes an auto-adjust affordance (e.g., 1036b). In some embodiments (e.g., FIG. 24R), the electronic device detects an input (e.g., a tap gesture) corresponding to the auto-adjust affordance. In some embodiments (e.g., FIGS. 24R-24S), in response to detecting the input corresponding to the auto-adjust affordance, the electronic device automatically (e.g., without further user input; without user input specifying values) adjusts (e.g., based on algorithms and characteristics of the first visual media) current values of two or more parameters of the first visual media selected from the group consisting of a horizontal perspective distortion parameter (e.g., a horizontal perspective correction amount), a vertical perspective distortion parameter (e.g., a vertical perspective correction amount), and a rotation parameter (e.g., a rotation amount). In some embodiments, the magnitude and orientation of the selected current values of two or more parameters are automatically selected by the device based on an analysis of the content of the visual media (e.g., if more horizontal perspective distortion is detected based on the analysis of the visual media, more horizontal perspective correction is selected; if less horizontal perspective distortion is detected based on the analysis of the visual media, less horizontal perspective correction is selected; if more vertical perspective distortion is detected based on the analysis of the visual media, more vertical perspective correction is selected; if less vertical perspective distortion is detected based on the analysis of the visual media, less vertical perspective correction is selected; if more horizon rotation is detected based on the analysis of the visual media, more rotation is selected; if less horizon rotation is detected based on the analysis of the visual media, less rotation is selected). In some embodiments, the device automatically applies changes to the horizontal perspective distortion parameter (e.g., amount of horizontal perspective correction), the vertical perspective distortion parameter (e.g., amount of vertical perspective correction), and the rotation parameter (e.g., amount of rotation) and the visual content parameters. In some embodiments, the representation of the visual content is automatically cropped (e.g., to show more or less content) while adjusting other parameters. In some embodiments, in response to detecting an input corresponding to the auto-adjustment affordance, the electronic device (e.g., automatically) displays a fifth representation of the first visual media based on the adjusted current values of the two or more adjusted parameters. By automatically updating the representation based on the auto-adjustment algorithm, a user can quickly determine how the auto-adjustment algorithm has changed the representation. Providing improved visual feedback to the user improves usability of the device and provides a more efficient user-device interface (e.g., by assisting the user in providing appropriate inputs and reducing user errors when operating/interacting with the device), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では(例えば、24R~24U)、自動調整アフォーダンスを含む第1のユーザインタフェースを表示している間に、電子デバイスは、第1のユーザインタフェースとは異なる第3のユーザインタフェースを表示する要求に対応する第2の1組の1つ以上の入力(例えば、第3のユーザインタフェースをナビゲーションするアフォーダンス上のタップ)を検出する。いくつかの実施形態では(例えば、24R~24U)、第2の1組の1つ以上の入力を検出したことに応じて、電子デバイスは、(例えば、メディア編集ユーザインタフェースを表示する前に、メディア編集ユーザインタフェースを表示した後に)表示デバイス上に、第3のユーザインタフェース(例えば、メディアビューワインタフェース(例えば、メディアギャラリー))を表示する。いくつかの実施形態では(例えば、24R~24U)、第3のユーザインタフェースを表示することは、第2の視覚メディアの第2の視覚コンテンツの少なくとも一部分の表現を表示することを含む。いくつかの実施形態では(例えば、24R~24U)、第2の視覚メディアが第2の視覚メディアの第2の視覚コンテンツ(例えば、第2の視覚メディアの視覚コンテンツの少なくとも一部分の表現内に表されない視覚コンテンツ)(例えば、第2の視覚メディアに対応するファイルは、表現内に表されない視覚コンテンツデータ(例えば、編集動作を含む、動作に有用なコンテンツ及びデータ)を含む)の所定の空間的境界の外側(例えば、視覚コンテンツの当初キャプチャされたフレームの外側、又は視覚コンテンツの現在クロッピングされているフレームの外側)にある追加の視覚コンテンツを含むとの判定に従って、電子デバイスは、自動調整アフォーダンス(例えば、図24Rの1036b)を表示する。いくつかの実施形態では、第2の視覚メディアが第2の視覚メディアの第2の視覚コンテンツ(例えば、第2の視覚メディアの視覚コンテンツの少なくとも一部分の表現内に表されない視覚コンテンツ)の所定の空間的境界の外側(例えば、視覚コンテンツの当初キャプチャされたフレームの外側、又は視覚コンテンツの現在クロッピングされているフレームの外側)にある追加の視覚コンテンツを含まないとの判定に従って、電子デバイスは、自動調整アフォーダンスを表示することをやめる。 In some embodiments (e.g., 24R-24U), while displaying a first user interface including an auto-adjusting affordance, the electronic device detects a second set of one or more inputs (e.g., a tap on an affordance to navigate the third user interface) corresponding to a request to display a third user interface different from the first user interface. In some embodiments (e.g., 24R-24U), in response to detecting the second set of one or more inputs, the electronic device displays a third user interface (e.g., a media viewer interface (e.g., a media gallery)) on the display device (e.g., before displaying the media editing user interface, after displaying the media editing user interface). In some embodiments (e.g., 24R-24U), displaying the third user interface includes displaying a representation of at least a portion of the second visual content of the second visual media. In some embodiments (e.g., 24R-24U), pursuant to a determination that the second visual media includes additional visual content that is outside of a predetermined spatial boundary (e.g., outside of an originally captured frame of the visual content, or outside of a currently cropped frame of the visual content) of the second visual media (e.g., visual content not represented within a representation of at least a portion of the visual content of the second visual media) (e.g., a file corresponding to the second visual media includes visual content data (e.g., content and data useful for operations, including editing operations) not represented within the representation), the electronic device displays an auto-adjustment affordance (e.g., 1036b in FIG. 24R). In some embodiments, pursuant to a determination that the second visual media does not include additional visual content that is outside of a predetermined spatial boundary (e.g., outside of an originally captured frame of the visual content, or outside of a currently cropped frame of the visual content) of the second visual media (e.g., visual content not represented within a representation of at least a portion of the visual content of the second visual media), the electronic device ceases to display the auto-adjustment affordance.

いくつかの実施形態では(例えば、24R~24U)、第1の視覚メディアの第1の表現は、第1の視覚メディアがキャプチャされたときにまたキャプチャされた視覚コンテンツの所定の空間的境界の外側(例えば、視覚コンテンツの当初キャプチャされたフレームの外側、又は視覚コンテンツの現在クロッピングされているフレームの外側)にある追加の視覚コンテンツを含まない第1の視覚メディアの視覚コンテンツの第1の部分の表現である(例えば、第1の部分に基づく)。いくつかの実施形態では、第1の視覚メディアの第2の表現は、第1の視覚メディアがキャプチャされたときにまたキャプチャされた視覚コンテンツの所定の空間的境界の外側(例えば、視覚コンテンツの当初キャプチャされたフレームの外側又は視覚コンテンツの現在クロッピングされているフレームの外側)にある追加の視覚コンテンツの少なくとも一部分を含む(例えば、第2の表現の遠近歪は、第1の表現を生成するために使用されなかった視覚コンテンツデータ(例えば、第2のメディアがキャプチャされた時点でキャプチャ又は記憶されたコンテンツデータ)を使用して生成された)。 In some embodiments (e.g., 24R-24U), the first representation of the first visual media is a representation of (e.g., based on) a first portion of the visual content of the first visual media that does not include additional visual content that is outside of a predetermined spatial boundary of the visual content that was also captured when the first visual media was captured (e.g., outside of an originally captured frame of the visual content or outside of a currently cropped frame of the visual content). In some embodiments, the second representation of the first visual media includes at least a portion of additional visual content that is outside of a predetermined spatial boundary of the visual content that was also captured when the first visual media was captured (e.g., outside of an originally captured frame of the visual content or outside of a currently cropped frame of the visual content) (e.g., the perspective distortion of the second representation was generated using visual content data that was not used to generate the first representation (e.g., content data captured or stored at the time the second media was captured)).

いくつかの実施形態では、第1の視覚メディアの第1の表現は、第1のアスペクト比で表示される(例えば、図24J)。いくつかの実施形態では、第1のユーザインタフェースは、アスペクト比アフォーダンスを含む(例えば、626c)。いくつかの実施形態では、第1の視覚メディアの第1の表現を表示している間に、電子デバイスは、アスペクト比アフォーダンスに対応するユーザ入力を検出する。いくつかの実施形態では、アスペクト比アフォーダンスに対応するユーザ入力を検出したことに応じて、電子デバイスは、第1のアスペクト比とは異なる第2のアスペクト比で第1の視覚メディアの第6の表現を表示する(例えば、図24K)。いくつかの実施形態では、アスペクト比ボタンは、第1の視覚メディアの表現のアスペクト比を調整するために使用される調整可能なコントロール(例えば、スライダ)を有する。ユーザ入力を受信したことに応じて、以前に表示されたアスペクト比のアスペクト比を自動的に変更することにより、ユーザは、表現を回転させることなく、表現に対するアスペクト比の変化を見ることができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the first representation of the first visual media is displayed in a first aspect ratio (e.g., FIG. 24J). In some embodiments, the first user interface includes an aspect ratio affordance (e.g., 626c). In some embodiments, while displaying the first representation of the first visual media, the electronic device detects user input corresponding to the aspect ratio affordance. In some embodiments, in response to detecting user input corresponding to the aspect ratio affordance, the electronic device displays a sixth representation of the first visual media in a second aspect ratio different from the first aspect ratio (e.g., FIG. 24K). In some embodiments, the aspect ratio button has an adjustable control (e.g., a slider) that is used to adjust the aspect ratio of the representation of the first visual media. By automatically changing the aspect ratio of a previously displayed aspect ratio in response to receiving user input, a user can view the change in aspect ratio for the representation without having to rotate the representation. Providing improved visual feedback to the user improves usability of the device and makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1の視覚メディアの第1の表現は、第1の向き(例えば、元の向き、非回転の向き)で表示される。いくつかの実施形態では、第1のアスペクト比は、第1の水平アスペクト比値(例えば、長さ)及び第1の垂直アスペクト比値(例えば、2430d)を有する。いくつかの実施形態では、第1のユーザインタフェースは、アスペクト比アフォーダンスを含む(例えば、626c1又は626c2)。いくつかの実施形態では、第1の視覚メディアの第1の表現を表示している間に、電子デバイスは、アスペクト比アフォーダンスに対応するユーザ入力を表示する(例えば、2450m)。いくつかの実施形態では、アスペクト比アフォーダンスに対応するユーザ入力を検出したことに応じて、電子デバイスは、第1の視覚メディアの第1の表現を回転させることなく、第1のアスペクト比とは異なる第3のアスペクト比に対応する第1の視覚メディアの一部分を示す視覚的フィードバックを表示する(例えば、図24N;608)。いくつかの実施形態では、第3のアスペクト比は、第1の垂直アスペクト比値と等しい第2の水平アスペクト比値を有する。いくつかの実施形態では、第3のアスペクト比は、第1の水平アスペクト比値と等しい第2の垂直アスペクト比値を有する(例えば、第2のアスペクト比は、第1のアスペクト比値の反転(例えば、逆数)である(例えば、3:4と比較して4:3、9:16と比較して16:9))。ユーザ入力を受信したことに応じて、以前に表示されたアスペクト比の逆のアスペクト比を自動的に表示することにより、ユーザは、表現を回転させることなく、表現に対するアスペクト比の変化を見ることができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the first representation of the first visual media is displayed in a first orientation (e.g., original orientation, unrotated orientation). In some embodiments, the first aspect ratio has a first horizontal aspect ratio value (e.g., length) and a first vertical aspect ratio value (e.g., 2430d). In some embodiments, the first user interface includes an aspect ratio affordance (e.g., 626c1 or 626c2). In some embodiments, while displaying the first representation of the first visual media, the electronic device displays user input corresponding to the aspect ratio affordance (e.g., 2450m). In some embodiments, in response to detecting the user input corresponding to the aspect ratio affordance, the electronic device displays visual feedback indicating a portion of the first visual media corresponding to a third aspect ratio different from the first aspect ratio without rotating the first representation of the first visual media (e.g., FIG. 24N; 608). In some embodiments, the third aspect ratio has a second horizontal aspect ratio value equal to the first vertical aspect ratio value. In some embodiments, the third aspect ratio has a second vertical aspect ratio value equal to the first horizontal aspect ratio value (e.g., the second aspect ratio is the inverse (e.g., reciprocal) of the first aspect ratio value (e.g., 4:3 compared to 3:4, 16:9 compared to 9:16)). By automatically displaying the inverse of the previously displayed aspect ratio in response to receiving a user input, the user can see the aspect ratio change to the representation without having to rotate the representation. Providing improved visual feedback to the user improves usability of the device and provides a more efficient user-device interface (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), which in turn reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1の視覚メディアが異なる時間に対応するコンテンツの複数のフレーム(例えば、ライブフォト又はビデオ)を含むとの判定に従って(例えば、図24Y~図24AB)、電子デバイスは、画像の遠近歪、クロッピング、及び/又は回転を調整する1つ以上のコントロールと共に、第1の視覚メディアに対応するコンテンツのどのフレームが表示されるかを調整する調整可能なコントロールを表示する。いくつかの実施形態では(例えば、図24Y~図24AB)、第1の視覚メディアが異なる時間に対応するコンテンツの複数のフレームを含まないとの判定に従って、電子デバイスは、画像の遠近歪、クロッピング、及び/又は回転を調整する1つ以上のコントロールと共に、第1の視覚メディアに対応するコンテンツのどのフレームが表示されるかを調整する調整可能なコントロールを表示することをやめる。視覚メディア内の異なる時間フレームでのコンテンツのフレームを表示することにより、ユーザは、ユーザがメディアの各フレームに、編集可能パラメータに特定の変更を再適用する必要なく、編集可能パラメータへの変化がメディア(例えば、ビデオ)の2つ以上の特定のフレームにどのように影響するかの視覚的フィードバックをすることができる。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, pursuant to a determination (e.g., FIGS. 24Y-24AB) that the first visual media includes multiple frames of content (e.g., live photos or videos) corresponding to different times, the electronic device displays adjustable controls to adjust which frames of the content corresponding to the first visual media are displayed, along with one or more controls to adjust the perspective distortion, cropping, and/or rotation of the image. In some embodiments (e.g., FIGS. 24Y-24AB), pursuant to a determination that the first visual media does not include multiple frames of content corresponding to different times, the electronic device ceases to display adjustable controls to adjust which frames of the content corresponding to the first visual media are displayed, along with one or more controls to adjust the perspective distortion, cropping, and/or rotation of the image. Displaying frames of content at different time frames within the visual media may provide a user with visual feedback of how changes to editable parameters affect two or more particular frames of media (e.g., video) without the user having to reapply specific changes to the editable parameters to each frame of the media. Providing additional controls without cluttering the UI with additional controls displayed enhances usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では(例えば、図24Y~図24AB)、視覚境界部(例えば、608)は、第1の視覚メディアの第7の表現の第1の部分の周囲に表示され、第7の表現は、第1の視覚メディア内の第1の時間に対応する。いくつかの実施形態では、第1の視覚メディアに対応するコンテンツのどのフレームが表示されるかを調整する調整可能なコントロール(例えば、2240、2240a)を表示している間に、電子デバイスは、それぞれの時間に対応する第1の視覚メディアの時間ベースの表現を選択する要求を検出する。いくつかの実施形態では、それぞれの時間に対応する第1の視覚メディアの時間ベースの表現を選択する要求を検出したことに応じて、電子デバイスは、第1の視覚メディア内の第2の時間(例えば、ビデオ内の6分間)に対応する第1の視覚メディアの第8の表現を表示する。いくつかの実施形態では(例えば、図24Y~図24AB)、それぞれの時間に対応する第1の視覚メディアの時間ベースの表現を選択する要求を検出したことに応じて、電子デバイスは、視覚境界部の表示を維持する。いくつかの実施形態では、視覚境界部は、第1の視覚メディアの第8の表現の第1の部分の周囲に表示される。いくつかの実施形態では(例えば、図24Y~図24AB)、それぞれの時間に対応する第1の視覚メディアの時間ベースの表現を選択する調整可能なコントロール(例えば、表示されている表現に基づいて更新されない)は、表示デバイス上のそれぞれの位置(例えば、固定の位置)に表示される(例えば、ビデオ上の固定の位置に表示されたクロッピングフレーム、クロッピングフレームは、異なるビデオのフレームが表示されている間に固定の位置に留まる)。視覚メディア内の異なる時間フレームでのコンテンツのフレームを表示することにより、ユーザは、ユーザがメディアの各フレームに、編集可能パラメータに特定の変更を再適用する必要なく、編集可能パラメータへの変化がメディア(例えば、ビデオ)の2つ以上の特定のフレームにどのように影響するかの視覚的フィードバックをすることができる。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments (e.g., FIGS. 24Y-24AB), a visual border (e.g., 608) is displayed around a first portion of a seventh representation of the first visual media, the seventh representation corresponding to a first time in the first visual media. In some embodiments, while displaying an adjustable control (e.g., 2240, 2240a) that adjusts which frames of content corresponding to the first visual media are displayed, the electronic device detects a request to select a time-based representation of the first visual media corresponding to the respective time. In some embodiments, in response to detecting a request to select a time-based representation of the first visual media corresponding to the respective time, the electronic device displays an eighth representation of the first visual media corresponding to a second time in the first visual media (e.g., 6 minutes into the video). In some embodiments (e.g., FIGS. 24Y-24AB), in response to detecting a request to select a time-based representation of the first visual media corresponding to the respective time, the electronic device maintains display of the visual border. In some embodiments, the visual border is displayed around a first portion of the eighth representation of the first visual media. In some embodiments (e.g., Figures 24Y-24AB), adjustable controls (e.g., not updated based on the displayed representation) that select a time-based representation of the first visual media corresponding to each time are displayed at respective positions (e.g., fixed positions) on the display device (e.g., cropping frames displayed at fixed positions on a video, the cropping frames remaining at fixed positions while different frames of the video are displayed). By displaying frames of content at different time frames within the visual media, the user can have visual feedback of how changes to editable parameters affect two or more particular frames of media (e.g., video) without the user having to reapply specific changes to the editable parameters to each frame of the media. Providing additional controls without cluttering the UI with additional controls displayed enhances the usability of the device and makes the user-device interface more efficient (e.g., by helping the user make appropriate inputs and reducing user errors when operating/interacting with the device), as well as reducing power usage and improving battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では(例えば、図24C~図24F)、第1の視覚メディアの第1の表現は、第1のズームレベル(例えば、1×ズーム;第1の倍率レベル)で表示される。いくつかの実施形態では(例えば、図24C~図24F)、第1の視覚メディアの第1の表現を表示している間に、電子デバイスは、第1の視覚メディアの表現のズームレベルを変更する要求(例えば、2450e)(例えば、ピンチ又はデピンチジェスチャ)を検出する。いくつかの実施形態では(例えば、図24C~図24F)、第1の視覚メディアの表現のズームレベルを変更する要求を検出したことに応じて、電子デバイスは、第1のズームレベルとは異なる第2のズームレベル(例えば、2×ズーム)で(例えば、表現のズームレベルを変更することに向けられたジェスチャの大きさに基づいて)第1の視覚メディアの第9の表現を表示する。いくつかの実施形態では(例えば、図24C~図24F)、電子デバイスは、第2のズームレベルで画像を調整/編集するように構成される。いくつかの実施形態では、第9の表現が第1のズームレベルで表示される間(例えば、図24C~図24F)、電子デバイスは、視覚メディアの別の表現が異なるズームレベルで表示されるときに調整が維持されるように、表現を調整することができる。異なるズームレベルで表現を表示すること、及びユーザが特定のズームレベルにある間に、全てのズームレベルで表現に適用される表現の特定の特性を変更できるようにすることにより、ユーザは、全てのズームレベルで特定の変更を表現に再適用する必要なく、特定の変更を適用することができる。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments (e.g., FIGS. 24C-24F), the first representation of the first visual media is displayed at a first zoom level (e.g., 1× zoom; first magnification level). In some embodiments (e.g., FIGS. 24C-24F), while displaying the first representation of the first visual media, the electronic device detects a request (e.g., 2450e) to change the zoom level of the representation of the first visual media (e.g., a pinch or de-pinch gesture). In some embodiments (e.g., FIGS. 24C-24F), in response to detecting the request to change the zoom level of the representation of the first visual media, the electronic device displays a ninth representation of the first visual media at a second zoom level (e.g., 2× zoom) that is different from the first zoom level (e.g., based on the magnitude of the gesture directed at changing the zoom level of the representation). In some embodiments (e.g., FIGS. 24C-24F), the electronic device is configured to adjust/edit the image at the second zoom level. In some embodiments, while the ninth representation is displayed at a first zoom level (e.g., FIGS. 24C-24F), the electronic device can adjust the representation such that the adjustment is maintained when another representation of the visual media is displayed at a different zoom level. By displaying the representations at different zoom levels and allowing the user to modify certain characteristics of the representation that are applied to the representation at all zoom levels while at a particular zoom level, the user can apply certain modifications without having to reapply the modifications to the representation at all zoom levels. Providing additional controls without cluttering the UI with additional controls displayed enhances usability of the device and makes the user-device interface more efficient (e.g., by helping the user make appropriate inputs and reducing user errors when operating/interacting with the device), as well as reducing power usage and improving battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では(例えば、図24A)、第1の視覚メディアの第1の表現(例えば、2430b)は、第1のカメラレンズの形状及び/又は第1のカメラの位置に基づく遠近歪を含む(例えば、第1の表現は、メディアがキャプチャされた時点で第1の視覚メディアをキャプチャするために使用されるカメラの視点に対応する修正されないもの(例えば、元の視点)を有する;第1の表現は、任意の追加された遠近歪を含まない)。いくつかの実施形態では(例えば、図24F)、第2の表現(例えば、2430e)(例えば、第1の視覚メディアの)は、カメラレンズの形状及び/又はカメラの位置に基づく遠近歪を低減するように調整される(例えば、第1の視覚メディアの第2の表現は、修正されていないもの(例えば、元の視点)とは異なるシミュレートされた視点を有し、シミュレートされた視点は、メディアがキャプチャされた時点で第1の視覚メディアをキャプチャするために使用されるカメラの視点以外である))。 In some embodiments (e.g., FIG. 24A), the first representation (e.g., 2430b) of the first visual media includes perspective distortion based on the shape of the first camera lens and/or the position of the first camera (e.g., the first representation has an unmodified (e.g., original) viewpoint that corresponds to the viewpoint of the camera used to capture the first visual media at the time the media was captured; the first representation does not include any added perspective distortion). In some embodiments (e.g., FIG. 24F), the second representation (e.g., 2430e) (e.g., of the first visual media) is adjusted to reduce perspective distortion based on the shape of the camera lens and/or the position of the camera (e.g., the second representation of the first visual media has a simulated viewpoint that is different from the unmodified (e.g., original) viewpoint, the simulated viewpoint being other than the viewpoint of the camera used to capture the first visual media at the time the media was captured).

いくつかの実施形態では(例えば、図24B~図24J)、調整可能なコントロール(2258a~2258c)は、遠近歪を補正するコントロールに対応する。いくつかの実施形態では(例えば、図24B~図24J)、電子デバイスは、調整可能なコントロールに向けられたジェスチャを含むユーザ入力(例えば、2258a~2258cに向けられたユーザ入力)を検出したことに応じて、調整可能なコントロールに向けられたジェスチャの方向及び/又は大きさに従って、遠近歪の補正の量を更新する(例えば、インジケーションの表示を動かす、又は第2の位置でインジケーションを表示する)(例えば、ジェスチャの移動のより大きい距離及び/又は速さについてのより大きい量で補正の量を変更すること、並びにジェスチャの移動のより小さい距離及び/又は速さについてのより小さい量で補正の量を変更すること、(並びに、任意選択的に、遠近歪についてのそれぞれの調整量に対応するように、遠近歪についての調整の現在の量(例えば、垂直度、水平度、又は水平線調整)のインジケーションを変更すること)などの、ジェスチャの移動の距離及び/又は速さに基づいて選択される補正の量の変化の大きさを有する、ジェスチャが第1の方向にある場合に補正の量を増加すること、ジェスチャが第1の方向とは反対の、又は第1の方向とは実質的に反対の第2の方向にある場合に補正の量を減少すること)。遠近歪を補正するための異なる調整可能なコントロールを提供することにより、ユーザが望ましくない方法で意図せずに表現を変更することを回避するのを支援すること、及び同時に、調整可能なコントロールへの入力が入力に基づいて表現を変更することをユーザが認識できるようにすることにより、ユーザにデバイスの更なるコントロールを可能にする。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments (e.g., FIGS. 24B-24J), the adjustable controls (2258a-2258c) correspond to controls that correct for perspective distortion. In some embodiments (e.g., FIGS. 24B-24J), the electronic device, in response to detecting user input (e.g., user input directed at 2258a-2258c) including a gesture directed at the adjustable control, updates the amount of perspective distortion correction (e.g., moves the display of the indication or displays the indication at a second position) according to the direction and/or magnitude of the gesture directed at the adjustable control (e.g., changing the amount of correction by a larger amount for greater distances and/or speeds of gesture movement and changing the amount of perspective distortion correction by a larger amount for greater distances and/or speeds of gesture movement). increasing the amount of correction when the gesture is in a first direction, decreasing the amount of correction when the gesture is in a second direction opposite or substantially opposite the first direction, with the magnitude of the change in the amount of correction selected based on the distance and/or speed of the gesture movement, such as changing the amount of correction by smaller amounts for smaller distances and/or speeds of the gesture (and optionally changing an indication of the current amount of adjustment for perspective distortion (e.g., vertical, horizontal, or horizon adjustment) to correspond to the respective adjustment amount for perspective distortion). Providing different adjustable controls for correcting perspective distortion helps the user avoid unintentionally altering the representation in undesirable ways, while at the same time allowing the user more control over the device by allowing the user to recognize that inputs to the adjustable controls will alter the representation based on the input. Providing additional controls without cluttering the UI with additional controls displayed enhances usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

方法2500に関して上述された処理(例えば、図25A~図25B)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2700、2800、3000、3200、3400、3600、3800、4000、及び4200は、方法2500を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。 It should be noted that the details of the processes (e.g., FIGS. 25A-25B) described above with respect to method 2500 are also applicable in a similar manner to the methods described above. For example, methods 700, 900, 1100, 1300, 1500, 1700, 1900, 2100, 2300, 2700, 2800, 3000, 3200, 3400, 3600, 3800, 4000, and 4200 optionally include one or more of the characteristics of the various methods described above with reference to method 2500. For the sake of brevity, these details will not be repeated below.

図26A~図26Uは、いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図27A~図27C、及び図28A~図28Bにおける処理を含む、以下で説明する処理を例示するために使用される。 FIGS. 26A-26U show example user interfaces for managing media using an electronic device, according to some embodiments. The user interfaces in these figures are used to illustrate the processes described below, including the processes in FIGS. 27A-27C and 28A-28B.

具体的には、図26A~図26Uは、異なるレベルの光(例えば、可視光及び/又は周辺光)を有するいくつかの環境で動作するデバイス600を示す。低光閾値(例えば、20ルクスなどの閾値)を上回る光量を有する環境は、通常環境と呼ばれる。低光閾値(例えば、20ルクスなどの閾値)を下回る光量を有する環境は、低光環境と呼ばれる。更には、低光環境は、更に3つのカテゴリーに分割される。光の第1の範囲の間(例えば、20~10ルクス)の光量を有する低光環境は、標準低光環境と呼ばれる。光の第2の範囲の間(例えば、10~1ルクス)の光量を有する低光環境は、副標準低光環境と呼ばれる。また、光の第3の範囲の間(例えば、1ルクスなどの閾値を下回る)の光量を有する低光環境は、極副標準低光環境と呼ばれる。以下の実施例では、デバイス600は、1つ以上のカメラを介して、環境内(例えば、デバイス600の1つ以上のカメラの視野内(FOV))の光量の変化があるかどうかを検出し、デバイス600が低光環境又は通常環境で動作しているかどうかを判定する。デバイス600が低光環境で動作しているとき、デバイス600(例えば、又はデバイス600に接続されたいくつかの他のシステム又はサービス)は、標準低光環境、副標準低光環境、又は極副標準低光環境で動作しているかどうかを判定する。デバイス600が標準低光環境で動作しているとき、デバイス600は、追加の入力(例えば、メディアをキャプチャする要求に応じて、デバイスがキャプチャ持続時間に従って複数の画像をキャプチャするかどうかのモード)なしで低光モードを自動的にオンにしない。他方では、デバイス600が副標準又は極副標準低光環境で動作しているとき、デバイス600は、追加のユーザ入力なしで、低光モードを自動的にオンにする。デバイス600が、副標準又は極副標準低光環境で動作しているときに追加のユーザ入力なしで、低光モードを自動的にオンにする一方、デバイス600は、各環境で異なる低光モードでメディアをキャプチャするように自動的に構成される。デバイス600が副標準低光環境で動作しているとき、デバイス600は、固定の低光キャプチャ持続時間(例えば、1秒又は2秒)に基づいて、メディアを自動的にキャプチャするように構成される。しかしながら、デバイス600が極副標準低光環境で動作しているとき、デバイス600は、固定の低光キャプチャ持続時間よりも長いキャプチャ持続時間に基づいて、メディアをキャプチャするように自動的に(追加のユーザ入力なしで)構成される。理解を向上させるために、図26A~図26Uのいくつかは、デバイス600がFOV内で検出している光量を示すグラフ的な説明図(例えば、光グラフ2680)を含む。いくつかの実施形態では、図18A~図18X、図19A~図19B、図20A~図20C、及び/又は図21~図21Cで論じられた1つ以上の技術を、以下で論じられた図26A~図26U、図27A~図27C、及び図28A~図28Bの1つ以上の技術と任意選択的に組み合わせてもよい。 26A-26U show device 600 operating in several environments having different levels of light (e.g., visible light and/or ambient light). An environment having a light amount above a low light threshold (e.g., a threshold such as 20 lux) is referred to as a normal environment. An environment having a light amount below a low light threshold (e.g., a threshold such as 20 lux) is referred to as a low light environment. Furthermore, low light environments are further divided into three categories. A low light environment having a light amount between a first range of light (e.g., 20-10 lux) is referred to as a standard low light environment. A low light environment having a light amount between a second range of light (e.g., 10-1 lux) is referred to as a sub-standard low light environment. And a low light environment having a light amount between a third range of light (e.g., below a threshold such as 1 lux) is referred to as an extremely sub-standard low light environment. In the following examples, the device 600 detects, via one or more cameras, whether there is a change in the amount of light in the environment (e.g., within the field of view (FOV) of one or more cameras of the device 600) and determines whether the device 600 is operating in a low light environment or a normal environment. When the device 600 is operating in a low light environment, the device 600 (e.g., or some other system or service connected to the device 600) determines whether it is operating in a standard low light environment, a sub-standard low light environment, or an extremely sub-standard low light environment. When the device 600 is operating in a standard low light environment, the device 600 does not automatically turn on the low light mode without additional input (e.g., in response to a request to capture media, the mode of whether the device captures multiple images according to the capture duration). On the other hand, when the device 600 is operating in a sub-standard or extremely sub-standard low light environment, the device 600 automatically turns on the low light mode without additional user input. While the device 600 automatically turns on the low light mode without additional user input when operating in a sub-standard or extreme sub-standard low light environment, the device 600 is automatically configured to capture media in a different low light mode in each environment. When the device 600 is operating in a sub-standard low light environment, the device 600 is configured to automatically capture media based on a fixed low light capture duration (e.g., 1 second or 2 seconds). However, when the device 600 is operating in an extreme sub-standard low light environment, the device 600 is automatically configured (without additional user input) to capture media based on a capture duration that is longer than the fixed low light capture duration. To improve understanding, some of Figures 26A-U include graphical illustrations (e.g., light graph 2680) that show the amount of light that the device 600 is detecting within the FOV. In some embodiments, one or more of the techniques discussed in FIGS. 18A-18X, 19A-19B, 20A-20C, and/or 21-21C may be optionally combined with one or more of the techniques of FIGS. 26A-26U, 27A-27C, and 28A-28B discussed below.

図26Aは、デバイス600の上部からデバイス600の底部まで延びるライブプレビュー630を含むカメラユーザインタフェースを表示する電子デバイス600を示す。ライブプレビュー630は、1つ以上のカメラセンサ(例えば、及び/又はカメラ)によって検出された画像に基づき、FOVの表現である。いくつかの実施形態では、ライブプレビュー630は、デバイス600の上部及び/又は底部まで延びない、スクリーンの一部分のみである。いくつかの実施形態では、デバイス600は、複数のカメラセンサを使用して画像をキャプチャし、それらを組み合わせてライブプレビュー630(例えば、ライブプレビュー630の異なる部分)を表示する。いくつかの実施形態では、デバイス600は、単一のカメラセンサを使用して画像をキャプチャして、ライブプレビュー630を表示する。 FIG. 26A illustrates an electronic device 600 displaying a camera user interface including a live preview 630 that extends from the top of the device 600 to the bottom of the device 600. The live preview 630 is a representation of an FOV based on images detected by one or more camera sensors (e.g., and/or cameras). In some embodiments, the live preview 630 is only a portion of the screen that does not extend to the top and/or bottom of the device 600. In some embodiments, the device 600 captures images using multiple camera sensors and combines them to display the live preview 630 (e.g., different portions of the live preview 630). In some embodiments, the device 600 captures images using a single camera sensor and displays the live preview 630.

図26Aのカメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含み、これらは、インジケータ及びコントロールがライブプレビュー630と同時に表示され得るように、ライブプレビュー630上に重ね合わされる。カメラディスプレイ領域604は、インジケータ領域602とコントロール領域606との間に位置する。カメラディスプレイ領域604は、インジケータ又はコントロールと実質的に重ね合わされない。 26A includes an indicator region 602 and a control region 606 that are overlaid on the live preview 630 such that the indicators and controls may be displayed simultaneously with the live preview 630. A camera display region 604 is located between the indicator region 602 and the control region 606. The camera display region 604 is not substantially overlaid with the indicators or controls.

図26Aに示すように、インジケータ領域602は、ライブプレビュー630上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。インジケータ領域602は、フラッシュ状態インジケータ602aを含む。フラッシュ状態インジケータ602aは、フラッシュモード(例えば、メディアをキャプチャする要求に応じて、フラッシュ動作を制御するモード)が自動モード、オン、オフ、又は別のモード(例えば、赤目低減モード)であるかどうかを示す。 26A, indicator area 602 is superimposed on live preview 630 and optionally includes a colored (e.g., gray, semi-transparent) overlay. Indicator area 602 includes a flash status indicator 602a. Flash status indicator 602a indicates whether the flash mode (e.g., a mode that controls flash operation in response to a request to capture media) is in auto mode, on, off, or another mode (e.g., red-eye reduction mode).

図26Aに示すように、カメラディスプレイ領域604は、ライブプレビュー630及びズームアフォーダンス2622を含む。ズームアフォーダンス2622は、0.5×ズームアフォーダンス2622a、1×ズームアフォーダンス2622b、及び2×ズームアフォーダンス2622cを含む。この実施例では、1×ズームアフォーダンス2622bが選択され、これは、デバイス600が1×ズームレベルでライブプレビュー630を表示していることを示す。 26A, the camera display area 604 includes a live preview 630 and a zoom affordance 2622. The zoom affordance 2622 includes a 0.5x zoom affordance 2622a, a 1x zoom affordance 2622b, and a 2x zoom affordance 2622c. In this example, the 1x zoom affordance 2622b is selected, indicating that the device 600 is displaying the live preview 630 at a 1x zoom level.

図26Aに示すように、コントロール領域606は、ライブプレビュー630上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。コントロール領域606は、カメラモードアフォーダンス620、メディアコレクションの一部分(例えば、メディアの表現)624、シャッターアフォーダンス610、及びカメラスイッチャアフォーダンス612を含む。カメラモードアフォーダンス620は、どのカメラモードが現在選択されているかを示し、ユーザがカメラモードを変更することを可能にする。 26A, the control area 606 is superimposed on the live preview 630 and optionally includes a colored (e.g., gray, semi-transparent) overlay. The control area 606 includes a camera mode affordance 620, a portion of a media collection (e.g., a representation of the media) 624, a shutter affordance 610, and a camera switcher affordance 612. The camera mode affordance 620 indicates which camera mode is currently selected and allows the user to change the camera mode.

図26Aに示すように、デバイス600は、FOV内の光量が25ルクスであることを検出し、これは、光グラフ2680上の現在の光レベル2680aによって表される。FOV内の光量(25ルクス)が低光閾値(例えば、20ルクスなどの閾値)を上回るため、デバイス600は、低光環境で動作している。それにより、デバイス600は、低光モードで動作することをやめる。デバイス600は、FOV内のデータを連続的にキャプチャし、かつ標準フレームレート(例えば、デバイス600が、低光モードで動作していない間にメディアをキャプチャするために通常使用するフレームレート)に基づいてライブプレビュー630を更新する。図26Aでは、デバイス600は、シャッターアフォーダンス610に対応する位置でのタップジェスチャ2650aを検出する。 As shown in FIG. 26A, the device 600 detects that the amount of light in the FOV is 25 lux, which is represented by the current light level 2680a on the light graph 2680. The device 600 is operating in a low light environment because the amount of light in the FOV (25 lux) is above a low light threshold (e.g., a threshold such as 20 lux). This causes the device 600 to cease operating in low light mode. The device 600 continuously captures data in the FOV and updates the live preview 630 based on a standard frame rate (e.g., a frame rate that the device 600 normally uses to capture media while not operating in low light mode). In FIG. 26A, the device 600 detects a tap gesture 2650a at a location corresponding to the shutter affordance 610.

図26Bに示すように、タップジェスチャ2650aを検出したことに応じて、デバイス600は、FOVを表すメディアをキャプチャし、メディアコレクション624の一部分として、新たにキャプチャされたメディアの表現2624aを表示する。デバイス600が新たにキャプチャしたメディアをキャプチャするとき、デバイス600は、単一の画像をキャプチャし、かつメディアコレクション624の一部分として、単一の画像の表現を表示する。 26B, in response to detecting a tap gesture 2650a, the device 600 captures media representative of the FOV and displays a representation 2624a of the newly captured media as part of the media collection 624. When the device 600 captures the newly captured media, the device 600 captures a single image and displays a representation of the single image as part of the media collection 624.

図26Bに示すように、タップジェスチャ2650aを検出した後のある時点で、デバイス600は、現在の光レベル2680bによって表されるように、FOV内の光量が15ルクスに変化したことを検出する。デバイス600が標準低光環境(例えば、20~10ルクス)で動作しているため、デバイス600は、フラッシュ状態インジケータ602aに隣接して低光モード状態インジケータ602cを表示する。低光モード状態インジケータ602cは、低光モードが利用可能であるが、現在非アクティブであることを示す。低光モードは、低光モードが最初にオフ(例えば、デフォルトでオフ)であるときに利用可能であるが、低光モード状態インジケータ602cを選択することによってオンにすることができる。図26Bでは、デバイス600は、低光モード状態インジケータ602cに対応する位置でのタップジェスチャ2650bを検出する。 As shown in FIG. 26B, at some point after detecting the tap gesture 2650a, the device 600 detects that the amount of light in the FOV has changed to 15 lux, as represented by the current light level 2680b. Because the device 600 is operating in a standard low light environment (e.g., 20-10 lux), the device 600 displays a low light mode status indicator 602c adjacent to the flash status indicator 602a. The low light mode status indicator 602c indicates that the low light mode is available but is currently inactive. The low light mode is available when the low light mode is initially off (e.g., off by default), but can be turned on by selecting the low light mode status indicator 602c. In FIG. 26B, the device 600 detects a tap gesture 2650b at a location corresponding to the low light mode status indicator 602c.

図26Cに示すように、タップジェスチャ2650bを検出したことに応じて、デバイス600は、低光モード状態インジケータ602cを更新して、低光モードがアクティブであることを示す。低光モード状態インジケータ602cが、低光モードの状態がアクティブであることを示している間に、デバイス600は、メディアをキャプチャする要求に応じて、低光モードでメディアをキャプチャするように構成される。タップジェスチャ2650bを検出したことに応じて、デバイス600は、コントロール領域606に調整可能な低光モードコントロール1804を表示する。調整可能な低光モードコントロール1804を使用して、(例えば、特定のキャプチャ持続時間に対応する調整可能な低光モードコントロール1804上の位置でのインジケーション1818を介して)低光モードでメディアをキャプチャするキャプチャ持続時間を設定することができる。具体的には、調整可能な低光モードコントロール1804は、オフ状態2604a(図26Uに示す)、デフォルト状態2604b、及び最大状態2604c(図26Kに示す)を含む、いくつかのキャプチャ持続時間状態を含む。更に、タップジェスチャ2650bを検出したことに応じて、調整可能な低光モードコントロール1804は、デフォルト状態2604bに自動的に設定され(例えば、「自動 1秒(Auto 1s)」)、これは、固定キャプチャ持続時間(例えば、1秒でのキャプチャ持続時間)に対応する。 As shown in FIG. 26C, in response to detecting the tap gesture 2650b, the device 600 updates the low light mode status indicator 602c to indicate that the low light mode is active. While the low light mode status indicator 602c indicates that the low light mode status is active, the device 600 is configured to capture media in the low light mode in response to a request to capture media. In response to detecting the tap gesture 2650b, the device 600 displays an adjustable low light mode control 1804 in the control area 606. The adjustable low light mode control 1804 can be used to set a capture duration for capturing media in the low light mode (e.g., via an indication 1818 at a position on the adjustable low light mode control 1804 corresponding to a particular capture duration). Specifically, the adjustable low light mode control 1804 includes several capture duration states, including an off state 2604a (shown in FIG. 26U), a default state 2604b, and a maximum state 2604c (shown in FIG. 26K). Further, in response to detecting the tap gesture 2650b, the adjustable low light mode control 1804 is automatically set to a default state 2604b (e.g., "Auto 1s"), which corresponds to a fixed capture duration (e.g., capture duration at 1 second).

図26Cにおいて、オフ状態2604a及び最大状態2604cは、インジケーション1818の現在の位置が与えられると示されていない。オフ状態2604aは、図26Uに示すように、調整可能な低光モードコントロール1804上の最左端のティックマークである。調整可能な低光モードコントロール1804を、インジケーション1818を介して、調整可能な低光モードコントロール1804上の最左端のティックマークに設定することにより、デバイス600に、低光モードをオフにさせ、かつメディアをキャプチャする要求を受信したことに応じて(例えば、図26Uにおいて後述するように)、標準フレームレートに基づいて、メディアをキャプチャさせる。最大状態2604c(図26Kに示す)は、調整可能な低光モードコントロール1804上の最右端のティックマークである。調整可能な低光モードコントロール1804を、インジケーション1818を介して、調整可能な低光モードコントロール1804上の最左端のティックマークに設定することにより、デバイス600に、(例えば、図26J~図26Qに関連して後述するように)最大キャプチャ持続時間に基づいて、メディアをキャプチャさせる。 In FIG. 26C, the off state 2604a and the maximum state 2604c are not shown given the current position of the indication 1818. The off state 2604a is the leftmost tick mark on the adjustable low light mode control 1804 as shown in FIG. 26U. Setting the adjustable low light mode control 1804 to the leftmost tick mark on the adjustable low light mode control 1804 via the indication 1818 causes the device 600 to turn off low light mode and capture media based on a standard frame rate in response to receiving a request to capture media (e.g., as described below in FIG. 26U). The maximum state 2604c (shown in FIG. 26K) is the rightmost tick mark on the adjustable low light mode control 1804. Setting the adjustable low light mode control 1804, via indication 1818, to the leftmost tick mark on the adjustable low light mode control 1804 causes the device 600 to capture media based on a maximum capture duration (e.g., as described below in connection with Figures 26J-Q).

図26Cに示すように、タップジェスチャ2650bを検出したことに応じて、デバイス600は、デフォルト状態2604bに対応するキャプチャ持続時間及び最大状態2604cに対応するキャプチャ持続時間を判定する。これらのキャプチャ持続時間は、メディアのキャプチャに関連付けられた特定の環境条件に基づいて計算される。環境条件は、デバイス600の安定化、FOV内で検出された光、及びFOVとともに1つ以上のオブジェクトの移動などの条件が含まれる。デバイス600は、これらの環境条件のうちの1つ以上の分析に基づいて、より高い/より低いキャプチャ(例えば、各々独立した状態)を判定する。例えば、より高いレベルの安定性、FOV内のより低いレベルの光、及びFOV内のオブジェクトのより低いレベルの動きにより、デバイス600に、1つ以上の状態(例えば、デフォルト状態2604b及び/又は最大状態2604c)に対応するより長いキャプチャ持続時間を計算させる。いくつかの実施形態では、環境条件のうちの1つ以上の変化により、デバイス600に、別のキャプチャ持続時間状態を維持しながら1つのキャプチャ持続時間状態を変化させる。換言すれば、いくつかの実施形態では、異なる環境条件は、各状態のキャプチャ持続時間に異なるように影響する。 26C, in response to detecting the tap gesture 2650b, the device 600 determines a capture duration corresponding to the default state 2604b and a capture duration corresponding to the maximum state 2604c. These capture durations are calculated based on certain environmental conditions associated with capturing media. The environmental conditions include conditions such as stabilization of the device 600, light detected within the FOV, and movement of one or more objects with the FOV. The device 600 determines higher/lower captures (e.g., each independent state) based on an analysis of one or more of these environmental conditions. For example, a higher level of stability, a lower level of light within the FOV, and a lower level of movement of objects within the FOV causes the device 600 to calculate a longer capture duration corresponding to one or more states (e.g., the default state 2604b and/or the maximum state 2604c). In some embodiments, a change in one or more of the environmental conditions causes the device 600 to change one capture duration state while maintaining another capture duration state. In other words, in some embodiments, different environmental conditions affect the capture duration of each state differently.

図26Cに示すように、デバイス600が高度に安定化されており、オブジェクト(例えば、ライブプレビュー630内に依然として立っている人)が実質的に動いておらず、かつデバイス600が標準低光環境で動作しているため、デバイス600は、デフォルト状態2604bに対応するキャプチャ持続時間が固定の低光キャプチャ持続時間値(1秒)であると判定する。図26Cでは、デバイス600は、低光モード状態インジケータ602cに対応する位置でのタップジェスチャ2650cを検出する。 26C, because the device 600 is highly stabilized, the object (e.g., a person still standing in the live preview 630) is not substantially moving, and the device 600 is operating in a standard low-light environment, the device 600 determines that the capture duration corresponding to the default state 2604b is a fixed low-light capture duration value (1 second). In FIG. 26C, the device 600 detects a tap gesture 2650c at a location corresponding to the low-light mode status indicator 602c.

図26Dに示すように、タップジェスチャ2650cを検出したことに応じて、デバイス600は、低光モード状態インジケータ602cを更新して、低光モードが非アクティブであることを示す。低光モード状態インジケータが、低光モードの状態が非アクティブであることを示している間に、デバイス600は、低光モードでメディアをキャプチャするように構成されない。更に、タップジェスチャ2650cを検出したことに応じて、デバイス600は、低光モードが現在非アクティブに設定されているため、調整可能な低光モードコントロール1804を表示することを停止する。いくつかの実施形態では、タップジェスチャ2650cを検出したことに応じて、デバイス600は、低光モードが利用可能であることを示すように、低光モード状態インジケータ602cを更新する(例えば、低光モードは、非アクティブであるが、インジケータ602cは、低光モードが非アクティブに設定されていることを示すインジケータを視覚的に区別可能である)。図26Dでは、タップジェスチャ2650cを検出した後に、デバイス600は、FOV内の光の変化を検出する。 26D, in response to detecting the tap gesture 2650c, the device 600 updates the low light mode status indicator 602c to indicate that the low light mode is inactive. While the low light mode status indicator indicates that the status of the low light mode is inactive, the device 600 is not configured to capture media in the low light mode. Further, in response to detecting the tap gesture 2650c, the device 600 stops displaying the adjustable low light mode control 1804 because the low light mode is now set to inactive. In some embodiments, in response to detecting the tap gesture 2650c, the device 600 updates the low light mode status indicator 602c to indicate that the low light mode is available (e.g., the low light mode is inactive, but the indicator 602c is visually distinct from the indicator indicating that the low light mode is set to inactive). In FIG. 26D, after detecting the tap gesture 2650c, the device 600 detects a change in light within the FOV.

図26Eに示すように、FOV内の光の変化を検出したことに応じて、デバイス600は、現在の光レベル2680cによって表されるように、FOV内の光量が5ルクスであることを検出する。FOV内の光量が5ルクスであることを検出した後に、デバイス600は、デバイス600が副標準低光環境(例えば、10~1ルクス)で動作していると判定する。デバイス600が副標準低光環境で動作しているため、デバイス600は、フラッシュ状態インジケータ602aに隣接して低光モード状態インジケータ602cを表示する。更に、デバイス600が副標準低光環境で動作していると判定するため、デバイス600は、低光モードがアクティブであることを示す状態を有する低光モード状態インジケータ602cを表示し、かつ低光モードをオンにする。ここで、デバイス600は、自動的に(追加のユーザ入力なしで)、デバイス600が標準低光環境内で動作したと検出したとき(例えば、図26Bで論じられたように)とは対照的に、副標準低光環境内で動作していることを検出した後に、低光モードをオンにする。特に、FOV内の光が標準低光環境内の光よりも低いため、より暗い環境(例えば、標準低光環境と比較して副標準低光環境で動作しているときに、デバイス600が低光モードを自動的にオンにする場合、メディアをキャプチャする要求を検出したことに応じて、ユーザが低光モードでより頻繁にメディアをキャプチャすることができるため、ユーザにとってより有用であり得る。それにより、デバイス600は、低光モードを手動でオンにする(例えば、低光モード状態インジケータ602cに向けられたタップジェスチャ)又は調整可能な低光モードコントロール1804を表示する必要なく、メディアをキャプチャする要求(例えば、シャッターアフォーダンス610に向けられたタップジェスチャ)を検出したことに応じて、低光モードでメディアをキャプチャするように自動的に設定される。いくつかの実施形態では、デバイス600が低光モードをオンにするとき、デバイス600は、第1のタイプのカメラ(例えば、狭い視野を有するカメラ(例えば、望遠写真カメラ))と、第1のタイプのカメラとは異なる第2のタイプのカメラ(例えば、広い視野を有するカメラ(例えば、広角又は超広角カメラ)と、を使用するのを自動的に(追加のユーザ入力なしで)切り替える(又はいくつかの実施形態では、デバイス600は、第2のタイプのカメラと、第1のタイプのカメラと、を使用するのを自動的に(追加のユーザ入力なしで)切り替える)。図26Eでは、デバイス600は、低光モード状態インジケータ602cに対応する位置でのタップジェスチャ2650eを検出する。 As shown in FIG. 26E, in response to detecting a change in light within the FOV, the device 600 detects that the amount of light within the FOV is 5 lux, as represented by current light level 2680c. After detecting that the amount of light within the FOV is 5 lux, the device 600 determines that the device 600 is operating in a sub-standard low light environment (e.g., 10-1 lux). Because the device 600 is operating in a sub-standard low light environment, the device 600 displays a low light mode status indicator 602c adjacent to the flash status indicator 602a. Further, because the device 600 determines that it is operating in a sub-standard low light environment, the device 600 displays a low light mode status indicator 602c having a status indicating that the low light mode is active and turns on the low light mode. Here, the device 600 automatically (without additional user input) turns on the low light mode after detecting that it is operating in a sub-standard low light environment, as opposed to when it detects that it has operated in a standard low light environment (e.g., as discussed in FIG. 26B). In particular, if device 600 automatically turns on low light mode when operating in a darker environment (e.g., a sub-standard low light environment compared to a standard low light environment) because the light within the FOV is lower than the light in a standard low light environment, it may be more useful to a user because the user may capture media in low light mode more frequently in response to detecting a request to capture media. Thus, device 600 may capture media in low light mode in response to detecting a request to capture media (e.g., a tap gesture directed at shutter affordance 610) without having to manually turn on low light mode (e.g., a tap gesture directed at low light mode status indicator 602c) or display adjustable low light mode control 1804. In some embodiments, when device 600 turns on low light mode, device 600 automatically switches (without additional user input) between using a first type of camera (e.g., a camera having a narrow field of view (e.g., a telephoto camera)) and a second type of camera different from the first type of camera (e.g., a camera having a wide field of view (e.g., a wide-angle or ultra-wide-angle camera) (or in some embodiments, device 600 automatically switches (without additional user input) between using the second type of camera and the first type of camera). In FIG. 26E, device 600 detects a tap gesture 2650e at a location corresponding to low light mode status indicator 602c.

図26Fに示すように、タップジェスチャ2650eを検出したことに応じて、デバイス600は、コントロール領域606内に調整可能な低光モードコントロール1804を表示する(及び低光モード状態インジケータ602cの状態及び表示を維持する)。調整可能な低光モードコントロール1804は、インジケーション1818を介して、1秒のキャプチャ持続時間に設定され、これはまた、判定されたデバイス600がデフォルト状態2604bに対応するべきキャプチャ持続時間でもある。いくつかの実施形態では、デバイス600は、代わりに、デバイス600が標準低光環境で動作したとき(例えば、図26Cで論じられたように)、デフォルト状態2604bが、最小キャプチャ持続時間(例えば、2秒)、又はデフォルト状態2604bのキャプチャ持続時間とは異なるキャプチャ持続時間を上回るキャプチャ持続時間に対応すべきであると判定する。図26Fでは、デバイス600は、シャッターアフォーダンス610に対応する位置でのタップジェスチャ2650fを検出する。 26F, in response to detecting the tap gesture 2650e, the device 600 displays the adjustable low light mode control 1804 in the control area 606 (and maintains the state and display of the low light mode status indicator 602c). The adjustable low light mode control 1804 is set via an indication 1818 to a capture duration of 1 second, which is also the capture duration that the device 600 has determined should correspond to the default state 2604b. In some embodiments, the device 600 instead determines that the default state 2604b should correspond to a capture duration that exceeds the minimum capture duration (e.g., 2 seconds) or a capture duration that differs from the capture duration of the default state 2604b when the device 600 operates in a standard low light environment (e.g., as discussed in FIG. 26C). In FIG. 26F, the device 600 detects a tap gesture 2650f at a location that corresponds to the shutter affordance 610.

図26Gに示すように、タップジェスチャ2650fを検出したことに応じて、デバイス600は、1秒のキャプチャ持続時間(例えば、デフォルト状態2604b)に基づいてメディアをキャプチャする。デバイス600が低光モードでメディアをキャプチャするように構成されている間に、1秒のキャプチャ持続時間(又は任意の他のキャプチャ持続時間)に基づいてメディアをキャプチャするときに、デバイス600は、キャプチャ持続時間に対応する期間にわたって複数の画像をキャプチャする。画像をキャプチャした後に、デバイス600は、キャプチャされた画像を組み合わせることによって(例えば、キャプチャされた画像からのデータを組み合わせることによって)(例えば、図18A~図18Xに関連して上述したものと同様の技術を使用して)、合成画像を生成する。図26Gでは、合成画像を生成した後で、デバイス600は、新たにキャプチャされたメディアの表現2624bを表示するように、メディアコレクション624の一部分を更新する。表現2624bが図26Bに表示された表現2624aよりも視覚的に暗い間に、デバイスが(例えば、標準フレームレートを使用して)低光モードでメディアをキャプチャするように構成されていない場合、表現2624bは、5ルクスでメディアの表現よりも視覚的に明るい。 As shown in FIG. 26G, in response to detecting a tap gesture 2650f, the device 600 captures media based on a one second capture duration (e.g., default state 2604b). When capturing media based on a one second capture duration (or any other capture duration) while the device 600 is configured to capture media in low light mode, the device 600 captures multiple images over a period of time corresponding to the capture duration. After capturing the images, the device 600 generates a composite image by combining the captured images (e.g., by combining data from the captured images) (e.g., using techniques similar to those described above in connection with FIGS. 18A-18X). In FIG. 26G, after generating the composite image, the device 600 updates a portion of the media collection 624 to display a representation 2624b of the newly captured media. While representation 2624b is visually darker than representation 2624a displayed in FIG. 26B, if the device is not configured to capture media in low light mode (e.g., using a standard frame rate), representation 2624b is visually brighter than the representation of the media at 5 lux.

図26Bに戻ると、いくつかの実施形態では、デバイス600が図26Bでシャッターアフォーダンス610に対応する位置でのタップジェスチャを検出する場合、デバイス600は、低光モードがアクティブに設定されていなくても、複数の画像から合成画像を生成する。いくつかの実施形態では、デバイス600は、図26Bのタップジェスチャを検出したことに応じて、図26Bの表現2624bによって表された合成画像生成するために使用される画像の数よりも、少ない数の画像をキャプチャして、合成画像を生成する。換言すれば、いくつかの実施形態では、低光環境(例えば、20ルクス未満)で、デバイス600は、自動的に調整を行い、かつ複数の画像を(いくつかの実施形態では、低光モードが選択されているときよりも少ない画像を)一緒に融合して、低光状態インジケータ602cが能動的に選択されているときにデバイス600が行うように改善された合成画像を得る。図26Gでは、タップジェスチャ2650fを検出した後に、デバイス600は、FOV内の光の変化を検出する。 Returning to FIG. 26B, in some embodiments, when device 600 detects a tap gesture at a location corresponding to shutter affordance 610 in FIG. 26B, device 600 generates a composite image from multiple images even if low light mode is not actively set. In some embodiments, device 600 captures fewer images to generate a composite image in response to detecting the tap gesture in FIG. 26B than the number of images used to generate the composite image represented by representation 2624b in FIG. 26B. In other words, in some embodiments, in a low light environment (e.g., less than 20 lux), device 600 automatically adjusts and fuses multiple images together (in some embodiments, fewer images than when low light mode is selected) to obtain an improved composite image as device 600 does when low light condition indicator 602c is actively selected. In FIG. 26G, after detecting tap gesture 2650f, device 600 detects a change in light within the FOV.

図26Hに示すように、FOV内の光の変化を検出したことに応じて、デバイス600は、現在の光レベル2680dによって表されるように、FOV内の光量が0.5ルクスであることを検出し、それが極副標準低光環境(例えば、1ルクス未満)で動作していると判定する。デバイス600が極副標準低光環境で動作しているため、デバイス600は、フラッシュ状態インジケータ602aに隣接して低光モード状態インジケータ602cを表示する。ここで、低光モード状態インジケータは、低光モードの状態がアクティブであることを示す(デバイス600が副標準低光環境で動作していたときに上述された同様の理由による)。更には、低光モード状態インジケータ602cは、デバイス600が極副標準低光環境で動作している(及び/又はデバイス600は、閾値(例えば、1秒又は2秒を上回るなどの閾値)よりも長い持続時間で、低光環境内のメディアをキャプチャするように構成される)ため、現在のキャプチャ持続時間(例えば、低光モード状態インジケータ602cに表示された「5秒」)を更に含む。ここで、デバイス600は、デフォルト状態2604bに対応するキャプチャ持続時間が、FOV内の光が閾値を下回る(例えば、光レベルが標準及び副標準低光環境よりも低い)ため、最小キャプチャ持続時間よりも高いべきであることを判定する。いくつかの実施形態では、低光インジケータは、(例えば、調整可能な低光モードコントロール1804に設定される)最小キャプチャ持続時間又はいくらかの他の閾値よりも長いキャプチャ持続時間で低光モードがメディアをキャプチャするように構成されるまで、キャプチャ持続時間を含まない。図26Hでは、デバイス600は、低光モード状態インジケータ602cに対応する位置でのタップジェスチャ2650hを検出する。 26H, in response to detecting a change in light within the FOV, the device 600 detects that the amount of light within the FOV is 0.5 lux, as represented by current light level 2680d, and determines that it is operating in an extreme sub-standard low light environment (e.g., less than 1 lux). Because the device 600 is operating in an extreme sub-standard low light environment, the device 600 displays a low light mode status indicator 602c adjacent to the flash status indicator 602a. Here, the low light mode status indicator indicates that the low light mode status is active (for similar reasons as described above when the device 600 was operating in a sub-standard low light environment). Furthermore, the low light mode status indicator 602c further includes the current capture duration (e.g., "5 seconds" displayed in the low light mode status indicator 602c) because the device 600 is operating in an extreme sub-standard low light environment (and/or the device 600 is configured to capture media in a low light environment for a duration longer than a threshold (e.g., greater than 1 second or 2 seconds)). Here, the device 600 determines that the capture duration corresponding to the default state 2604b should be higher than the minimum capture duration because the light in the FOV is below a threshold (e.g., the light level is lower than in standard and substandard low light environments). In some embodiments, the low light indicator does not include a capture duration until the low light mode is configured to capture media with a capture duration longer than the minimum capture duration or some other threshold (e.g., set in the adjustable low light mode control 1804). In FIG. 26H, the device 600 detects a tap gesture 2650h at a location corresponding to the low light mode status indicator 602c.

図26Iに示すように、タップジェスチャ2650hを検出したことに応じて、デバイス600は、コントロール領域606に調整可能な低光モードコントロール1804を表示する。ここで、調整可能な低光モードコントロール1804は、5秒のキャプチャ持続時間に設定され、これはまた、デフォルト状態2604bに対応する。上述のように、デバイス600は、キャプチャ持続時間が最小キャプチャ持続時間(例えば、1秒)の代わりに5秒であるべきであると判定する。デバイス600は、FOV内の光が、最小キャプチャ持続時間がメディアの特定の品質に十分に有効ではない(例えば、1つ以上のオブジェクトがキャプチャされたメディア内で区別可能である)光レベルに変化したため、この判定を行う。ここで、キャプチャ持続時間は変化するが、他の環境条件(例えば、デバイス600の安定化及びFOV内のオブジェクトの動き)は、同じままである。図26Iでは、デバイス600は、調整可能な低光モードコントロール1804に対応する位置での左向きスワイプジェスチャ2650iを検出する。 26I, in response to detecting the tap gesture 2650h, the device 600 displays an adjustable low light mode control 1804 in the control area 606. Here, the adjustable low light mode control 1804 is set to a capture duration of 5 seconds, which also corresponds to the default state 2604b. As described above, the device 600 determines that the capture duration should be 5 seconds instead of the minimum capture duration (e.g., 1 second). The device 600 makes this determination because the light in the FOV has changed to a light level where the minimum capture duration is not sufficiently valid for a particular quality of the media (e.g., one or more objects are distinguishable in the captured media). Here, the capture duration changes, but other environmental conditions (e.g., stabilization of the device 600 and movement of objects in the FOV) remain the same. In FIG. 26I, the device 600 detects a left swipe gesture 2650i at a location corresponding to the adjustable low light mode control 1804.

図26Jに示すように、左向きスワイプジェスチャ2650iを検出したことに応じて、デバイス600は、左向きスワイプジェスチャ2650iの大きさ及び方向に基づいて、調整可能な低光モードコントロール1804のティックマークを左にシフトする。調整可能な低光モードコントロール1804のティックマークを左にシフトした後、デバイス600は、10秒のキャプチャ持続時間に対応する位置に、インジケーション1818を表示する。ここで、10秒のキャプチャ持続時間は、最大状態2604c(又は調整可能な低光モードコントロール1804上の最右端のティックマーク)についてのキャプチャ持続時間に対応する。そうすると、デバイス600は、デフォルト状態2604bに対応するキャプチャ持続時間を表示することを停止する。図26Jに示すように、左向きスワイプジェスチャ2650iに応じて、デバイス600は、閾値(例えば、1秒又は2秒などの閾値)よりも高いキャプチャ持続時間(例えば、10秒)に基づいて、デバイス600が低光モードでメディアをキャプチャするように構成されるため、現在のキャプチャ持続時間が10秒であることを示すように、低光キャプチャインジケータ602cを更新する。いくつかの実施形態では、調整可能な低光モードコントロール1804は、オフ状態2604a、デフォルト状態2604b、及び最大状態2604cに対応するキャプチャ持続時間のみを設定し得る。いくつかの実施形態では、調整可能な低光モードコントロール1804は、キャプチャ持続時間状態(例えば、オフ状態2604a、デフォルト状態2604b、及び最大状態2604c)のうちの1つ以上に対応しない他のキャプチャ持続時間を設定し得る。 26J, in response to detecting the left swipe gesture 2650i, the device 600 shifts the tick mark of the adjustable low light mode control 1804 to the left based on the magnitude and direction of the left swipe gesture 2650i. After shifting the tick mark of the adjustable low light mode control 1804 to the left, the device 600 displays an indication 1818 at a position corresponding to a capture duration of 10 seconds, where the capture duration of 10 seconds corresponds to the capture duration for the maximum state 2604c (or the right-most tick mark on the adjustable low light mode control 1804). The device 600 then stops displaying the capture duration corresponding to the default state 2604b. As shown in FIG. 26J, in response to the left swipe gesture 2650i, the device 600 updates the low light capture indicator 602c to indicate that the current capture duration is 10 seconds because the device 600 is configured to capture media in low light mode based on a capture duration (e.g., 10 seconds) higher than a threshold (e.g., a threshold such as 1 second or 2 seconds). In some embodiments, the adjustable low light mode control 1804 may set only capture durations corresponding to the off state 2604a, the default state 2604b, and the maximum state 2604c. In some embodiments, the adjustable low light mode control 1804 may set other capture durations that do not correspond to one or more of the capture duration states (e.g., the off state 2604a, the default state 2604b, and the maximum state 2604c).

図26J~図26Qは、キャプチャ持続時間に基づいて、低光モードでメディアをキャプチャするデバイス600を示す。具体的には、図26J~図26Qは、デバイス600が、キャプチャ持続時間に基づいて、低光モードでメディアをキャプチャする間に使用する、1つ以上のアニメーション及び/又は技術を示す。キャプチャ持続時間(例えば、10秒)が閾値キャプチャ持続時間(例えば、1秒などの閾値又は2秒などの閾値)よりも高く設定されており、及び/又は検出された光のレベルが1ルクスを下回る場合、デバイス600は、以下のアニメーションを表示し、かつ低光モードでメディアをキャプチャする以下の技術を使用する。キャプチャ持続時間(例えば、1秒)が閾値キャプチャ持続時間(例えば、1秒又は2秒などの閾値)よりも高く設定されておらず、及び/又は検出された光のレベルが1ルクスを下回らない場合、デバイス600は、以下のアニメーションを表示すること、及び低光モードでメディアをキャプチャする以下の技術を使用することをやめる。例えば、図26F~図26Gに戻ると、1秒のキャプチャ持続時間が閾値キャプチャ持続時間(例えば、1秒又は2秒などの閾値)よりも長く設定されなかったため、デバイス600がメディアをキャプチャしたときに、以下のアニメーション又は技術のいずれも記載されなかった。いくつかの代替的実施形態では、キャプチャ持続時間が閾値を下回り、及び/又は検出された光のレベルが1ルクスを下回らない場合、アニメーション及び/又は技術のいくつかを使用する。更に、いくつかの実施形態では、図18J~図18Tに記載された1つ以上のアニメーション又は技術は、図26J~図26Qに関連して後述されたアニメーション及び技術に含まれ、簡潔にするために、これらのアニメーション及び技術のうちのいくつかは、以下の考察から省略されている。図26Jでは、デバイス600は、シャッターアフォーダンス610に対応する位置でのタップジェスチャ2650jを検出する。 26J-Q illustrate device 600 capturing media in low light mode based on capture duration. Specifically, FIGS. 26J-Q illustrate one or more animations and/or techniques device 600 uses while capturing media in low light mode based on capture duration. If the capture duration (e.g., 10 seconds) is set higher than a threshold capture duration (e.g., a threshold such as 1 second or a threshold such as 2 seconds) and/or the detected light level falls below 1 lux, device 600 displays the following animations and uses the following techniques of capturing media in low light mode. If the capture duration (e.g., 1 second) is not set higher than a threshold capture duration (e.g., a threshold such as 1 second or 2 seconds) and/or the detected light level does not fall below 1 lux, device 600 ceases displaying the following animations and using the following techniques of capturing media in low light mode. For example, returning to FIGS. 26F-26G, none of the following animations or techniques were described when device 600 captured media because the 1 second capture duration was not set longer than the threshold capture duration (e.g., a threshold such as 1 second or 2 seconds). In some alternative embodiments, some of the animations and/or techniques are used when the capture duration falls below the threshold and/or the detected light level does not fall below 1 lux. Additionally, in some embodiments, one or more of the animations or techniques described in FIGS. 18J-18T are included in the animations and techniques described below in connection with FIGS. 26J-26Q, and for brevity, some of these animations and techniques are omitted from the following discussion. In FIG. 26J, device 600 detects a tap gesture 2650j at a location corresponding to shutter affordance 610.

図26Kに示すように、タップジェスチャ2650jを検出したことに応じて、デバイス600は、10秒のキャプチャ持続時間(例えば、左向きスワイプジェスチャ2650iに応じて、設定された最大状態2604cに対応するキャプチャ持続時間)に基づいて、低光モードでのメディアのキャプチャを開始した。メディアのキャプチャを開始すると、デバイス600は、シャッターアフォーダンス610の表示を、停止アフォーダンス1806に置き換え、ゼロのキャプチャ持続時間に向かうインジケーション1818の移動を開始する(例えば、10秒から0秒へのカウントダウン)。更に、デバイス600は、インジケータ領域602内のフラッシュ状態インジケータ602a及び低光モード状態インジケータ602c、カメラディスプレイ領域604内のズームアフォーダンス2622、並びにコントロール領域606内のメディアコレクション624などの、デバイス600が低光モードでメディアをキャプチャしている間に対話することができる、ユーザインタフェース要素のうちのいくつかを表示することを停止する。いくつかの実施形態では、タップジェスチャ2650jを検出したことに応じて、デバイス600は、インジケーションを、10秒のキャプチャ持続時間から0秒のキャプチャ持続時間まで(例えば、巻き出しアニメーション18M~18Qと同様)動かす前に、インジケーション1818を、0秒のキャプチャ持続時間から10秒のキャプチャ持続時間まで(例えば、巻き取りアニメーション18K~18Mと同様)動かすアニメーションを示す。いくつかの実施形態では、タップジェスチャ2650jを検出したことに応じて、デバイス600は、シャッターアフォーダンス610を暗くし;いくつかの実施形態では、デバイス600は、シャッターアフォーダンス610を暗くした後、停止アフォーダンス1806を表示しない。 26K, in response to detecting the tap gesture 2650j, the device 600 starts capturing media in low light mode based on a capture duration of 10 seconds (e.g., the capture duration corresponding to the maximum state 2604c set in response to the left swipe gesture 2650i). Upon starting the capture of media, the device 600 replaces the display of the shutter affordance 610 with a stop affordance 1806 and starts moving the indication 1818 towards a zero capture duration (e.g., counting down from 10 seconds to 0 seconds). Additionally, the device 600 stops displaying some of the user interface elements with which the device 600 can interact while capturing media in low light mode, such as the flash status indicator 602a and the low light mode status indicator 602c in the indicator area 602, the zoom affordance 2622 in the camera display area 604, and the media collection 624 in the control area 606. In some embodiments, in response to detecting the tap gesture 2650j, the device 600 shows an animation that moves the indication 1818 from a 0 second capture duration to a 10 second capture duration (e.g., similar to the winding animations 18K-18M) before moving the indication from a 10 second capture duration to a 0 second capture duration (e.g., similar to the unwinding animations 18M-18Q). In some embodiments, in response to detecting the tap gesture 2650j, the device 600 dims the shutter affordance 610; in some embodiments, the device 600 does not display the stop affordance 1806 after dimming the shutter affordance 610.

図26Kに示すように、タップジェスチャ2650jを検出したことに応じて、デバイス600は、メディアのキャプチャが開始されたときのデバイス600のポーズ(例えば、位置及び/又は向き)と、メディアをキャプチャしている間の時点のポーズとの間の差を示す、視覚ガイダンス2670を表示する。キャプチャ持続時間(10秒)が閾値キャプチャ持続時間(例えば、1秒などの閾値又は2秒などの閾値)よりも高く設定されており、及び/又は検出された光のレベル(0.5ルクス)が1ルクスを下回るため、視覚ガイダンスが表示される。視覚ガイダンス2670は、命令2670a(例えば、「一時停止」)を含み、これは、デバイス600が、低光モードでメディアをキャプチャしている間、安定している(例えば、静止する)必要があることを示す。更には、視覚ガイダンス2670はまた、元のポーズインジケーション2670bを含み、これは、メディアのキャプチャを開始したときのデバイス600のポーズを示す。画像をキャプチャしている間にデバイス600が安定化されていない、又は画像が元のポーズから外れてキャプチャされる場合、デバイス600は、デバイス600がその元のポーズで安定化されるか又はそのままであるときよりも品質が劣ったメディアを生成する。理解を向上させるために、図26K~図26Qのいくつかは、現在のポーズ2668cの位置がデバイス600の元のポーズ2668bの位置に対してどのように変化するかに関する詳細を提供するグラフ的な説明図2668を含む。 As shown in FIG. 26K, in response to detecting the tap gesture 2650j, the device 600 displays visual guidance 2670 indicating the difference between the pose (e.g., position and/or orientation) of the device 600 when the capture of the media was initiated and the pose at the time while capturing the media. The visual guidance is displayed because the capture duration (10 seconds) is set higher than the threshold capture duration (e.g., a threshold such as 1 second or a threshold such as 2 seconds) and/or the detected light level (0.5 lux) is below 1 lux. The visual guidance 2670 includes an instruction 2670a (e.g., "PAUSE"), which indicates that the device 600 should remain stable (e.g., stand still) while capturing the media in low light mode. Furthermore, the visual guidance 2670 also includes an original pose indication 2670b, which indicates the pose of the device 600 when the capture of the media was initiated. If the device 600 is not stabilized while capturing an image, or if the image is captured out of its original pose, the device 600 will produce media of lower quality than when the device 600 is stabilized or remains in its original pose. To improve understanding, some of Figures 26K-26Q include graphical illustrations 2668 that provide details regarding how the position of the current pose 2668c changes relative to the position of the device 600's original pose 2668b.

図26Lに示すように、デバイス600は、10秒のキャプチャ持続時間から8秒のキャプチャ持続時間にインジケーション1818を動かした。8秒のキャプチャ持続時間では、デバイス600は、多数の画像をキャプチャした。8秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、デバイス600は、そのポーズの変化を検出する。グラフ的な説明図2668に示すように、デバイス600の現在のポーズ2668c(例えば、固体電話として示される)は、その元のポーズ2668b(例えば、点線で示される)から上及び右にシフトされる。デバイス600のポーズの変化を検出したことに応じて、デバイス600は、元のポーズインジケーション2670bの表示を維持し、かつ現在のポーズインジケーション2670cを表示する。現在のポーズインジケーション2670cは、現在のポーズ2668cに対応するカメラユーザインタフェース上の位置に表示される(例えば、元のポーズインジケーション2670bから上及び右にシフトされる)。図26Lに示すように、デバイス600は、2つの別個のライン(例えば、ボックス)のセットとして、元のポーズインジケーション2670b及び現在のポーズインジケーション2670cを表示する。いくつかの実施形態では、元のポーズインジケーション2670b及び現在のポーズインジケーション2670cは、異なる色、太さ、勾配、ボケ、又は他のタイプの視覚効果などの1つ以上の異なる視覚特性を有することによって視覚的に区別される。 As shown in FIG. 26L, the device 600 moved the indication 1818 from a 10 second capture duration to an 8 second capture duration. At the 8 second capture duration, the device 600 captured multiple images. At some point while displaying the indication 1818 at the 8 second capture duration, the device 600 detects a change in its pose. As shown in the graphical illustration 2668, the current pose 2668c of the device 600 (e.g., shown as a solid phone) is shifted up and to the right from its original pose 2668b (e.g., shown as a dotted line). In response to detecting the change in the pose of the device 600, the device 600 maintains the display of the original pose indication 2670b and displays the current pose indication 2670c. The current pose indication 2670c is displayed at a location on the camera user interface that corresponds to the current pose 2668c (e.g., shifted up and to the right from the original pose indication 2670b). As shown in FIG. 26L, the device 600 displays the original pose indication 2670b and the current pose indication 2670c as two separate sets of lines (e.g., boxes). In some embodiments, the original pose indication 2670b and the current pose indication 2670c are visually distinguished by having one or more different visual characteristics, such as different colors, thickness, gradients, blurring, or other types of visual effects.

図26Mに示すように、デバイス600は、8秒のキャプチャ持続時間から7秒のキャプチャ持続時間にインジケーション1818を動かした。7秒のキャプチャ持続時間では、デバイス600は、8秒のキャプチャ持続時間でキャプチャしたデバイス600よりも多くの画像をキャプチャした。7秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、デバイス600は、そのポーズの変化を検出する。グラフ的な説明図2668に示すように、デバイス600の現在のポーズ2668cは、元のポーズ2668bから左下にシフトされている。ここで、現在のポーズ2668cへの過補正が適用されている(例えば、デバイス600は、図26Nの現在のポーズ2668cから左下に過補正された)。図26Mに示すように、(7秒のキャプチャ持続時間で)デバイス600のポーズの変化を検出したことに応じて、デバイス600は、ライブプレビュー630上で、図26Mにおける現在のポーズ2668cに対応する位置まで、現在のポーズインジケーション2670cを動かす。(7秒のキャプチャ持続時間で)デバイス600のポーズの変化を検出したことに応じて、デバイス600は、図26Lに表示された位置に、元のポーズインジケーション2670bの表示を維持し、これにより、デバイス600は、現在のポーズインジケーション2670cが、元のポーズインジケーション2670bから下及び左にシフトされたことを表示する。いくつかの実施形態では、現在のポーズインジケーション2670cを新しい位置に動かす代わりに、デバイス600は、元のポーズインジケーション2670bを新しい位置に動かし、現在のポーズインジケーション2670cの表示を、図26Lにおいて以前に表示された位置に維持する。 As shown in FIG. 26M, the device 600 moved the indication 1818 from an 8 second capture duration to a 7 second capture duration. At the 7 second capture duration, the device 600 captured more images than the device 600 captured at the 8 second capture duration. At some point while displaying the indication 1818 at the 7 second capture duration, the device 600 detects a change in its pose. As shown in the graphical illustration 2668, the current pose 2668c of the device 600 has been shifted downward and to the left from the original pose 2668b. Now, an overcorrection to the current pose 2668c has been applied (e.g., the device 600 has been overcorrected downward and to the left from the current pose 2668c of FIG. 26N). As shown in FIG. 26M, in response to detecting a change in the pose of the device 600 (at the 7 second capture duration), the device 600 moves the current pose indication 2670c on the live preview 630 to a position that corresponds to the current pose 2668c in FIG. 26M. In response to detecting a change in the pose of the device 600 (at a capture duration of 7 seconds), the device 600 maintains the display of the original pose indication 2670b in the position displayed in FIG. 26L, whereby the device 600 displays the current pose indication 2670c shifted down and to the left from the original pose indication 2670b. In some embodiments, instead of moving the current pose indication 2670c to a new position, the device 600 moves the original pose indication 2670b to a new position and maintains the display of the current pose indication 2670c in the position previously displayed in FIG. 26L.

図26Nに示すように、デバイス600は、7秒のキャプチャ持続時間から5秒のキャプチャ持続時間にインジケーション1818を動かした。5秒のキャプチャ持続時間では、デバイス600は、7秒のキャプチャ持続時間でキャプチャしたデバイス600よりも多くの画像をキャプチャした。5秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、デバイス600は、そのポーズの変化を検出する。グラフ的な説明図2668に示すように、デバイス600の現在のポーズ2668cは、元のポーズ2668bの位置になるように近くにシフトされ、図26Mにおける現在のポーズ2668cの位置から右上にシフトされる。(5秒のキャプチャ持続時間で)デバイス600のポーズの変化を検出したことに応じて、デバイス600は、ライブプレビュー630上で、現在のポーズインジケーション2670cを、図26Nの現在のポーズ2668cに対応する位置に動かし、これにより、デバイス600は、図26Mに表示された現在のポーズインジケーション2670cよりも、元のポーズインジケーション2670bの近くにシフトされた現在のポーズインジケーション2670cを表示する。更には、デバイス600は、その元の位置に元のポーズインジケーション2670bの表示を維持する。 As shown in FIG. 26N, the device 600 has moved the indication 1818 from a 7 second capture duration to a 5 second capture duration. At the 5 second capture duration, the device 600 has captured more images than the device 600 captured at the 7 second capture duration. At some point while displaying the indication 1818 at the 5 second capture duration, the device 600 detects a change in its pose. As shown in the graphical illustration 2668, the current pose 2668c of the device 600 is shifted closer to the position of the original pose 2668b, and shifted up and to the right from the position of the current pose 2668c in FIG. 26M. In response to detecting a change in the pose of the device 600 (at a capture duration of 5 seconds), the device 600 moves the current pose indication 2670c on the live preview 630 to a position corresponding to the current pose 2668c of FIG. 26N, such that the device 600 displays a current pose indication 2670c shifted closer to the original pose indication 2670b than the current pose indication 2670c displayed in FIG. 26M. Moreover, the device 600 maintains the display of the original pose indication 2670b in its original position.

図26Oに示すように、デバイス600は、5秒のキャプチャ持続時間から4秒のキャプチャ持続時間にインジケーション1818を動かした。4秒のキャプチャ持続時間では、デバイス600は、5秒のキャプチャ持続時間でキャプチャしたデバイスよりも多くの画像をキャプチャした。4秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、デバイス600は、そのポーズの変化を検出し、現在のポーズ2668cの位置は、元のポーズ2668bの位置と一致する。図26Nに示すように、現在のポーズ2668cが元のポーズ2668bの位置と一致することを検出したことに応じて、デバイス600は、触知出力2620aを発する。更には、現在のポーズ2668cが元のポーズ2668bの位置と一致することを検出したことに応じて、デバイス600は、現在のポーズインジケーション2670cを表示することを停止し、命令2670a及び元のポーズインジケーション2670bの表示を維持する。いくつかの実施形態では、元のポーズインジケーション2670bは、現在のポーズが元のポーズと一致する場合、現在のポーズが元のポーズと一致しない場合とは異なる色を表示する。 As shown in FIG. 26O, the device 600 moved the indication 1818 from a capture duration of 5 seconds to a capture duration of 4 seconds. At the 4 second capture duration, the device 600 captured more images than the device captured at the 5 second capture duration. At some point while displaying the indication 1818 at the 4 second capture duration, the device 600 detected a change in its pose, and the position of the current pose 2668c matched the position of the original pose 2668b. As shown in FIG. 26N, in response to detecting that the current pose 2668c matches the position of the original pose 2668b, the device 600 emits a tactile output 2620a. Furthermore, in response to detecting that the current pose 2668c matches the position of the original pose 2668b, the device 600 stops displaying the current pose indication 2670c and maintains display of the instructions 2670a and the original pose indication 2670b. In some embodiments, the original pose indication 2670b displays a different color when the current pose matches the original pose than when the current pose does not match the original pose.

図26Pに示すように、デバイス600は、4秒のキャプチャ持続時間から3秒のキャプチャ持続時間にインジケーション1818を動かした。3秒のキャプチャ持続時間では、デバイス600は、4秒のキャプチャ持続時間でキャプチャしたデバイスよりも多くの画像をキャプチャした。3秒のキャプチャ持続時間では、デバイス600は、そのポーズの変化を検出せず、命令2670aの表示を維持する。それにより、デバイス600は、視覚ガイダンス2670の表示を更新することをやめる。 As shown in FIG. 26P, the device 600 moves the indication 1818 from a four second capture duration to a three second capture duration. At the three second capture duration, the device 600 captures more images than the device captured at the four second capture duration. At the three second capture duration, the device 600 does not detect a change in its pose and maintains the display of instructions 2670a. This causes the device 600 to cease updating the display of visual guidance 2670.

図26Qに示すように、デバイス600は、2秒のキャプチャ持続時間から0秒のキャプチャ持続時間にインジケーション1818を動かした。0秒のキャプチャ持続時間では、デバイス600は、3秒のキャプチャ持続時間でキャプチャしたデバイスよりも多くの画像をキャプチャした。0秒のキャプチャ持続時間では、デバイス600は、メディアキャプチャの終了を検出する。 As shown in FIG. 26Q, the device 600 moved the indication 1818 from a capture duration of 2 seconds to a capture duration of 0 seconds. At the capture duration of 0 seconds, the device 600 captured more images than the device captured at the capture duration of 3 seconds. At the capture duration of 0 seconds, the device 600 detects the end of media capture.

図26Rに示すように、メディアのキャプチャの終了を検出したことに応じて、デバイス600は、最大状態2604cに対応する10秒のキャプチャ持続時間で、調整可能な低光モードコントロール1804上にインジケーション1818を表示し、停止アフォーダンス1806の表示を、シャッターアフォーダンス610に置き換える。更には、メディアのキャプチャの終了を検出したことに応じて、デバイス600は、デバイス600が低光モードでメディアをキャプチャしていた間に対話し得る、ユーザインタフェース要素のうちのいくつかを再表示する。図26Rに示すように、メディアのキャプチャの終了を検出したことに応じて、デバイス600は、タップジェスチャ2650jを検出したことに応じて、キャプチャされた複数の画像に基づいて合成画像のメディアを生成する。デバイス600は、メディアコレクション624の一部分として、表現2624cを表示する。表現2624cが図26G(及び表現2624a)に表示された表現2624bよりも視覚的に暗い間に、デバイスが(例えば、標準フレームレートを使用して)低光モードでメディアをキャプチャするように構成されていない場合、表現2624cは、0.5ルクスでメディアの表現よりも視覚的に明るい。図26Rでは、より長いキャプチャ持続時間に起因して、デバイス600は、デバイス600が図26Gの表現2624bによって表された合成画像を生成するためにキャプチャした画像の数より多くの画像をキャプチャして、表現2624cによって表された合成画像を生成した。いくつかの実施形態では、より少ない周辺光を有する環境においてメディアをキャプチャするとき、デバイス600は、より高レベルの周辺光を有する環境においてデバイス600が生成する画像と同じ画像を生成するために、より多くの画像をキャプチャし、融合させる必要がある。図26Rでは、デバイス600は、電子デバイスがより不安定であるように、デバイス600の移動の変化を検出する。 26R, in response to detecting the end of media capture, the device 600 displays an indication 1818 on the adjustable low light mode control 1804 with a capture duration of 10 seconds corresponding to the maximum state 2604c, and replaces the display of the stop affordance 1806 with the shutter affordance 610. Furthermore, in response to detecting the end of media capture, the device 600 redisplays some of the user interface elements with which the device 600 may have interacted while capturing media in low light mode. In response to detecting the end of media capture, the device 600 generates a composite image of media based on the captured images in response to detecting a tap gesture 2650j, as shown in FIG. 26R. The device 600 displays the representation 2624c as part of the media collection 624. While representation 2624c is visually darker than representation 2624b displayed in FIG. 26G (and representation 2624a), if the device is not configured to capture media in low light mode (e.g., using a standard frame rate), representation 2624c is visually brighter than a representation of media at 0.5 lux. In FIG. 26R, due to the longer capture duration, device 600 captured more images to generate the composite image represented by representation 2624c than the number of images device 600 captured to generate the composite image represented by representation 2624b in FIG. 26G. In some embodiments, when capturing media in an environment with less ambient light, device 600 needs to capture and fuse more images to generate the same image device 600 would generate in an environment with a higher level of ambient light. In FIG. 26R, device 600 detects a change in the movement of device 600 such that the electronic device is less stable.

図26Sに示すように、電子デバイスがより不安定であるように、デバイス600の移動の変化を検出したことに応じて、デバイス600は、10秒のキャプチャ持続時間から5秒のキャプチャ持続時間に最大状態2604cを更新する。上述のように、デバイス600がより不安定であるとき、デバイス600は、最大状態2604c(例えば、又はデフォルト状態2604b)に対応するキャプチャ持続時間をより短くし得る。更には、電子デバイスがより不安定であるように、デバイス600の移動の変化を検出したことに応じて、デバイス600はまた、5秒のキャプチャ持続時間を示すように、低光モード状態インジケータ602cを更新する(例えば、調整可能な低光モードコントロール1804が、インジケーション1818を介して、最大状態2604cに現在設定されているため)。いくつかの実施形態では、デバイス600が、キャプチャ持続時間が閾値(例えば、1秒又は2秒などの閾値)未満であると判定すると、デバイス600は、低光モード状態インジケータ602c内のキャプチャ持続時間を表示することを停止する。 26S, in response to detecting a change in the movement of the device 600 such that the electronic device is less stable, the device 600 updates the maximum state 2604c from a capture duration of 10 seconds to a capture duration of 5 seconds. As described above, when the device 600 is less stable, the device 600 may reduce the capture duration corresponding to the maximum state 2604c (e.g., or the default state 2604b). Furthermore, in response to detecting a change in the movement of the device 600 such that the electronic device is less stable, the device 600 also updates the low light mode status indicator 602c to indicate a capture duration of 5 seconds (e.g., because the adjustable low light mode control 1804 is currently set to the maximum state 2604c via the indication 1818). In some embodiments, when the device 600 determines that the capture duration is less than a threshold value (e.g., a threshold value such as 1 second or 2 seconds), the device 600 stops displaying the capture duration in the low light mode status indicator 602c.

特に、いくつかの実施形態では、デバイス600は、以前に設定されたキャプチャ持続時間に基づいてメディアをキャプチャしている間に、1つ以上の環境条件の変化を検出することができる。いくつかの実施形態では、この変化に基づいて、デバイス600は、最大状態2604c(又はデフォルト状態2604b)に対応するキャプチャ持続時間値を更新することができる。デバイス600が最大状態2604c(又はデフォルト状態2604b)に対応するキャプチャ値を更新すると、デバイス600は、メディアのキャプチャの終了を検出したことに応じて、新しいキャプチャ持続時間でインジケーション1818を表示することができる(例えば、デバイス600は、図26Qでカメラユーザインタフェースを表示し、続いて、26Sでカメラユーザインタフェースを表示することができる)。図26Sでは、デバイス600は、電子デバイスがより安定であるように、デバイス600の移動の変化を検出する。 In particular, in some embodiments, the device 600 may detect a change in one or more environmental conditions while capturing media based on a previously set capture duration. In some embodiments, based on this change, the device 600 may update the capture duration value corresponding to the maximum state 2604c (or the default state 2604b). Once the device 600 updates the capture value corresponding to the maximum state 2604c (or the default state 2604b), the device 600 may display an indication 1818 with the new capture duration in response to detecting an end of the capture of media (e.g., the device 600 may display the camera user interface in FIG. 26Q, followed by the camera user interface in FIG. 26S). In FIG. 26S, the device 600 detects a change in the movement of the device 600 such that the electronic device is more stable.

図26Tに示すように、電子デバイスがより安定であるように、デバイス600の移動の変化を検出したことに応じて、デバイス600は、5秒のキャプチャ持続時間から10秒のキャプチャ持続時間に戻るように最大状態2604cを更新する。更には、電子デバイスがより安定であるように、デバイス600の移動の変化を検出したことに応じて、デバイス600はまた、10秒のキャプチャ持続時間を示すように、低光モード状態インジケータ602cを更新する(例えば、調整可能な低光モードコントロール1804が、インジケーション1818を介して、最大状態2604cに現在設定されているため)。図26Tでは、デバイス600は、調整可能な低光モードコントロール1804に対応する位置での右向きスワイプジェスチャ2650tを検出する。 26T, in response to detecting a change in the movement of the device 600 such that the electronic device is more stable, the device 600 updates the maximum state 2604c from a 5 second capture duration back to a 10 second capture duration. Further, in response to detecting a change in the movement of the device 600 such that the electronic device is more stable, the device 600 also updates the low light mode state indicator 602c to indicate a 10 second capture duration (e.g., because the adjustable low light mode control 1804 is currently set to the maximum state 2604c via the indication 1818). In FIG. 26T, the device 600 detects a right swipe gesture 2650t at a location corresponding to the adjustable low light mode control 1804.

図26Uに示すように、右向きスワイプジェスチャ2650tを検出したことに応じて、デバイス600は、右向きスワイプジェスチャ2650tの大きさ及び方向に基づいて、調整可能な低光モードコントロール1804のティックマークを右にシフトする。調整可能な低光モードコントロール1804のティックマークを右にシフトした後、デバイス600は、調整可能な低光モードコントロール1804上のオフ状態2604aのキャプチャ持続時間に対応する位置に、インジケーション1818を表示する。調整可能な低光モードコントロール1804がオフ状態2604aに設定されていることを検出したことに応じて、デバイス600は、低光モードでの動作を停止する。換言すれば、低光モードは、オフにされるか、又は非アクティブに設定される。低光モードでの動作を停止することに加えて、デバイス600は、低光キャプチャモードの状態が非アクティブであることを示すように、低光モード状態インジケータ602cを更新する。いくつかの実施形態では、調整可能な低光モードコントロール1804がオフ状態に設定されていることを検出したことに応じて、デバイス600は、低光モード状態インジケータ602cであることをやめる。いくつかの実施形態では、図26Uでは、メディアをキャプチャする要求を受信したことに応じて、デバイス600は、メディアの画像を1つだけキャプチャする標準フレームレートに基づいて、メディアをキャプチャする。 26U, in response to detecting the right swipe gesture 2650t, the device 600 shifts the tick mark of the adjustable low light mode control 1804 to the right based on the magnitude and direction of the right swipe gesture 2650t. After shifting the tick mark of the adjustable low light mode control 1804 to the right, the device 600 displays an indication 1818 on the adjustable low light mode control 1804 at a position corresponding to the capture duration of the off state 2604a. In response to detecting that the adjustable low light mode control 1804 is set to the off state 2604a, the device 600 stops operating in the low light mode. In other words, the low light mode is turned off or set to inactive. In addition to stopping operation in the low light mode, the device 600 updates the low light mode status indicator 602c to indicate that the status of the low light capture mode is inactive. In some embodiments, in response to detecting that the adjustable low light mode control 1804 is set to an off state, the device 600 ceases to be a low light mode status indicator 602c. In some embodiments, in FIG. 26U, in response to receiving a request to capture media, the device 600 captures media based on a standard frame rate that captures only one image of the media.

図27A~図27Cは、いくつかの実施形態による、電子デバイスを使用してメディアを管理するための方法を示すフロー図である。方法2700は、表示デバイス(例えば、タッチ感知ディスプレイ)を備えたデバイス(例えば、100、300、500、600)で実行される。方法2700のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 27A-27C are flow diagrams illustrating a method for managing media using an electronic device, according to some embodiments. Method 2700 is performed on a device (e.g., 100, 300, 500, 600) with a display device (e.g., a touch-sensitive display). Some operations of method 2700 are optionally combined, the order of some operations is optionally changed, and some operations are optionally omitted.

いくつかの実施形態では、電子デバイス(例えば、600)は、コンピュータシステムである。コンピュータシステムは、任意選択的に、ディスプレイ生成構成要素と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the electronic device (e.g., 600) is a computer system. The computer system is optionally in communication (e.g., wired communication, wireless communication) with a display generation component and with one or more input devices. The display generation component is configured to provide visual output, such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. The one or more input devices are configured to receive input, such as a touch-sensitive surface that receives user input. In some embodiments, the one or more input devices are integrated with the computer system. In some embodiments, the one or more input devices are separate from the computer system. Thus, the computer system can transmit data (e.g., image data or video data) via a wired or wireless connection to an integrated or external display generation component to visually generate content (e.g., using a display device) and can receive wired or wireless connection input from one or more input devices.

後述するように、方法2700は、メディアを管理するための直感的な仕方を提供する。この方法は、メディアを編集する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアを管理することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, method 2700 provides an intuitive way to manage media. The method reduces the cognitive burden on the user when editing media, thereby creating a more efficient human-machine interface. For battery-operated computing devices, enabling users to manage media more quickly and efficiently conserves power and extends the time between battery charges.

電子デバイス(例えば、600)は、表示デバイス(例えば、タッチ感知ディスプレイ)及び1つ以上のカメラ(例えば、電子デバイスの同じ側又は異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を含む。電子デバイスは、表示デバイスを介して、1つ以上のカメラ(例えば、カメラに視認可能である開放観測可能エリア、カメラレンズから所与の距離の画像の水平(又は垂直又は対角線)長さ)の視野の表現(例えば、表現オーバータイム、カメラからのデータのライブプレビューフィード)を表示すること(2704)を含むメディアキャプチャユーザインタフェースを表示する(2702)。 The electronic device (e.g., 600) includes a display device (e.g., a touch-sensitive display) and one or more cameras (e.g., one or more cameras (e.g., dual camera, triple camera, quad camera, etc.) on the same or different sides (e.g., front camera, rear camera) of the electronic device. The electronic device displays (2702) a media capture user interface that includes displaying (2704) via the display device a representation (e.g., a representation over time, a live preview feed of data from the camera) of the field of view of the one or more cameras (e.g., the open observable area visible to the camera, the horizontal (or vertical or diagonal) length of the image at a given distance from the camera lens).

低光カメラモードがアクティブである間に(例えば、602cによって示すように)、電子デバイスは、メディアをキャプチャするキャプチャ持続時間を調整するコントロール(例えば、1804)(例えば、スライダ又はタイマー)を表示する(2706)。いくつかの実施形態では、低光カメラモード(例えば、低光キャプチャモード)は、低光条件が満たされているときにアクティブである。いくつかの実施形態では、低光条件は、1つ以上のカメラの視野内の周辺(例えば、2680a~d)光がそれぞれの閾値を下回るとき、デバイスが低光モードで動作していることを示す低光状態インジケータをユーザが選択する(例えば、オンにする)とき、低光カメラモードをアクティブ化する設定をユーザがオンにする、又はアクティブ化するとき、に満たされる条件を低光条件が含むときに満たされる。 While the low light camera mode is active (e.g., as shown by 602c), the electronic device displays a control (e.g., 1804) (e.g., a slider or timer) to adjust the capture duration for capturing media (2706). In some embodiments, the low light camera mode (e.g., low light capture mode) is active when low light conditions are met. In some embodiments, the low light conditions are met when the low light conditions include conditions that are met when ambient (e.g., 2680a-d) light in the field of view of one or more cameras falls below a respective threshold, when a user selects (e.g., turns on) a low light status indicator that indicates the device is operating in low light mode, or when a user turns on or activates a setting that activates the low light camera mode.

コントロールを表示することの一部として、1組の第1のキャプチャ持続時間基準(例えば、カメラ安定化、環境条件、光レベル、カメラ動き、及び/又はシーン動きに基づいて満たされる1組の基準)が満たされている(例えば、2680c)との判定に従って(2708)、電子デバイスは、コントロール(例えば、1804)が第1のキャプチャ持続時間(例えば、図26Fの2604b)(例えば、時間(例えば、合計キャプチャ時間、露出時間)、ピクチャ/フレームの数で測定)に設定されているというインジケーション(例えば、図26Fの1818)(例えば、スライダの特定のティックマーク上のスライダバー、表示デバイス上に表示されたテキスト)を表示する(2712)。所定の条件が満たされているときにのみ、調整可能なコントロールが特定のキャプチャ持続時間に設定されているというインジケーションを表示することによって、ユーザは、キャプチャ持続時間を手動で構成する必要なく、要求に応じて、デバイスがキャプチャメディアを使用するキャプチャ持続時間を迅速に認識することができる。また、所定の条件が満たされているときにのみ、調整可能なコントロールが特定のキャプチャ持続時間に設定されているというインジケーションを表示することにより、ユーザは、所定の条件を考慮して動作する特定のキャプチャ持続時間を計算する必要性を軽減する。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 As part of displaying the control, pursuant to a determination (2708) that a first set of capture duration criteria (e.g., a set of criteria that is satisfied based on camera stabilization, environmental conditions, light levels, camera motion, and/or scene motion) is satisfied (e.g., 2680c), the electronic device displays (2712) an indication (e.g., 1818 of FIG. 26F) (e.g., a slider bar on a particular tick mark of a slider, text displayed on a display device) that the control (e.g., 1804) is set to a first capture duration (e.g., 2604b of FIG. 26F) (e.g., measured in time (e.g., total capture time, exposure time), number of pictures/frames). By displaying an indication that an adjustable control is set to a particular capture duration only when a predetermined condition is satisfied, a user can quickly recognize the capture duration for which the device will use the capture media, as desired, without having to manually configure the capture duration. Also, by displaying an indication that the adjustable control is set to a particular capture duration only when a predefined condition is met, the user is alleviated from having to calculate a particular capture duration to operate upon given the predefined conditions. By performing an optimized operation when a set of conditions is met without requiring further user input, the device is more user-friendly, the user-device interface is more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and the device is more quickly and efficiently used, thereby reducing power usage and improving the device's battery life.

コントロール(例えば、1804)を表示することの一部として、1組の第1のキャプチャ持続時間基準(例えば、カメラ安定化、環境条件、光レベル、カメラ動き、及び/又はシーン動きに基づいて満たされる1組の基準)が満たされている(例えば、2680c)との判定に従って(2708)、電子デバイスは、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求(例えば、ジェスチャ2650f)に応答して、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイス(例えば、600)を構成する(2714)(例えば、設定を調整して、電子デバイスの1つ以上のカメラが、(例えば、(例えば、メディアキャプチャの開始(例えば、シャッターアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)上のタップ)により)アクティブ化されると、電子デバイスに、キャプチャ持続時間の少なくとも一部分について第1の速度で複数の画像をキャプチャさせる)。多数の画像をキャプチャするように電子デバイスを自動的に構成することは、所定の条件のときにメディアをキャプチャする要求に応じて、ユーザが多数の画像をキャプチャするようにデバイスを手動で構成する必要がある入力の数を低減する。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 As part of displaying the control (e.g., 1804), pursuant to a determination (2708) that a set of first capture duration criteria (e.g., a set of criteria that is met based on camera stabilization, environmental conditions, light levels, camera motion, and/or scene motion) are met (e.g., 2680c), the electronic device may configure (2714) the electronic device (e.g., 600) to capture a first plurality of images over a first capture duration in response to a single request (e.g., gesture 2650f) to capture an image corresponding to a field of view of one or more cameras (e.g., by adjusting settings to capture a first plurality of images over a first capture duration) ... (c) causing the electronic device to capture a plurality of images at a first rate for at least a portion of the capture duration. Automatically configuring the electronic device to capture a plurality of images reduces the number of inputs a user must manually configure the device to capture a plurality of images in response to a request to capture media when a predetermined condition occurs. Executing an optimized operation when a set of conditions is met without requiring further user input improves usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

コントロールを表示することの一部として、1組の第1のキャプチャ持続時間基準とは異なる、1組の第2のキャプチャ持続時間基準(例えば、カメラ安定化、環境条件、光レベル、カメラ動き、及び/又はシーン動きに基づいて満たされる1組の基準)が満たされている(例えば、2680d)との判定に従って(2710)、電子デバイスは、コントロール(例えば、1804)が第1のキャプチャ持続時間よりも長い第2のキャプチャ持続時間(例えば、図26Iの2604b)(例えば、時間(例えば、合計キャプチャ時間、露出時間)、ピクチャ/フレームの数で測定)に設定されているというインジケーション(例えば、図26Iの1818)(例えば、スライダの特定のティックマーク上のスライダバー、表示デバイス上に表示されたテキスト)を表示する(2716)。別の1組の所定の試行とは異なる所定の条件が満たされているときにのみ、調整可能なコントロールが特定のキャプチャ持続時間に設定されているというインジケーションを表示することによって、ユーザは、キャプチャ持続時間を手動で構成する必要なく、要求に応じて、デバイスがキャプチャメディアを使用するキャプチャ持続時間を迅速に認識することができる。また、所定の条件が満たされているときにのみ、調整可能なコントロールが特定のキャプチャ持続時間に設定されているというインジケーションを表示することにより、ユーザは、所定の条件を考慮して動作する特定のキャプチャ持続時間を計算する必要性を軽減する。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 As part of displaying the control, pursuant to a determination that a second set of capture duration criteria (e.g., a set of criteria that is met based on camera stabilization, environmental conditions, light levels, camera motion, and/or scene motion) that is different from the first set of capture duration criteria is met (e.g., 2680d), the electronic device displays an indication (e.g., 1818 of FIG. 26I) (e.g., a slider bar on a particular tick mark of a slider, text displayed on a display device) that the control (e.g., 1804) is set to a second capture duration (e.g., 2604b of FIG. 26I) (e.g., measured in time (e.g., total capture time, exposure time), number of pictures/frames) that is longer than the first capture duration (2716). By displaying an indication that the adjustable control is set to a particular capture duration only when a predefined condition that is different from another set of predefined attempts is met, the user can quickly recognize the capture duration that the device will use the capture media for, as desired, without having to manually configure the capture duration. Also, by displaying an indication that the adjustable control is set to a particular capture duration only when a predefined condition is met, the user is alleviated from having to calculate a particular capture duration to operate upon given the predefined conditions. By performing an optimized operation when a set of conditions is met without requiring further user input, the device is more user-friendly, the user-device interface is more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and the device is more quickly and efficiently used, thereby reducing power usage and improving the device's battery life.

コントロール(例えば、1804)を表示することの一部として、1組の第1のキャプチャ持続時間基準とは異なる、1組の第2のキャプチャ持続時間基準(例えば、カメラ安定化、環境条件、光レベル、カメラ動き、及び/又はシーン動きに基づいて満たされる1組の基準)が満たされている(例えば、2680d)との判定に従って(2710)、電子デバイスは、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求(例えば、ジェスチャ2650j)に応じて、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイス(例えば、600)を構成する(2718)(第1のキャプチャ持続時間の外側である第2のキャプチャ持続時間の一部分の間に少なくとも1つの画像をキャプチャすることを含む)(例えば、設定を調整して、それにより、電子デバイスの1つ以上のカメラが、(例えば、メディアキャプチャの開始(例えば、シャッターアフォーダンス上でタップ)により)アクティブ化されると、電子デバイスに、キャプチャ持続時間の少なくとも一部分にわたって第1の速度で複数の画像をキャプチャさせる)。いくつかの実施形態では、第2の複数の画像は、第1の複数の画像とは異なる。いくつかの実施形態では、第1の複数の画像は、第1の合成画像に作製される(例えば、組み合わされる)か、又は第2の複数の画像は、第2の合成画像に作製される(例えば、組み合わされる)。多数の画像をキャプチャするように電子デバイスを自動的に構成することは、所定の条件が満たされるときにメディアをキャプチャする要求に応じて、ユーザが多数の画像をキャプチャするようにデバイスを手動で構成する必要がある入力の数を低減する。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 As part of displaying the control (e.g., 1804), pursuant to a determination (2710) that a second set of capture duration criteria (e.g., a set of criteria that is met based on camera stabilization, environmental conditions, light levels, camera motion, and/or scene motion) that is different from the first set of capture duration criteria is met (e.g., 2680d), the electronic device configures (2718) the electronic device (e.g., 600) to capture a second plurality of images over the second capture duration in response to a single request (e.g., gesture 2650j) to capture an image corresponding to the field of view of one or more cameras (including capturing at least one image during a portion of the second capture duration that is outside the first capture duration) (e.g., adjusting a setting to cause the electronic device to capture a plurality of images at a first rate over at least a portion of the capture duration when one or more cameras of the electronic device are activated (e.g., by initiating media capture (e.g., tapping on a shutter affordance)). In some embodiments, the second plurality of images is different from the first plurality of images. In some embodiments, the first plurality of images are made (e.g., combined) into a first composite image, or the second plurality of images are made (e.g., combined) into a second composite image. Automatically configuring an electronic device to capture multiple images reduces the number of inputs a user must manually configure the device to capture multiple images in response to a request to capture media when a predetermined condition is met. Performing an optimized operation when a set of conditions is met without requiring further user input improves usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves the battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、電子デバイスは、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求(例えば、ジェスチャ2650f又は2650j)を受信する。いくつかの実施形態では、デバイスがシャッターアフォーダンス(例えば、610)に向けられたジェスチャ(例えば、タップ)を受信すると、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求は、受信される。いくつかの実施形態では、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求(例えば、ジェスチャ2650f又は2650j)を受信したことに応じて、電子デバイスは、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイスが構成されているとの判定に従って、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャする(例えば、図26F~図26G)。いくつかの実施形態では、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイスが構成されているとの判定に従って、電子デバイスは、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャする(例えば、図26J~図26R)。いくつかの実施形態では、第1の複数の画像(又は第2の複数の画像)は、複数の画像のコンテンツの分析に基づいて組み合わされる。 In some embodiments, the electronic device receives a single request (e.g., gesture 2650f or 2650j) to capture images corresponding to the field of view of one or more cameras. In some embodiments, the single request to capture images corresponding to the field of view of one or more cameras is received when the device receives a gesture (e.g., a tap) directed at the shutter affordance (e.g., 610). In some embodiments, in response to receiving the single request (e.g., gesture 2650f or 2650j) to capture images corresponding to the field of view of one or more cameras, the electronic device captures a first plurality of images over a first capture duration in accordance with a determination that the electronic device is configured to capture a first plurality of images over a first capture duration (e.g., FIGS. 26F-26G). In some embodiments, in accordance with a determination that the electronic device is configured to capture a second plurality of images over a second capture duration, the electronic device captures a second plurality of images over a second capture duration (e.g., FIGS. 26J-26R). In some embodiments, the first plurality of images (or the second plurality of images) are combined based on an analysis of the content of the plurality of images.

いくつかの実施形態では、第1の複数の画像(例えば、図26F~図26G)における画像の量は、第2の複数の画像における画像の量とは異なる(例えば、より多い、又はより少ない)(例えば、図26J~図26R)。いくつかの実施形態では、複数の画像内の画像の量は、キャプチャ持続時間に基づくものであり、より長いキャプチャ持続時間は、より多くの画像を生成する。 In some embodiments, the amount of images in the first plurality of images (e.g., FIGS. 26F-26G) is different (e.g., more or less) than the amount of images in the second plurality of images (e.g., FIGS. 26J-26R). In some embodiments, the amount of images in the plurality of images is based on the capture duration, with a longer capture duration producing more images.

いくつかの実施形態では、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求(例えば、ジェスチャ2650f又は2650j)を受信したことに応じて、かつ第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイスが構成されているとの判定に従って、電子デバイスは、第1の複数の画像のうちの少なくとも一部のコンテンツを含む第1の合成画像(例えば、図26Gの624)を生成する。いくつかの実施形態では、第1の合成画像(例えば、メディアコレクション624内の画像の表現)は、第1の合成画像が生成された後に、表示デバイスを介して、表示される。いくつかの実施形態では、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求(例えば、ジェスチャ2650f又は2650j)を受信したことに応じて、かつ第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイスが構成されているとの判定に従って、電子デバイスは、第2の複数の画像のうちの少なくとも一部のコンテンツを含む第2の合成画像(例えば、図26Rの624)を生成する。いくつかの実施形態では、第2の合成画像は、第1の合成画像が生成された後に、表示デバイスを介して、表示される。いくつかの実施形態では、第1の複数の画像は、第1の合成画像に作製される(例えば、組み合わされる)か、又は第2の複数の画像は、第2の合成画像に作製される(例えば、組み合わされる)。いくつかの実施形態では、複数の画像のそれぞれは、画像のコンテンツ(例えば、データ)の分析に基づいて、独立してキャプチャされ、かつ組み合わされる。 In some embodiments, in response to receiving a single request (e.g., gesture 2650f or 2650j) to capture an image corresponding to the field of view of one or more cameras, and in accordance with a determination that the electronic device is configured to capture a first plurality of images over a first capture duration, the electronic device generates a first composite image (e.g., 624 in FIG. 26G) including at least some content of the first plurality of images. In some embodiments, the first composite image (e.g., a representation of an image in the media collection 624) is displayed via a display device after the first composite image is generated. In some embodiments, in response to receiving a single request (e.g., gesture 2650f or 2650j) to capture an image corresponding to the field of view of one or more cameras, and in accordance with a determination that the electronic device is configured to capture a second plurality of images over a second capture duration, the electronic device generates a second composite image (e.g., 624 in FIG. 26R) including at least some content of the second plurality of images. In some embodiments, the second composite image is displayed via a display device after the first composite image is generated. In some embodiments, the first plurality of images are created (e.g., combined) into a first composite image, or the second plurality of images are created (e.g., combined) into a second composite image. In some embodiments, each of the plurality of images is captured independently and combined based on an analysis of the content (e.g., data) of the images.

いくつかの実施形態では、コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示している間に、電子デバイスは、(例えば、加速度計及び/又はジャイロスコープにより)電子デバイスの第1の安定度(例えば、図26Rで論じられた)(例えば、電子デバイスの現在の移動量(又は移動の欠如))を検出する。いくつかの実施形態では、電子デバイスは、電子デバイスの第1の安定度(例えば、図26Rで論じられた)を検出したことに応じて、かつ電子デバイスの第1の安定度が第1の安定性閾値を上回る(例えば、電子デバイスがより安定であることを検出する)との判定に従って、コントロール(例えば、1804)が第1のキャプチャ持続時間よりも長い(例えば、第1のキャプチャ持続時間を増加する)、第3のキャプチャ持続時間(例えば、図26Rの2604c)に設定されているインジケーション(例えば、1818)を表示し;かつ1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求(例えば、ジェスチャ2650f又は2650j)に応じて、第3のキャプチャ持続時間にわたって第3の複数の画像をキャプチャするように電子デバイスを構成する。いくつかの実施形態では、コントロールが第1のキャプチャ持続時間に設定されているというインジケーションは、表示を停止される。特定の所定の条件が満たされている(例えば、電子デバイスが安定である)ときに調整可能なコントロールが設定されることのインジケーションの表示を更新することにより、ユーザは、電子デバイスのキャプチャ持続時間が変化したことを迅速に認識することができ、電子デバイスは、変化したキャプチャ持続時間でメディアをキャプチャするように構成される。いくつかの実施形態では、電子デバイスは、画像をキャプチャする単一の要求に応じて、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャする代わりに、第3の複数の画像をキャプチャするように構成される。いくつかの実施形態では、電子デバイスの安定度が閾値を下回るとの判定に従って(例えば、電子デバイスがより不安定であることを検出する)、第1のキャプチャ持続時間(又は第2の)は、減少する(例えば、インジケーションは、減少したキャプチャ持続時間を表示し、電子デバイスは、減少したキャプチャ持続時間にわたって画像をキャプチャするように構成される)。いくつかの実施形態では、電子デバイスの安定度が、安定性閾値よりも小さくかつ第2の安定性閾値よりも大きいとの判定に従って(例えば、デバイスの安定感は十分に変化していない)、コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを維持し、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするデバイスの構成を維持する。また、所定の条件が満たされているときにのみ、調整可能なコントロールが特定のキャプチャ持続時間に設定されているという更新されたインジケーションを表示することにより、ユーザは、キャプチャ持続時間に関連する条件が変化したときに動作する特定のキャプチャ持続時間を計算する必要性を軽減する。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。新しい多数の画像をキャプチャするように電子デバイスを自動的に構成することは、所定の条件が変化したときにメディアをキャプチャする要求に応じて、ユーザが新しい多数の画像をキャプチャするようにデバイスを手動で構成する必要がある入力の数を低減する。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, while displaying an indication that the control is set to the first capture duration, the electronic device detects (e.g., by an accelerometer and/or gyroscope) a first stability (e.g., as discussed in FIG. 26R) of the electronic device (e.g., a current amount of movement (or lack of movement) of the electronic device). In some embodiments, the electronic device, in response to detecting the first stability (e.g., as discussed in FIG. 26R) of the electronic device and in accordance with a determination that the first stability of the electronic device exceeds a first stability threshold (e.g., the electronic device detects that the electronic device is more stable), displays an indication (e.g., 1818) that the control (e.g., 1804) is set to a third capture duration (e.g., 2604c of FIG. 26R) that is longer than the first capture duration (e.g., increasing the first capture duration); and, in response to a single request (e.g., gesture 2650f or 2650j) to capture an image corresponding to the field of view of one or more cameras, configures the electronic device to capture a third plurality of images over the third capture duration. In some embodiments, the indication that the control is set to the first capture duration is stopped from being displayed. By updating the display of the indication that the adjustable control is set when certain predetermined conditions are met (e.g., the electronic device is stable), a user may quickly recognize that the capture duration of the electronic device has changed, and the electronic device is configured to capture media at the changed capture duration. In some embodiments, instead of capturing the first plurality of images over the first capture duration in response to a single request to capture an image, the electronic device is configured to capture a third plurality of images. In some embodiments, pursuant to a determination that the stability of the electronic device falls below a threshold (e.g., the electronic device detects that it is less stable), the first capture duration (or the second) is decreased (e.g., the indication displays the decreased capture duration and the electronic device is configured to capture images over the decreased capture duration). In some embodiments, pursuant to a determination that the stability of the electronic device is less than the stability threshold and greater than a second stability threshold (e.g., the stability of the device has not changed sufficiently), an indication that the control is set to the first capture duration is maintained, and a configuration of the device to capture the first plurality of images for the first capture duration is maintained. Also, by displaying an updated indication that the adjustable control is set to a particular capture duration only when the predefined conditions are met, the user is alleviated from having to calculate a particular capture duration to operate upon when conditions related to the capture duration change. By performing an optimized operation when a set of conditions are met without requiring further user input, the device is more user-friendly, the user-device interface is more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and, in addition, the device is more quickly and efficiently used by the user, thereby reducing power usage and improving the device's battery life. Automatically configuring the electronic device to capture a new plurality of images reduces the number of inputs a user needs to manually configure the device to capture a new plurality of images in response to a request to capture media when the predefined conditions change. By performing an optimized action when a set of conditions are met without requiring further user input, it improves usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves the battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、低光カメラモードがアクティブである間に、電子デバイスは、低光カメラモードの状態(例えば、アクティブ(例えば、図26Hの602c)(例えば、オン)、非アクティブ(例えば、図26Sの602c)(例えば、オフ)、利用可能(例えば、図26Bの602c)(例えば、低光モードが非アクティブであるが、アクティブに設定できる))を示し、かつキャプチャ持続時間表示基準が満たされているとの判定に従って、第1のキャプチャ持続時間(例えば、図26Hの602c)(又はコントロールが第2のキャプチャ持続時間に設定されているというインジケーションを表示する第2のキャプチャ持続時間)の視覚表現(例えば、26Jの602cの10秒)を含む、第1の低光キャプチャ状態インジケータ(例えば、602c)を表示する。いくつかの実施形態では、低光カメラモードがアクティブである間に、電子デバイスは、低光カメラモードの状態(例えば、アクティブ(例えば、オン)、非アクティブ(例えば、オフ)、利用可能(例えば、オンにする能力))を示し、かつキャプチャ持続時間表示基準が満たされていないとの判定に従って、第1のキャプチャ持続時間(例えば、図26Eの602c)(又はコントロールが第2のキャプチャ持続時間に設定されているというインジケーションを表示する第2のキャプチャ持続時間)の視覚表現(例えば、26Jの602cの10秒)を含まない、第1の低光キャプチャ状態インジケータを表示する。所定の条件が満たされているときに低光状態インジケータ内にキャプチャ持続時間の視覚表現を表示することによって、キャプチャ持続時間がキャプチャ持続時間の通常範囲の外側である場合に、電子デバイスを使用して、メディアをキャプチャする、キャプチャ持続時間の現在の状態についてのフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。所定の条件が満たされているときに低光状態インジケータ内にキャプチャ持続時間の視覚表現を表示することをやめることによって、雑然としていないユーザインタフェースを提供し、かつキャプチャ持続時間がキャプチャ持続時間の通常範囲内にあるときにフィードバックによりユーザを視覚的に注意散漫にさせない。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, while the low-light camera mode is active, the electronic device displays a first low-light capture status indicator (e.g., 602c) indicating the state of the low-light camera mode (e.g., active (e.g., 602c of FIG. 26H) (e.g., on), inactive (e.g., 602c of FIG. 26S) (e.g., off), available (e.g., 602c of FIG. 26B) (e.g., low-light mode is inactive but can be set to active)) and including a visual representation (e.g., 10 seconds for 602c of FIG. 26J) of the first capture duration (e.g., 602c of FIG. 26H) (or a second capture duration displaying an indication that the control is set to the second capture duration) pursuant to a determination that the capture duration display criteria is met. In some embodiments, while the low light camera mode is active, the electronic device displays a first low light capture status indicator that indicates a state of the low light camera mode (e.g., active (e.g., on), inactive (e.g., off), available (e.g., ability to turn on)) and that does not include a visual representation of the first capture duration (e.g., 602c of FIG. 26E) (or a second capture duration that displays an indication that the control is set to the second capture duration) (e.g., 10 seconds as in 602c of 26J) pursuant to a determination that the capture duration display criteria is not met. Displaying a visual representation of the capture duration within the low light status indicator when a predetermined condition is met provides feedback to a user about a current state of the capture duration of capturing media using the electronic device when the capture duration is outside of a normal range of capture durations. Providing improved visual feedback to the user improves device usability and provides a more efficient user-device interface (e.g., by assisting the user in making appropriate inputs when operating/interacting with the device and reducing user errors), which further reduces device power usage and improves battery life by allowing the user to use the device more quickly and efficiently. Ceasing to display a visual representation of the capture duration within the low light status indicator when a predefined condition is met provides a less cluttered user interface and does not visually distract the user with feedback when the capture duration is within a normal range of capture durations. Providing improved visual feedback to the user improves device usability and provides a more efficient user-device interface (e.g., by assisting the user in making appropriate inputs when operating/interacting with the device and reducing user errors), which further reduces device power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、キャプチャ持続時間表示基準は、1つ以上のカメラの視野内の周辺光が第1の所定の範囲内にあるときに満たされる基準を含む(例えば、2680a~c対2680d)。いくつかの実施形態では、1つ以上のカメラの視野内の周辺光が変化すると、電子デバイスは、周辺光(例えば、2680a~d)が第1の所定の範囲又は第2の所定の範囲にあるかどうかに基づいて、第1のキャプチャ持続時間(例えば、図26Jの602c及びインジケータ1818によって設定されたキャプチャ持続時間)(又は第2のキャプチャ持続時間)の視覚表現を表示するかどうかを自動的に再評価する。 In some embodiments, the capture duration display criteria includes criteria that are met when the ambient light in the field of view of one or more cameras is within a first predetermined range (e.g., 2680a-c vs. 2680d). In some embodiments, when the ambient light in the field of view of one or more cameras changes, the electronic device automatically reevaluates whether to display a visual representation of the first capture duration (e.g., the capture duration set by 602c and indicator 1818 in FIG. 26J) (or the second capture duration) based on whether the ambient light (e.g., 2680a-d) is within the first predetermined range or the second predetermined range.

低光カメラモードがアクティブである前に、いくつかの実施形態では、電子デバイスは、1つ以上のカメラの視野内の周辺光(例えば、2680d)が第2の所定の範囲内にある(例えば、1ルクスなどの閾値を下回る)(例えば、キャプチャ持続時間表示基準を満たす第1の所定の範囲内にあるときに判定される)との判定に従って、低光カメラモードの状態がアクティブである(例えば、低光カメラモードがアクティブであること(例えば、デバイスが、メディアをキャプチャする要求に応じて、低光カメラモードでメディアをキャプチャするように現在構成されていること)を示す状態)ことを示し、かつ第3のキャプチャ持続時間(例えば、第1又は第2のキャプチャ持続時間)の視覚表現(例えば、26Hの「5秒」)を含む、第2の低光キャプチャ状態インジケータ(例えば、図26Hの602c)を表示する。いくつかの実施形態では、低光カメラモードがアクティブである前に、1つ以上のカメラの視野内の周辺光(例えば、2680c)が第4の所定の範囲(例えば、1ルクス~10ルクスなどの所定の範囲)内にあるとの判定に従って、低光カメラモードの状態がアクティブであることを示し、かつ第3のキャプチャ持続時間の視覚表現(例えば、図26Eの602c)を含まない、第3の低光キャプチャ状態インジケータ(例えば、図26Eの602c)を表示し;1つ以上のカメラの視野内の周辺光(例えば、2680b)が第5の所定の範囲(例えば、10~20ルクスなどの所定の範囲)内であるとの判定に従って、低光カメラモードの状態が利用可能であることを示す第4の低光キャプチャ状態インジケータ(例えば、図26Bの602c)(例えば、アクティブ化のために利用可能であるが、現在アクティブではない)(例えば、低光カメラモードが利用可能であること(例えば、デバイスが、低光カメラモードでメディアをキャプチャするように現在構成されていないが、低光モードでメディアをキャプチャするように構成され得ること)を示す状態、低光カメラモードが利用可能であり、かつユーザによって手動でオン又はオフされていないことを示す状態(例えば、デバイスは、低光キャプチャモードインジケータが最初に(最近)表示されてから、又は低光キャプチャモードインジケータを表示する判定を行ってから、低光カメラモードでメディアをキャプチャする又はキャプチャしないように構成されていない))を表示し;1つ以上のカメラの視野内の周辺光(例えば、2680a)が第6の所定の範囲内(例えば、20ルクス超などの所定の範囲)にあるとの判定に従って、電子デバイスは、第2の低光キャプチャ状態インジケータ、第3の低光キャプチャ状態インジケータ、及び第4の低光キャプチャ状態インジケータ、を表示することをやめる(例えば、図26Aの602cが不存在)。いくつかの実施形態では、第2の低光キャプチャ状態インジケータと、第3の低光キャプチャ状態インジケータと、第4の低光キャプチャ状態インジケータとは、互いに視覚的に異なる(例えば、表示された色、質感、太さ、文字、又はマークが異なる(例えば、非アクティブ状態を示すために取り消し線が引かれる)、キャプチャ持続時間の視覚表現を有無)。いくつかの実施形態では、低光キャプチャモードの状態が利用可能であることを示す第4の低光状態インジケータは、キャプチャ持続時間(例えば、第3のキャプチャ持続時間)の視覚表現を含まない。いくつかの実施形態では、1つ以上のカメラの視野内の周辺光が第6の所定の範囲にあるとの判定に従って、電子デバイスは、任意の低光キャプチャ状態インジケータを表示することをやめる。いくつかの実施形態では、(例えば、周辺光の)第3の所定の範囲は、(例えば、周辺光の)第4の所定の範囲よりも小さく、(例えば、周辺光の)第4の所定の範囲は、(例えば、周辺光の)第5の所定の範囲よりも小さく、第5の所定の範囲は、(例えば、周辺光の)第6の所定よりも小さい。いくつかの実施形態では、所定の範囲は、重複しない(例えば、重複していない所定の範囲)。所定の条件が満たされているときに低光状態インジケータ内にキャプチャ持続時間の視覚表現を表示することによって、キャプチャ持続時間がキャプチャ持続時間の通常範囲の外側である場合に、電子デバイスを使用して、メディアをキャプチャする、キャプチャ持続時間の現在の状態についてのフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。所定の条件が満たされているときに低光状態インジケータ内にキャプチャ持続時間の視覚表現を表示することによって、キャプチャ持続時間がキャプチャ持続時間の通常範囲の外側である場合に、電子デバイスを使用して、メディアをキャプチャする、キャプチャ持続時間の現在の状態についてのフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。所定の条件が満たされているときに視覚表現なしで低光状態インジケータを表示することによって、ユーザインタフェースを雑然とさせることなく、電子デバイスが低光カメラモードの間にメディアをキャプチャするように構成され、かつキャプチャ持続時間の通常範囲にあるメディアをキャプチャするためのキャプチャ持続時間を使用するというフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。所定の条件が満たされているときに低光状態が利用可能であることを示す低光キャプチャ状態インジケータを表示することによって、ユーザが、電子デバイスが低光カメラモードにある間にメディアをキャプチャするように構成されていないが、低光カメラモードでメディアをキャプチャするように(例えば、ユーザ入力を介して)構成されるために利用可能であることを迅速に認識できるようにし、ユーザが、メディアをキャプチャする要求を受信したことに応じて、電子デバイスが低光カメラモードに従って動作しないことを迅速に理解できるようにする。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。所定の条件が満たされているときに低光キャプチャ状態インジケータを表示することをやめることによって、ユーザが、低光カメラモードにある間に、電子デバイスがメディアをキャプチャするように構成されていないことを迅速に認識できるようにし、ユーザが、メディアをキャプチャする要求を受信したことに応じて、電子デバイスが低光カメラモードに従って動作しないことを迅速に理解できるようにする。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 Before the low-light camera mode is active, in some embodiments, the electronic device displays a second low-light capture status indicator (e.g., 602c in FIG. 26H) indicating that the low-light camera mode status is active (e.g., a status indicating that the low-light camera mode is active (e.g., the device is currently configured to capture media in low-light camera mode in response to a request to capture media)) and including a visual representation of a third capture duration (e.g., the first or second capture duration) (e.g., "5 seconds" in FIG. 26H) pursuant to a determination that the ambient light (e.g., 2680d) in the field of view of one or more cameras is within a second predetermined range (e.g., below a threshold such as 1 lux) (e.g., determined when within a first predetermined range that satisfies a capture duration indication criterion). In some embodiments, before the low light camera mode is active, pursuant to a determination that the ambient light in the field of view of the one or more cameras (e.g., 2680c) is within a fourth predetermined range (e.g., a predetermined range such as 1 lux to 10 lux), display a third low light capture status indicator (e.g., 602c of FIG. 26E ) indicating that a low light camera mode state is active and does not include a visual representation of a third capture duration (e.g., 602c of FIG. 26E ); pursuant to a determination that the ambient light in the field of view of the one or more cameras (e.g., 2680b) is within a fifth predetermined range (e.g., a predetermined range such as 10-20 lux), display a fourth low light capture status indicator (e.g., 602c of FIG. 26B ) indicating that a low light camera mode state is available (e.g., available for activation but not currently active) (e.g., indicating that the low light camera mode is available (e.g., the device is in a low light 26A , the electronic device displays a state indicating that the low light camera mode is not currently configured to capture media in low light camera mode, but may be configured to capture media in low light mode, a state indicating that the low light camera mode is available and has not been manually turned on or off by a user (e.g., the device has not been configured to capture or not capture media in low light camera mode since the low light capture mode indicator was first (most recently) displayed or since the decision to display the low light capture mode indicator); and pursuant to a determination that ambient light within the field of view of one or more cameras (e.g., 2680a) is within a sixth predetermined range (e.g., a predetermined range such as greater than 20 lux), the electronic device ceases displaying the second low light capture status indicator, the third low light capture status indicator, and the fourth low light capture status indicator (e.g., absence of 602c in FIG. 26A ). In some embodiments, the second, third, and fourth low light capture status indicators are visually distinct from one another (e.g., different displayed color, texture, thickness, text, or marking (e.g., crossed out to indicate inactive status), with or without a visual representation of capture duration). In some embodiments, the fourth low light status indicator indicating that a low light capture mode status is available does not include a visual representation of a capture duration (e.g., the third capture duration). In some embodiments, pursuant to a determination that ambient light within the field of view of the one or more cameras is in a sixth predetermined range, the electronic device ceases to display any low light capture status indicators. In some embodiments, the third predetermined range (e.g., of ambient light) is less than the fourth predetermined range (e.g., of ambient light), which is less than the fifth predetermined range (e.g., of ambient light), which is less than the sixth predetermined range (e.g., of ambient light). In some embodiments, the predetermined ranges are non-overlapping (e.g., non-overlapping predetermined ranges). Displaying a visual representation of the capture duration within the low light status indicator when a predetermined condition is met provides feedback to a user about a current state of a capture duration using an electronic device to capture media when the capture duration is outside of a normal range of capture durations. Providing improved visual feedback to a user improves operability of the device and provides a more efficient user-device interface (e.g., by assisting a user to make appropriate inputs when operating/interacting with the device and reducing user errors), which further allows a user to use the device more quickly and efficiently, thereby reducing power usage and improving battery life of the device. Displaying a visual representation of the capture duration within the low light status indicator when a predetermined condition is met provides feedback to a user about a current state of a capture duration using an electronic device to capture media when the capture duration is outside of a normal range of capture durations. Providing improved visual feedback to a user improves operability of the device and provides a more efficient user-device interface (e.g., by assisting a user to make appropriate inputs when operating/interacting with the device and reducing user errors), which further allows a user to use the device more quickly and efficiently, thereby reducing power usage and improving battery life of the device. Displaying a low light status indicator without a visual representation when a predetermined condition is met provides feedback to the user that the electronic device is configured to capture media while in a low light camera mode and uses a capture duration for capturing media that is in the normal range of capture durations without cluttering the user interface. Providing the user with improved visual feedback improves usability of the device, provides a more efficient user-device interface (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), which in turn reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently. Displaying a low light capture status indicator indicating that a low light status is available when a predetermined condition is met allows a user to quickly recognize that the electronic device is not configured to capture media while in a low light camera mode, but is available to be configured (e.g., via user input) to capture media in a low light camera mode, and allows a user to quickly understand that in response to receiving a request to capture media, the electronic device will not operate according to the low light camera mode. By performing an optimized operation when a set of conditions are met without requiring further user input, the operability of the device is improved, the user-device interface is made more efficient (e.g., by assisting the user to provide appropriate inputs when operating/interacting with the device and reducing user errors), and the user is allowed to use the device more quickly and efficiently, thereby reducing power usage and improving battery life of the device. By ceasing to display the low-light capture status indicator when a predetermined condition is met, the user is allowed to quickly recognize that the electronic device is not configured to capture media while in the low-light camera mode, and the user is allowed to quickly understand that the electronic device will not operate according to the low-light camera mode in response to receiving a request to capture media. By performing an optimized operation when a set of conditions are met without requiring further user input, the operability of the device is improved, the user-device interface is made more efficient (e.g., by assisting the user to provide appropriate inputs when operating/interacting with the device and reducing user errors), and the user is allowed to use the device more quickly and efficiently, thereby reducing power usage and improving battery life of the device.

いくつかの実施形態では、メディアをキャプチャするキャプチャ持続時間を調整するコントロール(例えば、1804)は、第1の推奨されるキャプチャ持続時間値(例えば、キャプチャ持続時間が最小値であることを示す値、複数の画像よりも単一の画像を示す値は、単一のキャプチャ要求に応じて、キャプチャされる)に対応する第1の状態(例えば、2604a)(例えば、中心の左(例えば、最も遠い左)である調整可能なコントロール(例えば、位置での調整可能なコントロールのティックマーク)上の位置)と、第2の推奨されるキャプチャ持続時間値(例えば、最小ユーザ選択可能値よりも大きく、かつ現在の条件でユーザによって設定され得る最大利用可能値よりも小さい、電子デバイスによって設定された値)に対応する第2の状態(例えば、2604b)(例えば、コントロール上の調整可能なコントロール(例えば、位置での調整可能なコントロールのティックマーク)上の中心位置)と、第3の推奨されるキャプチャ持続時間値(例えば、現在の条件でユーザによって設定され得る最大利用可能値、最大利用可能値は、照明条件及び又はカメラ安定性が変化するにつれて任意選択的に変化する(照明レベルが低下し、かつ/又はカメラがより安定であると増加し、照明レベルが増加し、かつ/又はカメラがより不安定であると減少する)に対応する第3の状態(例えば、2604c)(例えば、中心の右(例えば、最も遠い右)である調整可能なコントロール(例えば、位置での調整可能なコントロールのティックマーク)上の位置)と、に調整可能であるように構成されている。いくつかの実施形態では、調整可能なコントロールを表示するときに、第1の状態、第2の状態、及び第3の状態のコントロール上の位置がコントロール上に表示され、かつ互いに視覚的に区別可能である(例えば、異なるように標識される(例えば、「OFF」、「自動」、「MAX」)。いくつかの実施形態では、調整可能なコントロールを表示するときに、第1の状態、第2の状態、及び第3の状態の調整可能なコントロール(例えば、ティックマーク)上の位置が調整可能なコントロール上の他の位置(例えば、ティックマーク)から視覚的に区別可能である。いくつかの実施形態では、(例えば、第1、第2、及び第3の状態とは視覚的に異なる)1つ以上の選択可能状態が存在する。いくつかの実施形態では、調整可能なコントロールは、選択可能状態に対応する位置に設定され得る。いくつかの実施形態では、調整可能なコントロールは、選択可能状態のうちの2つ以上の位置の間である位置(例えば、中間位置)に設定され得る。低光モードにある間に電子デバイスがメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することにより、特定のキャプチャ持続時間の既定の状態(例えば、オフ状態、デフォルト状態、最大状態)に対応するキャプチャ持続時間についてのフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, a control (e.g., 1804) for adjusting a capture duration for capturing media may have a first state (e.g., 2604a) (e.g., a position on the adjustable control (e.g., a tick mark of the adjustable control at a position) that is left of center (e.g., furthest left)) corresponding to a first recommended capture duration value (e.g., a value indicating that the capture duration is a minimum value, a value indicating a single image rather than multiple images are captured in response to a single capture request), a second state (e.g., 2604b) (e.g., a center position on the adjustable control (e.g., a tick mark of the adjustable control at a position) on the control) corresponding to a second recommended capture duration value (e.g., a value set by the electronic device that is greater than a minimum user selectable value and less than a maximum available value that may be set by a user in the current conditions), and a third recommended capture duration value (e.g., a maximum available value that may be set by a user in the current conditions, the maximum available value optionally changing as lighting conditions and/or camera stability change (lighting levels decrease and/or and a third state (e.g., 2604c) (e.g., a position on the adjustable control (e.g., a tick mark on the adjustable control) that is right of center (e.g., furthest right)) corresponding to a first state, a second state, and a third state (e.g., 2604d) (e.g., a position on the adjustable control (e.g., a tick mark on the adjustable control) that is right of center (e.g., furthest right)) corresponding to a first state, a second state, and a third state (e.g., a tick mark on the adjustable control) that is right of center (e.g., furthest right). In some embodiments, when displaying the adjustable control, the positions on the adjustable control for the first state, the second state, and the third state are displayed on the control and are visually distinguishable from one another (e.g., labeled differently (e.g., "OFF", "AUTO", "MAX"). In some embodiments, when displaying the adjustable control, the positions on the adjustable control (e.g., tick mark) for the first state, the second state, and the third state are visually distinguishable from other positions (e.g., tick marks) on the adjustable control. In some embodiments, there are one or more selectable states (e.g., visually distinct from the first, second, and third states). In some embodiments, the adjustable control may be set to a position that corresponds to the selectable states. In some embodiments, the adjustable control may be set to a position (e.g., an intermediate position) that is between two or more of the selectable states. Displaying a control to adjust the capture duration for which the electronic device captures media while in the low light mode provides the user with feedback about the capture duration that corresponds to a particular capture duration predefined state (e.g., off state, default state, maximum state). Providing the user with improved visual feedback improves device usability and provides a more efficient user-device interface (e.g., by assisting the user in providing appropriate inputs and reducing user errors when operating/interacting with the device), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、メディアをキャプチャするキャプチャ持続時間を調整するコントロール(例えば、1804)を表示することの一部として、電子デバイスは、1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、第2の状態(例えば、図26Gの2604b)(例えば、コントロールが第1のキャプチャ持続時間に設定されているインジケーションがコントロール上の第2の推奨されるキャプチャ持続時間値に対応する位置に表示される)(ここで、第1のキャプチャ持続時間は、第2の推奨されるキャプチャ持続時間値である)へと調整されたメディアをキャプチャするキャプチャ持続時間を調整するコントロール(例えば、図26Gの1804)を(例えば、コントロールが表示される(例えば、最初に表示される)ときに)表示し;かつ1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、第2の状態(例えば、図26Iの2604b)(例えば、コントロールが第2のキャプチャ持続時間に設定されているインジケーションがコントロール上の第2の推奨されるキャプチャ持続時間値に対応する位置に表示される)(ここで、第2のキャプチャ持続時間は、第2の推奨されるキャプチャ持続時間値である)へと(例えば、に)調整されたメディアをキャプチャするキャプチャ持続時間を調整するコントロール(例えば、図26Iの1804)を(例えば、コントロールが表示される(例えば、最初に表示される)ときに)表示する。それぞれの所定の条件満たされるときに基づいて、キャプチャ持続時間状態に対して異なる推奨されるキャプチャ持続時間を提供することにより、ユーザは、それぞれの既定の条件が満たされるときに使用されるそれぞれのキャプチャ持続時間に基づいて、特定のキャプチャ持続時間状態に対応する値を迅速に認識することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, as part of displaying a control (e.g., 1804) that adjusts a capture duration for capturing media, the electronic device may display (e.g., a control displaying a control (e.g., 1804 of FIG. 26G) that adjusts a capture duration for capturing media adjusted to a second state (e.g., 2604b of FIG. 26G) (e.g., an indication that the control is set to the first capture duration is displayed on the control at a location corresponding to the second recommended capture duration value) (where the first capture duration is the second recommended capture duration value) pursuant to a determination that a first set of capture duration criteria is met. and pursuant to a determination that a set of second capture duration criteria is met, display (e.g., when the control is displayed (e.g., initially displayed) a control (e.g., 1804 of FIG. 26I ) that adjusts the capture duration for capturing the adjusted media to (e.g., to) a second state (e.g., 2604 b of FIG. 26I ) (e.g., an indication that the control is set to the second capture duration is displayed on the control at a location corresponding to the second recommended capture duration value) (where the second capture duration is the second recommended capture duration value). By providing different recommended capture durations for the capture duration states based on when each predetermined condition is met, a user can quickly recognize which value corresponds to a particular capture duration state based on the respective capture duration used when each predetermined condition is met. By performing an optimized action when a set of conditions are met without requiring further user input, it improves usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves the battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、メディアをキャプチャするキャプチャ持続時間を調整するコントロール(例えば、1804)を表示することの一部として、メディアをキャプチャするキャプチャ持続時間を調整するコントロールが第3の状態(例えば、2604c)であるとの判定、及び1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、第3の推奨されるキャプチャ持続時間値(例えば、図26Rの2604c)が、第3のキャプチャ持続時間値であり、メディアをキャプチャするキャプチャ持続時間を調整するコントロールが第3の状態にあるとの判定、及び1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、第3の推奨されるキャプチャ持続時間値(例えば、図26Sの2604c)が、第3のキャプチャ持続時間値とは異なる(例えば、第3のキャプチャ持続時間値よりも大きい)第4のキャプチャ持続時間値である。いくつかの実施形態では、最大ユーザ選択可能キャプチャ持続時間は、動的であり、かつオンカメラ安定化、環境条件、光レベル、カメラ動き、及び/又はシーン動きのうちの1つ以上に基づいて変化する。それぞれの所定の条件満たされるときに基づいて、キャプチャ持続時間状態に対して異なる推奨されるキャプチャ持続時間を提供することにより、ユーザは、それぞれの既定の条件が満たされるときに使用されるそれぞれのキャプチャ持続時間に基づいて、特定のキャプチャ持続時間状態に対応する値を迅速に認識することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, as part of displaying a control (e.g., 1804) for adjusting a capture duration for capturing media, a third recommended capture duration value (e.g., 2604c of FIG. 26R) is a third capture duration value in accordance with a determination that the control for adjusting a capture duration for capturing media is in a third state (e.g., 2604c) and a determination that a set of first capture duration criteria is met, and a third recommended capture duration value (e.g., 2604c of FIG. 26S) is a fourth capture duration value that is different from (e.g., greater than) the third capture duration value in accordance with a determination that the control for adjusting a capture duration for capturing media is in a third state and a determination that a set of second capture duration criteria is met. In some embodiments, the maximum user-selectable capture duration is dynamic and changes based on one or more of on-camera stabilization, environmental conditions, light levels, camera motion, and/or scene motion. By providing different recommended capture durations for capture duration states based on when each predefined condition is met, a user can quickly recognize the value that corresponds to a particular capture duration state based on the respective capture duration used when each predefined condition is met. Executing an optimized action when a set of conditions is met without requiring further user input improves usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves the battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第2の推奨されるキャプチャ持続時間値は、第5のキャプチャ持続時間値であり、第3の推奨されるキャプチャ持続時間値は、第6の持続時間キャプチャ値である。いくつかの実施形態では、メディアをキャプチャするキャプチャ持続時間を調整するコントロール(例えば、1804)を表示している間に、電子デバイスは、電子デバイスの現在の条件(例えば、電子デバイスの安定化、1つ以上のカメラによって検出された周辺光、1つ以上のカメラの視野内の移動)の第1の変化を検出する。いくつかの実施形態では、電子デバイスの現在の条件の第1の変化を検出したことに応じて、かつ第1の現在の条件が第3のキャプチャ持続時間基準を満たすとの判定に従って、電子デバイスは、第2の推奨されるキャプチャ持続時間値(例えば、2604b)のうちの少なくとも1つを、第7のキャプチャ持続時間値に変更する。いくつかの実施形態では、第5のキャプチャ持続時間値は、第7のキャプチャ持続時間値とは異なる。いくつかの実施形態では、第3の推奨されるキャプチャ持続時間値(例えば、2604c)を、第8のキャプチャ持続時間値に。いくつかの実施形態では、第8のキャプチャ持続時間値は、第6のキャプチャ持続時間値とは異なる。 In some embodiments, the second recommended capture duration value is a fifth capture duration value and the third recommended capture duration value is a sixth capture duration value. In some embodiments, while displaying a control (e.g., 1804) for adjusting a capture duration for capturing media, the electronic device detects a first change in a current condition of the electronic device (e.g., stabilization of the electronic device, ambient light detected by one or more cameras, movement within the field of view of one or more cameras). In some embodiments, in response to detecting the first change in the current condition of the electronic device and in accordance with a determination that the first current condition meets the third capture duration criterion, the electronic device changes at least one of the second recommended capture duration values (e.g., 2604b) to a seventh capture duration value. In some embodiments, the fifth capture duration value is different from the seventh capture duration value. In some embodiments, the third recommended capture duration value (e.g., 2604c) to an eighth capture duration value. In some embodiments, the eighth capture duration value is different from the sixth capture duration value.

いくつかの実施形態では、1組の第1のキャプチャ持続時間基準(例えば、又は第2のキャプチャ持続時間基準)は、1つ以上のカメラの視野内で検出された周辺光(例えば、対応する期間にわたって周辺光の第1の所定の範囲内にある(又は、第2のキャプチャ持続時間基準の場合、周辺光の第1の所定の範囲とは異なる周辺光の第2の所定範囲を上回る)、1つ以上のカメラの視野内で検出された周辺光)と、1つ以上のカメラの視野内で検出された移動(例えば、対応する期間にわたって1つ以上のカメラの視野内の検出された移動の第1の所定の範囲内にある(又は、第2のキャプチャ持続時間基準の場合、1つ以上のカメラの視野内の第1の所定の移動範囲とは異なる1つ以上のカメラの視野内の第2の所定の移動範囲を上回る)、1つ以上のカメラの視野内で検出された移動)と、電子デバイスの(例えば、加速度計及び/又はジャイロスコープによる)第2の安定度(例えば、対応する期間にわたって電子デバイスの現在の移動量(又は移動の欠如))(例えば、第2の安定性閾値を上回る、電子デバイスの第2の安定度(又は、第2のキャプチャ持続時間の場合、第2の安定性閾値とは異なる第3の安定性閾値を上回る)と、からなる群から選択される1つ以上のパラメータに基づく基準を含む。 In some embodiments, a set of first capture duration criteria (e.g., or second capture duration criteria) may include a combination of detected ambient light in the field of view of one or more cameras (e.g., detected ambient light in the field of view of one or more cameras being within a first predetermined range of ambient light for a corresponding time period (or, in the case of a second capture duration criteria, exceeding a second predetermined range of ambient light that is different from the first predetermined range of ambient light)) and detected movement in the field of view of one or more cameras (e.g., detected movement in the field of view of one or more cameras being within a first predetermined range of detected movement in the field of view of one or more cameras for a corresponding time period (or, in the case of a second capture duration criteria, exceeding a second predetermined range of ambient light that is different from the first predetermined range of ambient light)). The criteria include criteria based on one or more parameters selected from the group consisting of: (a) detected movement within the field of view of one or more cameras (e.g., movement within the field of view of one or more cameras exceeds a second predetermined range of movement within the field of view of one or more cameras that is different from the first predetermined range of movement within the field of view of one or more cameras); and (b) a second stability (e.g., via an accelerometer and/or gyroscope) of the electronic device (e.g., a current amount of movement (or lack of movement) of the electronic device over a corresponding period of time) (e.g., a second stability of the electronic device that exceeds a second stability threshold (or, in the case of a second capture duration, exceeds a third stability threshold that is different from the second stability threshold).

いくつかの実施形態では、メディアキャプチャユーザインタフェースを表示することの一部として、電子デバイスは、1つ以上のカメラの視野の表現(例えば、603)と同時に、メディアをキャプチャするアフォーダンス(例えば、610)(例えば、選択可能ユーザインタフェースオブジェクト)を表示する。いくつかの実施形態では、メディアをキャプチャするアフォーダンスを表示、かつコントロール(例えば、1804)が第3のキャプチャ持続時間(例えば、第1のキャプチャ持続時間、第2のキャプチャ持続時間、又はコントロールを設定することに向けられたユーザ入力で設定された別の持続時間)に設定されているインジケーション(例えば、1818)を表示している間に、電子デバイスは、メディアをキャプチャするアフォーダンスの選択を含む第1の入力(例えば、2650j)(例えば、タップ)を検出する。いくつかの実施形態では、メディアをキャプチャするアフォーダンスの選択は、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に対応する。いくつかの実施形態では、メディアをキャプチャするアフォーダンスに対応する第1の入力(例えば、2650j)を検出したことに応じて、電子デバイスは、第1のキャプチャ持続時間にわたって第4の複数の画像のキャプチャを開始する。 In some embodiments, as part of displaying a media capture user interface, the electronic device displays an affordance (e.g., 610) (e.g., a selectable user interface object) to capture media simultaneously with a representation (e.g., 603) of the field of view of one or more cameras. In some embodiments, while displaying the affordance to capture media and displaying an indication (e.g., 1818) that the control (e.g., 1804) is set to a third capture duration (e.g., the first capture duration, the second capture duration, or another duration set by user input directed to setting the control), the electronic device detects a first input (e.g., 2650j) (e.g., a tap) that includes a selection of the affordance to capture media. In some embodiments, the selection of the affordance to capture media corresponds to a single request to capture images corresponding to the field of view of one or more cameras. In some embodiments, in response to detecting the first input (e.g., 2650j) corresponding to the affordance to capture media, the electronic device begins capturing a fourth plurality of images over the first capture duration.

いくつかの実施形態では、コントロール(例えば、1804)が第3のキャプチャ持続時間に設定されているというインジケーション(例えば、1818)は、第1のインジケーションである。いくつかの実施形態では、第1のインジケーションは、第3のキャプチャ持続時間に対応するコントロール上の第1の位置に表示される。いくつかの実施形態では、メディアをキャプチャするアフォーダンスに対応する第1の入力(例えば、2650j)を検出したことに応じて、電子デバイスは、コントロール上の第1の位置からコントロール上の第2の位置(例えば、第3のキャプチャ持続時間とは異なる、ゼロのキャプチャ持続時間に対応するコントロール上の位置)に第1のインジケーションを動かすアニメーション(例えば、図26J~図26Q)を表示する(例えば、コントロール上の第2の位置は、コントロール上の第1の位置とは異なる)(例えば、スライダにわたってインジケーション(例えば、スライダバー)をスライドする)(例えば、巻き出す(例えば、値からゼロへのカウントダウン))。いくつかの実施形態では、第2の位置に第1のインジケーションを表示したことに応じて、電子デバイスは、コントロール上の第1の位置に第1のインジケーションを再表示する(例えば、図26Q~図26Rの1818)(及びコントロール上の第2の位置での第1のインジケーションを表示することを停止する)。予め設定されたキャプチャ持続時間に対応する位置に戻って、キャプチャ持続時間を調整するコントロール上のインジケーションを再表示することにより、ユーザは、直近にキャプチャされたメディアをキャプチャするために使用されたキャプチャ持続時間を迅速に認識することができ、ユーザがキャプチャ持続時間を調整するコントロールをリセットする必要がある入力の数を低減する。改善された視覚的フィードバックをユーザに提供し、操作を実行するために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the indication (e.g., 1818) that the control (e.g., 1804) is set to the third capture duration is the first indication. In some embodiments, the first indication is displayed at a first location on the control corresponding to the third capture duration. In some embodiments, in response to detecting a first input (e.g., 2650j) corresponding to an affordance to capture media, the electronic device displays an animation (e.g., FIGS. 26J-26Q) that moves the first indication from a first location on the control to a second location on the control (e.g., a location on the control corresponding to a zero capture duration that is different from the third capture duration) (e.g., the second location on the control is different from the first location on the control) (e.g., sliding the indication (e.g., a slider bar) across a slider) (e.g., unwinding (e.g., counting down from a value to zero)). In some embodiments, in response to displaying the first indication in the second position, the electronic device redisplays the first indication in the first position on the control (e.g., 1818 in Figs. 26Q-26R) (and stops displaying the first indication in the second position on the control). By redisplaying the indication on the control that adjusts the capture duration back to a position corresponding to the pre-set capture duration, the user can quickly recognize the capture duration used to capture the most recently captured media, and reduces the number of inputs the user must enter to reset the control that adjusts the capture duration. Providing improved visual feedback to the user and reducing the number of inputs required to perform an operation enhances the usability of the device, makes the user-device interface more efficient (e.g., by helping the user make appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces the power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、コントロール(例えば、1804)が第3のキャプチャ持続時間に設定されているというインジケーション(例えば、1818)は、第2のインジケーションである。いくつかの実施形態では、第2のインジケーションは、第3のキャプチャ持続時間に対応するコントロール上の第3の位置に表示される。いくつかの実施形態では、メディアをキャプチャするアフォーダンスに対応する第1の入力を検出したことに応じて、電子デバイスは、コントロール上の第3の位置からコントロール上の第4の位置(例えば、第3のキャプチャ持続時間とは異なる、ゼロのキャプチャ持続時間に対応するコントロール上の位置)に第2のインジケーションを動かすアニメーションを表示する(例えば、コントロール上の第2の位置は、コントロール上の第1の位置とは異なる)(例えば、スライダにわたってインジケーション(例えば、スライダバー)をスライドする)(例えば、巻き出す(例えば、値からゼロへのカウントダウン))。いくつかの実施形態では、アニメーションを表示している間に、電子デバイスは、電子デバイスの現在の条件の第2の変化を検出する。いくつかの実施形態では、現在の条件の第2の変化を検出したことに応じて、かつ第2の現在の条件が第4のキャプチャ持続時間基準を満たすとの判定に従って、かつ第4の位置(例えば、最大キャプチャ持続時間値(又は第3の推奨されるキャプチャ持続時間値)の位置に対応する位置)に第1のインジケーションを表示したことに応じて、電子デバイスは、第3のキャプチャ持続時間とは異なる第4のキャプチャ持続時間に対応するコントロール上の第5の位置に、第2のインジケーションを表示する。いくつかの実施形態では、現在の条件が第4のキャプチャ持続時間基準を満たさないとの判定に従って、かつ第4の位置に第2のインジケーションを表示したことに応じて、電子デバイスは、コントロール上の第3の位置に第2のインジケーションを再表示する。所定の条件であるときにキャプチャ持続時間を異なるキャプチャ持続時間値に調整するコントロール上のインジケーションを表示することにより、ユーザは、最も最近キャプチャされたメディアをキャプチャするために使用されたキャプチャ持続時間が変化したことを迅速に認識することができ、ユーザが、キャプチャ持続時間を所定の条件に好ましい(例えば、キャプチャの長さをバランスしている間により良い品質画像を生成する可能性が高い)新しいキャプチャ持続時間に調整するコントロールをリセットする必要がある入力の数を低減する。改善された視覚的フィードバックをユーザに提供し、操作を実行するために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the indication (e.g., 1818) that the control (e.g., 1804) is set to a third capture duration is a second indication. In some embodiments, the second indication is displayed at a third position on the control corresponding to the third capture duration. In some embodiments, in response to detecting a first input corresponding to an affordance to capture media, the electronic device displays an animation (e.g., the second position on the control is different from the first position on the control) that moves the second indication from a third position on the control to a fourth position on the control (e.g., a position on the control corresponding to a zero capture duration that is different from the third capture duration) (e.g., sliding the indication (e.g., a slider bar) across a slider (e.g., unwinding (e.g., counting down from a value to zero)). In some embodiments, while displaying the animation, the electronic device detects a second change in a current condition of the electronic device. In some embodiments, in response to detecting a second change in the current conditions and in accordance with a determination that the second current conditions meet the fourth capture duration criterion and in response to displaying the first indication in the fourth position (e.g., a position corresponding to the maximum capture duration value (or the third recommended capture duration value)), the electronic device displays a second indication in a fifth position on the control corresponding to a fourth capture duration different from the third capture duration. In some embodiments, in response to a determination that the current conditions do not meet the fourth capture duration criterion and in response to displaying the second indication in the fourth position, the electronic device re-displays the second indication in a third position on the control. By displaying an indication on the control to adjust the capture duration to a different capture duration value when in a predetermined condition, a user can quickly recognize that the capture duration used to capture the most recently captured media has changed and reduces the number of inputs a user must enter to reset the control to adjust the capture duration to a new capture duration that is preferred for the predetermined conditions (e.g., more likely to produce a better quality image while balancing the length of the capture). The device is more user-friendly by providing improved visual feedback to the user and reducing the number of inputs required to perform operations, making the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and allowing the user to use the device more quickly and efficiently, thereby reducing power usage and improving battery life of the device.

いくつかの実施形態では、(例えば、1つ以上のカメラにより)メディアをキャプチャする間に(例えば、キャプチャを開始した後に)、第1のキャプチャ持続時間にわたる第1の複数の画像のキャプチャを開始した後の第1の時間において、電子デバイスは、第1の時間の前に(例えば、第1の時間の前に、及びキャプチャが開始された時間の後に)1つ以上のカメラによってキャプチャされた複数の画像からの少なくともなんらかのコンテンツに基づく第3の合成画像の表現(例えば、630)表現(例えば、図18A~図18Xの624)を表示し、第1のキャプチャ持続時間にわたる第1の複数の画像のキャプチャを開始した後の第2の時間において、電子デバイスは、第2の時間の前に(例えば、第2の時間の前に、及びキャプチャが開始された時間の後に)1つ以上のカメラによってキャプチャされた複数の画像からの少なくともなんらかのコンテンツに基づく第4の合成画像の表現(例えば、630)(例えば、図18A~図18Xの624)を表示する。いくつかの実施形態では、第1の時間は、第2の時間とは異なる。いくつかの実施形態では、第3の合成画像の表現は、第4の合成画像の表現と視覚的に区別される。 In some embodiments, during (e.g., after initiating capture) of media (e.g., by one or more cameras), at a first time after initiating capture of a first plurality of images over a first capture duration, the electronic device displays a representation (e.g., 630) of a third composite image (e.g., 624 in FIGS. 18A-18X) based on at least some content from the plurality of images captured by the one or more cameras before the first time (e.g., before the first time and after the time capture was initiated), and at a second time after initiating capture of the first plurality of images over the first capture duration, the electronic device displays a representation (e.g., 630) of a fourth composite image (e.g., 624 in FIGS. 18A-18X) based on at least some content from the plurality of images captured by the one or more cameras before the second time (e.g., before the second time and after the time capture was initiated). In some embodiments, the first time is different from the second time. In some embodiments, the representation of the third composite image is visually distinct from the representation of the fourth composite image.

いくつかの実施形態では、メディアをキャプチャするアフォーダンス(例えば、610)に対応する第1の入力(例えば、2650j)を検出したことに応じて、電子デバイスは、メディアをキャプチャするアフォーダンスの視覚外観(例えば、暗くする)を変更する。動作を実行せずにアクティブ化状態を反映するようにアイコンの視覚特性を更新することにより、アイコンの現在の状態についてのフィードバックをユーザに提供し、電子デバイスがメディアをキャプチャしているが、メディアのキャプチャを、メディアキャプチャ中に中断又は停止することができないことを示す視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, in response to detecting a first input (e.g., 2650j) corresponding to an affordance (e.g., 610) for capturing media, the electronic device changes the visual appearance (e.g., dims) of the affordance for capturing media. Updating the visual characteristics of the icon to reflect the activation state without performing an action provides feedback to the user about the current state of the icon, and provides visual feedback to the user indicating that the electronic device is capturing media, but that the media capture cannot be interrupted or stopped during media capture. Providing improved visual feedback to the user improves usability of the device, provides a more efficient user-device interface (e.g., by assisting the user in making appropriate inputs when operating/interacting with the device and reducing user errors), which in turn reduces the power usage of the device and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、メディア(例えば、2650j)をキャプチャするアフォーダンス(例えば、610)に対応する第1の入力を検出したことに応じて、電子デバイスは、メディアをキャプチャするアフォーダンスの表示を、メディアをキャプチャするアフォーダンスと視覚的に異なる、メディアのキャプチャを終了するアフォーダンス(例えば、1806)(例えば、停止アフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト))の表示に置き換える。いくつかの実施形態では、停止アフォーダンスは、カメラ持続時間に基づいて、時間中に表示される。いくつかの実施形態では、停止アフォーダンスがカメラ持続時間に基づいて、時間中に表示された後、電子デバイスは、カメラ持続時間が満了すると、停止アフォーダンスの表示を、メディアをキャプチャする要求のためのアフォーダンスに置き換える。いくつかの実施形態では、停止アフォーダンスを表示している間に、電子デバイスは、キャプチャ持続時間の終了前に停止アフォーダンスの選択に対応する入力を受信し、停止ボタンに対応する入力を受信したことに応じて、電子デバイスは、複数の画像をキャプチャするのを停止する。いくつかの実施形態では、キャプチャの終了前に停止アフォーダンスを選択することにより、より少ない画像をキャプチャさせる。いくつかの実施形態では、より少ない画像で生成された合成画像は、より多くの画像(例えば、又はフルキャプチャ持続時間中に撮影された画像)で生成された合成画像よりも暗くなる。動作を実行せずにアクティブ化状態を反映するようにアイコンの視覚特性を更新することにより、アイコンの現在の状態についてのフィードバックをユーザに提供し、電子デバイスがメディアをキャプチャしているが、メディアのキャプチャを、メディアキャプチャ中に中断又は停止することができ、かつユーザがアイコンを1回以上アクティブ化する場合には、アイコンに関連付けられた動作が実行されることを示す視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, in response to detecting a first input corresponding to an affordance (e.g., 610) to capture media (e.g., 2650j), the electronic device replaces the display of the affordance to capture media with a display of an affordance (e.g., 1806) to terminate capturing of media (e.g., a stop affordance (e.g., a selectable user interface object)) that is visually distinct from the affordance to capture media. In some embodiments, the stop affordance is displayed for a time based on the camera duration. In some embodiments, after the stop affordance is displayed for a time based on the camera duration, the electronic device replaces the display of the stop affordance with an affordance for a request to capture media when the camera duration expires. In some embodiments, while displaying the stop affordance, the electronic device receives an input corresponding to a selection of the stop affordance before the end of the capture duration, and in response to receiving an input corresponding to a stop button, the electronic device stops capturing multiple images. In some embodiments, selecting the stop affordance before the end of the capture causes fewer images to be captured. In some embodiments, a composite image produced with fewer images will be darker than a composite image produced with more images (e.g., or images taken during the full capture duration). Updating the visual characteristics of the icon to reflect the activation state without performing an action provides the user with feedback about the current state of the icon, providing visual feedback to the user that the electronic device is capturing media, but that media capture may be interrupted or stopped during media capture, and that if the user activates the icon one or more times, the action associated with the icon will be performed. Providing the user with improved visual feedback improves device usability and provides a more efficient user-device interface (e.g., by assisting the user in providing appropriate inputs and reducing user errors when operating/interacting with the device), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、メディアをキャプチャするアフォーダンスに対応する第1の入力(例えば、2650j)を検出したことに応じて、電子デバイスは、表示デバイスを介して、メディアのキャプチャが開始されたときの電子デバイスのポーズ(例えば、向き及び/又は位置)と、メディアのキャプチャを開始した後の第1の時間における電子デバイスのポーズ(例えば、向き及び/又は位置)との間の差(例えば、1つ以上の異なる回転角度又は回転軸間の度合い(例えば、ゼロ度を含む任意の値)、メディアのキャプチャが開始されたときの電子デバイスの向きの間の度合い、及び差の閾値レベルよりも大きい、メディアのキャプチャを開始された後の電子デバイスの向き)の視覚インジケーション(例えば、2670)(例えば、異なる色を有する1つ以上の形状、異なる色を有する線を含むボックス)を表示する(例えば、図26J~図26Q及び図28A~図28Bの方法2800に関連して後述及び上述したように)。いくつかの実施形態では、ポーズの差は、電子デバイスの先行ポーズに対して測定される。いくつかの実施形態では、ポーズの差は、1つ以上のカメラの視野内の対象の先行ポーズ(例えば、電子デバイスの現在の又は時間遅延の向き)に対して測定される。いくつかの実施形態では、差はゼロではない差である。いくつかの実施形態では、差はゼロである。いくつかの実施形態では、1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、電子デバイスは、a)メディアのキャプチャを開始する時間で電子デバイスの向きからの第1の差値を有する第1の時間での電子デバイスの向きに従って、第1の外観を有し、かつb)メディアのキャプチャを開始する時間で電子デバイスの向きからの第2の差値を有する第1の時間での電子デバイスの向きに従って、第1の外観とは異なる第2の外観を有する、視覚ガイドを表示する。視覚ガイダンスを提供することにより、ユーザは、メディアのキャプチャが開始された後に、いつ電子デバイスがその元の位置から動いたかを迅速に認識することができ、かつユーザは、画像の最大数が使用可能であり、容易に組み合わされて使用可能な又は改善されたマージ写真を形成することができるように、複数の画像をキャプチャするときと同一のフレーミングを維持することができる。改善された視覚的フィードバックを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, in response to detecting a first input (e.g., 2650j) corresponding to an affordance to capture media, the electronic device displays, via the display device, a visual indication (e.g., 2670) (e.g., one or more shapes having different colors, a box including lines having different colors) of a difference (e.g., degrees between one or more different rotation angles or rotation axes (e.g., any value including zero degrees), degrees between the orientation of the electronic device when capture of the media was initiated, and the orientation of the electronic device after capture of the media was initiated that is greater than a threshold level of difference) between the pose (e.g., orientation and/or position) of the electronic device when capture of the media was initiated and the pose (e.g., orientation and/or position) of the electronic device at a first time after capture of the media was initiated (e.g., degrees between one or more different rotation angles or rotation axes (e.g., any value including zero degrees), degrees between the orientation of the electronic device when capture of the media was initiated, and the orientation of the electronic device after capture of the media was initiated that is greater than a threshold level of difference) (e.g., as described below and above in connection with method 2800 of FIGS. 26J-Q and 28A-B). In some embodiments, the difference in pose is measured relative to a prior pose of the electronic device. In some embodiments, the difference in pose is measured relative to a prior pose of a subject within the field of view of one or more cameras (e.g., a current or time-delayed orientation of the electronic device). In some embodiments, the difference is a non-zero difference. In some embodiments, the difference is zero. In some embodiments, at a first time after initiating capture of media via one or more cameras, the electronic device displays a visual guide that a) has a first appearance according to an orientation of the electronic device at the first time having a first difference value from the orientation of the electronic device at the time of initiating capture of media, and b) has a second appearance different from the first appearance according to an orientation of the electronic device at the first time having a second difference value from the orientation of the electronic device at the time of initiating capture of media. Providing visual guidance allows a user to quickly recognize when the electronic device has moved from its original position after capture of media has begun, and allows the user to maintain the same framing when capturing multiple images so that a maximum number of images are usable and can be easily combined to form a usable or improved merged photograph. Providing improved visual feedback enhances device usability and makes the user-device interface more efficient (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), as well as reduces device power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のキャプチャ持続時間にわたる第1の複数の画像のキャプチャを開始した後に、かつ第1のキャプチャ持続時間にわたる第1の複数の画像のキャプチャの終了を検出する前に、電子デバイスは、第1のキャプチャ持続時間が閾値を上回る(例えば、図26Jの2604b)(例えば、1秒(単数又は複数)などの閾値を下回る)との判定に従って、1つ以上の低光モードアニメーションを表示し(例えば、図26J~図26Q)、第1のキャプチャ持続時間が閾値を上回らないとの判定に従って(例えば、図26Fの2604b)、1つ以上の低光モードアニメーションを表示することをやめる(例えば、図26F~図26G)(例えば、シャッターアフォーダンスを退色させる、アニメーションを展開する、ガイダンスを示すなど)。いくつかの実施形態では、低光モードアニメーションは、デバイスを依然として保持するための視覚ガイダンス(例えば、メディアのキャプチャが開始されたときの電子デバイスのポーズ(例えば、向き及び/又は位置)と、電子デバイスのポーズ(例えば、向き及び/又は位置)との間の差の視覚インジケーション)、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを更新するアニメーション、調整可能なコントロール上のインジケーションを更新すること、1つ以上のカメラの視野の表現を更新するアニメーションを含む。いくつかの実施形態では、電子デバイスは、キャプチャを開始する前の状態で表示を維持することによって、1つ以上の低光モードアニメーションを表示することをやめる。所定の条件が満たされているときにのみ、アニメーションを表示することにより、ユーザは、電子デバイスがメディアをキャプチャしているかどうかを迅速に認識することができ、キャプチャされたメディアの状態のインジケーション、及びデバイスがメディアをキャプチャしている間のメディアキャプチャの改善方法に関するガイダンスを提供する。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, after initiating capture of the first plurality of images over the first capture duration and prior to detecting an end of capture of the first plurality of images over the first capture duration, the electronic device displays one or more low light mode animations (e.g., FIGS. 26J-26Q) in accordance with a determination that the first capture duration exceeds a threshold (e.g., 2604b of FIG. 26J) (e.g., falls below a threshold such as 1 second(s)) and ceases displaying one or more low light mode animations (e.g., FIGS. 26F-26G) in accordance with a determination that the first capture duration does not exceed a threshold (e.g., 2604b of FIG. 26F) (e.g., fades a shutter affordance, unfolds an animation, shows guidance, etc.). In some embodiments, the low light mode animation includes visual guidance for holding the device still (e.g., a visual indication of a difference between the pose (e.g., orientation and/or position) of the electronic device when the capture of media was initiated and the pose (e.g., orientation and/or position) of the electronic device), animation for updating a control that adjusts the capture duration for capturing media, updating indications on adjustable controls, and animation for updating a representation of the field of view of one or more cameras. In some embodiments, the electronic device ceases displaying one or more low light mode animations by maintaining the display in a state before the capture was initiated. By displaying the animations only when predetermined conditions are met, the user can quickly recognize whether the electronic device is capturing media, and provides an indication of the state of the captured media, and guidance on how to improve the media capture while the device is capturing media. By performing an optimized operation when a set of conditions is met without requiring further user input, the device can be more easily operated, the user-device interface can be more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and the user can use the device more quickly and efficiently, thereby reducing power usage and improving the device's battery life.

方法2700に関して上述された処理(例えば、図27A~図27C)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2500、2800、3000、3200、3400、3600、3800、4000、及び4200は、方法2700を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法2800は、任意選択的に、方法2700に関連して上述した様々な技術を使用して、合成画像を生成するために、複数の画像をキャプチャする1つ以上の技術を採用する。 It should be noted that the details of the processes (e.g., FIGS. 27A-27C) described above with respect to method 2700 are also applicable in a similar manner to the methods described above. For example, methods 700, 900, 1100, 1300, 1500, 1700, 1900, 2100, 2300, 2500, 2800, 3000, 3200, 3400, 3600, 3800, 4000, and 4200 optionally include one or more of the characteristics of the various methods described above with reference to method 2700. For example, method 2800 optionally employs one or more techniques for capturing multiple images to generate a composite image using the various techniques described above with respect to method 2700.

図28A~図28Bは、いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。方法2800は、表示デバイス(例えば、タッチ感知ディスプレイ)を備えたデバイス(例えば、100、300、500、600)で実行される。方法2800のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 28A-28B are flow diagrams illustrating a method for editing media captured using an electronic device, according to some embodiments. Method 2800 is performed on a device (e.g., 100, 300, 500, 600) with a display device (e.g., a touch-sensitive display). Some operations of method 2800 are optionally combined, the order of some operations is optionally changed, and some operations are optionally omitted.

いくつかの実施形態では、電子デバイス(例えば、600)は、コンピュータシステムである。コンピュータシステムは、任意選択的に、ディスプレイ生成構成要素と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the electronic device (e.g., 600) is a computer system. The computer system is optionally in communication (e.g., wired communication, wireless communication) with a display generation component and with one or more input devices. The display generation component is configured to provide visual output, such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. The one or more input devices are configured to receive input, such as a touch-sensitive surface that receives user input. In some embodiments, the one or more input devices are integrated with the computer system. In some embodiments, the one or more input devices are separate from the computer system. Thus, the computer system can transmit data (e.g., image data or video data) via a wired or wireless connection to an integrated or external display generation component to visually generate content (e.g., using a display device) and can receive wired or wireless connection input from one or more input devices.

後述するように、方法2800は、メディアをキャプチャしている間にガイダンスを提供するための直感的な仕方を提供する。この方法は、メディアをキャプチャしている間にガイダンスを提供する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアをキャプチャすることを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, method 2800 provides an intuitive way to provide guidance while capturing media. The method reduces the cognitive burden on the user in providing guidance while capturing media, thereby creating a more efficient human-machine interface. For battery-operated computing devices, enabling the user to capture media more quickly and efficiently conserves power and extends the time between battery charges.

電子デバイス(例えば、600)は、表示デバイス(例えば、タッチ感知ディスプレイ)及び1つ以上のカメラ(例えば、電子デバイスの同じ側又は異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を有する。電子デバイスは、表示デバイスを介して、1つ以上のカメラ(例えば、カメラに視認可能である開放観測可能エリア、カメラレンズから所与の距離の画像の水平(又は垂直又は対角線)長さ)の視野の表現(例えば、630)(例えば、表現オーバータイム、カメラからのデータのライブプレビューフィード)を含むメディアキャプチャユーザインタフェースを表示する(2802)。 The electronic device (e.g., 600) has a display device (e.g., a touch-sensitive display) and one or more cameras (e.g., one or more cameras (e.g., dual camera, triple camera, quad camera, etc.) on the same or different sides (e.g., front camera, rear camera) of the electronic device. The electronic device displays (2802) via the display device a media capture user interface including a representation (e.g., 630) of the field of view of the one or more cameras (e.g., the open observable area visible to the camera, the horizontal (or vertical or diagonal) length of the image at a given distance from the camera lens) (e.g., a representation over time, a live preview feed of data from the camera).

表示デバイスを介して、メディアキャプチャユーザインタフェースを表示している間に、電子デバイスは、メディアをキャプチャする要求(例えば、2650j)(例えば、表示デバイスに表示されている又は物理的に接続されたシャッターアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)上のユーザ入力)を受信する(2804)。 While displaying the media capture user interface via the display device, the electronic device receives a request (e.g., 2650j) to capture media (e.g., user input on a shutter affordance (e.g., a selectable user interface object) displayed on or physically connected to the display device) (2804).

メディアをキャプチャする要求を受信したことに応じて、電子デバイスは、1つ以上のカメラを介して(例えば、1つ以上のカメラの少なくとも第1のカメラを介して)、メディアのキャプチャを開始する(2806)。 In response to receiving the request to capture media, the electronic device begins capturing media via one or more cameras (e.g., via at least a first camera of the one or more cameras) (2806).

1つ以上のカメラを介して、メディアのキャプチャを開始した(例えば、メディアをキャプチャする要求を受信したことに応じて、メディアのキャプチャを開始した、1つ以上のカメラを初期化した、メディアキャプチャインタフェースを表示又は更新した)後の第1の時間において(2808)、低光モードがアクティブであるとき(例えば、図26Jの602c)(例えば、1つ以上のカメラのうちの少なくとも1つが低光環境でメディアをキャプチャするように構成されているとき)に満たされる基準を含む、1組のガイダンス基準(例えば、低光モードがアクティブであるときのキャプチャ持続時間(例えば、時間(例えば、合計キャプチャ時間、露出時間)、ピクチャ/フレームの数で測定)に基づく1組のガイダンス基準)が満たされているとの判定に従って、電子デバイスは、表示デバイスを介して、メディアのキャプチャが開始されたときの電子デバイスのポーズ(例えば、向き及び/又は位置)と、メディアのキャプチャを開始した後の第1の時間における電子デバイスのポーズ(例えば、向き及び/又は位置)との間の差(例えば、1つ以上の異なる回転角度又は回転軸間の度(例えば、ゼロ度を含む任意の値)、差の閾値レベルよりも大きい、メディアのキャプチャが開始されたときの電子デバイスの向きとメディアのキャプチャが開始された後の電子デバイスの向きとの間の度)の視覚インジケーション(例えば、図2670)(例えば、異なる色を有する1つ以上の形状、異なる色を有する線を含むボックス)を表示する(2810)。いくつかの実施形態では、低光カメラモードは、低光条件が満たされているときにアクティブである。いくつかの実施形態では、低光条件は、1つ以上のカメラの視野内の周辺光がそれぞれの閾値を下回るとき、電子デバイスが低光モードで動作していることを示す低光状態インジケータをユーザが選択する(例えば、オンにする)とき、低光カメラモードをアクティブ化する設定をユーザがオンにする、又はアクティブ化するとき、に満たされる条件を低光条件が含むときに満たされる。いくつかの実施形態では、ポーズの差は、電子デバイスの先行ポーズに対して測定される。いくつかの実施形態では、ポーズの差は、1つ以上のカメラの視野内の対象の先行ポーズ(例えば、電子デバイスの現在の又は時間遅延の向き)に対して測定される。いくつかの実施形態では、差はゼロではない差である。いくつかの実施形態では、差はゼロである。いくつかの実施形態では、1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、メディアのキャプチャを開始する時間で電子デバイスの向きからの第1の差値を有する第1の時間での電子デバイスの向きに従って、第1の外観を有し、かつ、メディアのキャプチャを開始する時間で電子デバイスの向きからの第2の差値を有する第1の時間での電子デバイスの向きに従って、第1の外観とは異なる第2の外観を有する、視覚ガイドを表示する。所定の条件が満たされているときにのみ、視覚ガイダンスを提供することにより、ユーザは、メディアのキャプチャが開始された場合、いつ電子デバイスがその元の位置から動いたかを迅速に認識することができ、かつユーザは、画像の最大数が使用可能であり、容易に組み合わされて使用可能な又は改善されたマージ写真を形成することができるように、複数の画像をキャプチャするときと同一のフレーミングを維持することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 At a first time (2808) after initiating capture of media via one or more cameras (e.g., initiating capture of media in response to receiving a request to capture media, initializing one or more cameras, displaying or updating a media capture interface), a set of guidance criteria (e.g., a set of guidance criteria based on capture duration when low light mode is active (e.g., measured in time (e.g., total capture time, exposure time), number of pictures/frames)) including criteria that are met when low light mode is active (e.g., 602c of FIG. 26J) (e.g., when at least one of the one or more cameras is configured to capture media in a low light environment) are determined. Pursuant to determining that the low light camera mode condition is met, the electronic device displays (2810) via the display device a visual indication (e.g., diagram 2670) (e.g., one or more shapes having different colors, a box including lines having different colors) of a difference (e.g., degrees (e.g., any value including zero degrees) between the pose (e.g., orientation and/or position) of the electronic device when capture of the media was initiated and the pose (e.g., orientation and/or position) of the electronic device at a first time after capture of the media was initiated that is greater than a threshold level of difference). In some embodiments, the low light camera mode is active when the low light condition is met. In some embodiments, the low light condition is met when the low light condition includes conditions that are met when ambient light within the field of view of one or more cameras falls below a respective threshold, when a user selects (e.g., turns on) a low light status indicator indicating that the electronic device is operating in low light mode, and when a user turns on or activates a setting that activates the low light camera mode. In some embodiments, the pose difference is measured relative to a previous pose of the electronic device. In some embodiments, the pose difference is measured relative to a previous pose of a subject (e.g., a current or time-delayed orientation of the electronic device) within the field of view of one or more cameras. In some embodiments, the difference is a non-zero difference. In some embodiments, the difference is zero. In some embodiments, a visual guide is displayed at a first time after initiating capture of media via one or more cameras, the visual guide having a first appearance according to an orientation of the electronic device at the first time having a first difference value from an orientation of the electronic device at the time of initiating capture of media, and a second appearance different from the first appearance according to an orientation of the electronic device at the first time having a second difference value from an orientation of the electronic device at the time of initiating capture of media. By providing the visual guidance only when a predetermined condition is met, a user can quickly recognize when the electronic device has moved from its original position when capture of media was initiated, and the user can maintain the same framing when capturing multiple images, such that a maximum number of images are usable and can be easily combined to form a usable or improved merged photograph. By performing an optimized action when a set of conditions are met without requiring further user input, it improves usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves the battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、1組のガイダンス基準が、閾値持続時間を上回る第1のキャプチャ持続時間にわたって複数の画像をキャプチャするように電子デバイスが構成されているときに満たされる基準を更に含む(例えば、図26J~図26Q)。いくつかの実施形態では、メディアをキャプチャするキャプチャ持続時間を調整するコントロール(例えば、スライダ)は、第1のキャプチャ持続時間のインジケーション(例えば、スライダバー)を含む。コントロールにより、電子デバイスに、インジケーションの持続時間に対応する持続時間(例えば、第1のキャプチャ持続時間)を構成させる。所定の条件が満たされているときにのみ、視覚ガイダンスを提供することにより、ユーザは、キャプチャ持続時間が閾値キャプチャ持続時間を超える場合、いつ電子デバイスがその元の位置から動いたかを、バッテリ寿命を無駄にすることなく、及び視覚ガイダンスが必要ない状況で視覚注意散漫を引き起こすことなく(例えば、これらの条件が満たされていないときに視覚ガイダンスを提供することによって)、迅速に認識することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the set of guidance criteria further includes criteria that are met when the electronic device is configured to capture a plurality of images for a first capture duration that exceeds a threshold duration (e.g., Figs. 26J-26Q). In some embodiments, a control (e.g., a slider) for adjusting a capture duration for capturing media includes an indication (e.g., a slider bar) of the first capture duration. The control causes the electronic device to configure a duration (e.g., the first capture duration) that corresponds to the duration of the indication. By providing visual guidance only when certain conditions are met, a user can quickly recognize when the electronic device has moved from its original position if the capture duration exceeds the threshold capture duration without wasting battery life and without causing visual distraction in situations where visual guidance is not needed (e.g., by providing visual guidance when these conditions are not met). By performing an optimized action when a set of conditions are met without requiring further user input, it improves usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves the battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1の1組の1つ以上の形状(例えば、2670b)(例えば、第1のボックス、十字、円/楕円、1つ以上の線)は、メディアのキャプチャが開始されたときの電子デバイスのポーズを表す。いくつかの実施形態では、第1の1組の1つ以上の形状は、メディアキャプチャユーザインタフェース上の第1の位置に表示される。いくつかの実施形態では、第2の1組の1つ以上の形状(例えば、2670c)(例えば、第2のボックス、十字、円/楕円、1つ以上の線)は、メディアのキャプチャを開始した後の第1の時間での電子デバイスのポーズを表す。いくつかの実施形態では、第2の1組の1つ以上の形状は、第2の位置に表示される。いくつかの実施形態では、メディアのキャプチャが開始されたときの電子デバイスのポーズと、メディアのキャプチャを開始した後の第1の時間における電子デバイスのポーズと間の差が存在するときに、メディアキャプチャユーザインタフェース上の第1の位置とは異なるディスプレイ上の第2の位置(例えば、オフセット位置)。 In some embodiments, a first set of one or more shapes (e.g., 2670b) (e.g., a first box, a cross, a circle/ellipse, one or more lines) represents a pose of the electronic device when media capture is initiated. In some embodiments, the first set of one or more shapes is displayed at a first location on the media capture user interface. In some embodiments, a second set of one or more shapes (e.g., 2670c) (e.g., a second box, a cross, a circle/ellipse, one or more lines) represents a pose of the electronic device at a first time after media capture is initiated. In some embodiments, the second set of one or more shapes is displayed at a second location. In some embodiments, a second location on the display that is different from the first location on the media capture user interface (e.g., an offset location) when there is a difference between the pose of the electronic device when media capture is initiated and the pose of the electronic device at the first time after media capture is initiated.

いくつかの実施形態では、第1の1組の1つ以上の形状(例えば、2670b)は、第1の色(例えば、第1の色)を含む。いくつかの実施形態では、第2の1組の1つ以上の(例えば、2670c)は、第1の色とは異なる第2の色(例えば、第2の色)を含む。いくつかの実施形態では、第1の1組の1つ以上の形状は、第2の1組の1つ以上の形状とは異なる視覚外観(例えば、より太い、より高い不透明度、異なる勾配、よりぼけた、又は画像に適用され得る別のタイプの視覚効果)を有する。キャプチャを開始したときの電子デバイスのポーズを反映する1組の形状及びキャプチャを開始した後の電子デバイスのポーズを反映する別の1組の形状を含む視覚ガイダンスを表示することにより、ユーザは、電子デバイスのポーズの関係的な変化を迅速に識別することができ、これにより、(ユーザは、デバイスの一定の移動に起因して使用可能な写真をキャプチャするために、画像を再キャプチャする必要がない場合があるように)ユーザは、メディアキャプチャを改善するためにポーズを迅速に補正することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the first set of one or more shapes (e.g., 2670b) includes a first color (e.g., a first color). In some embodiments, the second set of one or more shapes (e.g., 2670c) includes a second color (e.g., a second color) that is different from the first color. In some embodiments, the first set of one or more shapes has a different visual appearance (e.g., thicker, more opaque, a different gradient, more blurred, or another type of visual effect that may be applied to the image) than the second set of one or more shapes. By displaying visual guidance that includes a set of shapes that reflects the pose of the electronic device when the capture was initiated and another set of shapes that reflects the pose of the electronic device after the capture was initiated, the user can quickly identify relative changes in the pose of the electronic device, which can allow the user to quickly correct the pose to improve the media capture (such that the user may not need to recapture an image to capture a usable photograph due to constant movement of the device). Providing improved visual feedback to the user improves usability of the device and makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1の1組の1つ以上の形状は、第2の色を含まず、及び/又は第2の1組の1つ以上の形状は、第1の色を含まない。キャプチャを開始したときの電子デバイスのポーズを反映する色及びキャプチャを開始した後の電子デバイスのポーズを反映する異なる色を含む視覚ガイダンスを表示することにより、ユーザは、電子デバイスのポーズの関係的な変化を迅速に識別することができ、これにより、(ユーザは、デバイスの一定の移動に起因して使用可能な写真をキャプチャするために、画像を再キャプチャする必要がない場合があるように)ユーザは、メディアキャプチャを改善するためにポーズを迅速に補正することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the first set of one or more shapes does not include the second color, and/or the second set of one or more shapes does not include the first color. By displaying visual guidance including a color reflecting the pose of the electronic device when capture was initiated and a different color reflecting the pose of the electronic device after capture was initiated, a user can quickly identify relative changes in the pose of the electronic device, which allows the user to quickly correct the pose to improve media capture (such that the user may not need to recapture an image to capture a usable photograph due to constant movement of the device). Providing the user with improved visual feedback improves device usability and makes the user-device interface more efficient (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), which further reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、キャプチャを開始した後の第2の時間において、電子デバイスは、電子デバイスのポーズの変化(例えば、図26K~図26O)を検出する(2812)。いくつかの実施形態では、電子デバイスのポーズの変化を検出したことに応じて、電子デバイスは、メディアキャプチャユーザインタフェース上の第2の位置とは異なるメディアキャプチャユーザインタフェース上の第3の位置に第2の1組の1つ以上の形状(例えば、図26L~図260の2670c)(又は第1の1組の1つ以上の形状)を表示する(2814)。いくつかの実施形態では、第1の1組の1つ以上の形状の表示は、カメラユーザインタフェース上の同一の位置で維持される。1つ以上の形状の視覚特性を更新することにより、ユーザは、電子デバイスの現在のポーズが電子デバイスの元のポーズにどのように関連するかを迅速に識別することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, at a second time after initiating capture, the electronic device detects (2812) a change in the pose of the electronic device (e.g., Figs. 26K-26O). In some embodiments, in response to detecting the change in the pose of the electronic device, the electronic device displays (2814) a second set of one or more shapes (e.g., 2670c in Figs. 26L-260) (or the first set of one or more shapes) in a third location on the media capture user interface that is different from the second location on the media capture user interface. In some embodiments, the display of the first set of one or more shapes is maintained in the same location on the camera user interface. By updating the visual characteristics of the one or more shapes, the user can quickly identify how the current pose of the electronic device relates to the original pose of the electronic device. Providing improved visual feedback to the user improves usability of the device and makes the user-device interface more efficient (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), which in turn reduces the power usage of the device and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、電子デバイスのポーズの変化を検出したことに応じて、第1の1組の1つ以上の形状の第1の位置と、第2の1組の1つ以上の形状の第3の位置との間の差が、第1の閾値差内にあるとの判定に従って、電子デバイスは、第1の1組の1つ以上の形状又は第2の1組の1つ以上の形状のうちの少なくとも1つをやめ(例えば、図26Oの2670b)、第1の1組の1つ以上の形状の第1の位置と第2の1組の1つ以上の形状の第3の位置との間の差が第1の閾値差内にないとの判定に従って、電子デバイスは、第1の1組の1つ以上の形状又は第2の1組の1つ以上の形状の表示を維持する(例えば、図26Nの2670b~c)。いくつかの実施形態では、キャプチャを開始した後の第1の時間における電子デバイスのポーズが、メディアのキャプチャが開始されたときに電子デバイスのポーズに対して所定の近接性内にあるとき、第1の1組の1つ以上の形状又は第2の1組の1つ以上の形状のうちの少なくとも1つは、表示を停止される。所定の条件が満たされているときにのみ、1組の1つ以上の形状のうちの少なくとも1つの表示を自動的に停止することにより、ユーザは、電子デバイスの現在のポーズが電子デバイスの元のポーズにあることを迅速に認識することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in response to detecting a change in pose of the electronic device, in accordance with a determination that a difference between a first position of the first set of one or more shapes and a third position of the second set of one or more shapes is within a first threshold difference, the electronic device ceases displaying at least one of the first set of one or more shapes or the second set of one or more shapes (e.g., 2670b of FIG. 26O) and in accordance with a determination that a difference between a first position of the first set of one or more shapes and a third position of the second set of one or more shapes is not within a first threshold difference, the electronic device maintains displaying the first set of one or more shapes or the second set of one or more shapes (e.g., 2670b-c of FIG. 26N). In some embodiments, at least one of the first set of one or more shapes or the second set of one or more shapes is ceased displaying when a pose of the electronic device at a first time after initiating capture is within a predetermined proximity to a pose of the electronic device when capture of the media was initiated. By automatically ceasing to display at least one of the set of one or more shapes only when a predetermined condition is met, a user can quickly recognize that the current pose of the electronic device is at the original pose of the electronic device. By performing an optimized action when the set of conditions is met without requiring further user input, the device can be more easily operated, the user-device interface can be more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and the user can use the device more quickly and efficiently, thereby reducing power usage and improving the device's battery life.

いくつかの実施形態では、キャプチャを開始した後の第2の時間において、電子デバイスは、電子デバイスのポーズの変化を検出する。いくつかの実施形態では、電子デバイスのポーズの変化を検出したことに応じて、メディアのキャプチャが開始されたときの電子デバイスのポーズと、メディアのキャプチャを開始した後の第2の時間における電子デバイスのポーズとの間の差が、第2の閾値差内にあるとの判定に従って、電子デバイスは、触知出力(例えば、2620a)(例えば、1つ以上の触知出力生成器で生成された触覚(例えば、振動)出力)を生成し、メディアのキャプチャが開始されたときの電子デバイスのポーズと、メディアのキャプチャを開始した後の第2の時間における電子デバイスのポーズとの間の差が、第2の閾値差内にないとの判定に従って、電子デバイスは、触知出力を生成することをやめる。所定の条件が満たされているときにのみ、触知出力を提供することにより、ユーザは、電子デバイスの現在のポーズが電子デバイスの元のポーズにあることを迅速に認識することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, at a second time after initiating capture, the electronic device detects a change in the pose of the electronic device. In some embodiments, in response to detecting the change in the pose of the electronic device, the electronic device generates a tactile output (e.g., 2620a) (e.g., a tactile (e.g., vibration) output generated by one or more tactile output generators) in accordance with a determination that the difference between the pose of the electronic device when capture of the media was initiated and the pose of the electronic device at the second time after capture of the media was initiated is within the second threshold difference, and the electronic device ceases to generate the tactile output in accordance with a determination that the difference between the pose of the electronic device when capture of the media was initiated and the pose of the electronic device at the second time after capture of the media was initiated is not within the second threshold difference. By providing the tactile output only when a predetermined condition is met, a user can quickly recognize that the current pose of the electronic device is at the original pose of the electronic device. By performing an optimized action when a set of conditions are met without requiring further user input, it improves usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves the battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、1組のガイダンス基準が満たされているとの判定に従って、かつメディアをキャプチャしている間に、電子デバイスは、電子デバイスを安定化させる(例えば、電子デバイスの現在のポーズを維持する)要求に対応する表現(例えば、命令2670a)を表示する(例えば、1組の特性又はシンボル(例えば、「一時停止」)を表示する)。電子デバイスを安定化させる命令を含む視覚ガイダンスを提供することにより、ユーザは、デバイスがメディアをキャプチャしていることを迅速に認識できる視覚的フィードバックを提供し、かつデバイスが一時停止しなければならないメディアのキャプチャを最適化するために、ユーザは、画像の最大数が使用可能であり、容易に組み合わされて使用可能な又は改善されたマージ写真を形成することができるように、複数の画像をキャプチャするときと同一のフレーミングを維持することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, pursuant to a determination that a set of guidance criteria is met and while capturing media, the electronic device displays a representation (e.g., instruction 2670a) corresponding to a request to stabilize the electronic device (e.g., maintain the current pose of the electronic device) (e.g., display a set of characteristics or symbols (e.g., "pause"). Providing visual guidance including instructions to stabilize the electronic device provides visual feedback that allows the user to quickly recognize that the device is capturing media, and allows the user to maintain the same framing when capturing multiple images so that a maximum number of images are usable and can be easily combined to form a usable or improved merged photograph, in order to optimize the capture of media where the device must pause. Providing improved visual feedback to the user improves usability of the device and provides a more efficient user-device interface (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), which further reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、1組のガイダンス基準が満たされていないとの判定に従って、電子デバイスは、表示デバイスを介して、差の視覚インジケーション(例えば、視覚ガイダンス2670)を表示することをやめる。 In some embodiments, following a determination that a set of guidance criteria is not met, the electronic device ceases to display a visual indication of the difference (e.g., visual guidance 2670) via the display device.

いくつかの実施形態では、視覚インジケーションは、第1の時間で表示される。いくつかの実施形態では、第1の時間とは異なる第3の時間において、電子デバイスは、メディアのキャプチャの終了を検出する。いくつかの実施形態では、メディアのキャプチャの終了を検出したことに応じて、電子デバイスは、表示デバイスを介して、視覚インジケーション(例えば、視覚ガイダンス2670)を表示することをやめる(例えば、図26Q~図26R)。キャプチャ持続時間が終了したときにガイダンスを表示することを停止することにより、ユーザは、メディアのキャプチャが終了し、かつメディアのキャプチャを改善するために、電子デバイスのポーズを維持する必要がもはやないことを、迅速に認識することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the visual indication is displayed at a first time. In some embodiments, at a third time, different from the first time, the electronic device detects the end of the media capture. In some embodiments, in response to detecting the end of the media capture, the electronic device ceases displaying the visual indication (e.g., visual guidance 2670) via the display device (e.g., FIGS. 26Q-26R). By ceasing to display the guidance when the capture duration ends, the user can quickly recognize that the media capture has ended and that it is no longer necessary to maintain a pose of the electronic device to improve the media capture. Providing the user with improved visual feedback improves device usability and provides a more efficient user-device interface (e.g., by assisting the user in providing appropriate inputs and reducing user errors when operating/interacting with the device), which further reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

方法2800に関して上述された処理(例えば、図28A~図28B)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2500、2700、3000、3200、3400、3600、3800、4000、及び4200は、方法2800を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法2700は、任意選択的に、方法2800に関連して上述した様々な技術を使用して、低光モードで画像をキャプチャしている間に、視覚ガイダンスを表示することを採用する。簡潔にするために、これらの詳細は、以下で繰り返さない。 It should be noted that the details of the processes (e.g., FIGS. 28A-28B) described above with respect to method 2800 are also applicable in a similar manner to the above-described methods. For example, methods 700, 900, 1100, 1300, 1500, 1700, 1900, 2100, 2300, 2500, 2700, 3000, 3200, 3400, 3600, 3800, 4000, and 4200 optionally include one or more of the characteristics of the various methods described above with reference to method 2800. For example, method 2700 optionally employs displaying visual guidance during image capture in low light mode using the various techniques described above with respect to method 2800. For the sake of brevity, these details will not be repeated below.

図29A~図29Pは、いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図30A~図30Cにおける処理を含む、以下で説明する処理を例示するために使用される。 29A-29P show example user interfaces for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. The user interfaces in these figures are used to illustrate the processes described below, including the processes in FIGS. 30A-30C.

図29A~図29Jは、1つ以上のカメラの視野内の1つ以上のオブジェクトに特定の距離で焦点を合わせる間にライブプレビュー630を表示するためのユーザインタフェースを示す。理解を向上させるために、図29A~図29Jは、電子デバイス600の花2986と木2988との間の空間的関係を示すシーン2980のグラフィック表現を含む。例えば、図29Aにおいて、シーン2980は、デバイス600の側面プロファイルを含み、ここで、デバイス600の裏側は、木2988の前に位置する花2986を含む環境に面している。デバイス600の裏側は、広い視野を有するカメラと、狭い視野を有するカメラとを含み、これらは、以下の図29A~図29Pを説明するとき、総称して「後カメラ」と呼ばれる。デバイス600が1×ズームレベルでメディアをキャプチャするように構成されるため(例えば、選択されている1×ズームアフォーダンス2622bによって示されるように)、デバイス600の裏側の1組のカメラで(例えば、前カメラとは対照的に)、デバイス600は、広い視野を有するカメラ及び狭い視野を有するカメラを使用してメディアをキャプチャするように現在構成されている。それにより、花2986及び/又は木2988のうちの少なくとも一部分は、広いカメラ(WFOV)の視野内にあり、花2986及び/又は木2988のうちの少なくとも一部分は、狭いカメラ(NFOV)の視野内にある。図29Aにおいて、デバイス600は、花2986から距離2982a内及び木2988から距離2984a内である。 29A-29J show a user interface for displaying a live preview 630 while focusing at a particular distance on one or more objects in the field of view of one or more cameras. To improve understanding, FIGS. 29A-29J include a graphical representation of a scene 2980 showing the spatial relationship between a flower 2986 and a tree 2988 of an electronic device 600. For example, in FIG. 29A, the scene 2980 includes a side profile of the device 600, where the back side of the device 600 faces an environment including a flower 2986 located in front of a tree 2988. The back side of the device 600 includes a camera with a wide field of view and a camera with a narrow field of view, which are collectively referred to as the "rear camera" when describing the following FIGS. 29A-29P. Because device 600 is configured to capture media at a 1x zoom level (e.g., as indicated by 1x zoom affordance 2622b being selected), with a set of cameras on the back of device 600 (e.g., as opposed to the front cameras), device 600 is currently configured to capture media using a camera with a wide field of view and a camera with a narrow field of view, such that at least a portion of flower 2986 and/or tree 2988 are within the field of view of the wide camera (WFOV) and at least a portion of flower 2986 and/or tree 2988 are within the field of view of the narrow camera (NFOV). In FIG. 29A, device 600 is within distance 2982a from flower 2986 and within distance 2984a from tree 2988.

図29Aに示すように、デバイス600は、ディスプレイの上部からディスプレイの底部まで延びるライブプレビュー630を含むカメラユーザインタフェースを表示する。ライブプレビュー630は、後カメラ(FOV)の視野(例えば、WFOV及びNFOV)内で検出された画像に基づく。ライブプレビュー630は、木2988の前に位置する花2986を示す表現を含む(シーン2980に関連して上述したように)。いくつかの実施形態では、ライブプレビュー630は、デバイス600の上部及び/又は底部まで延びない。 As shown in FIG. 29A, the device 600 displays a camera user interface that includes a live preview 630 that extends from the top of the display to the bottom of the display. The live preview 630 is based on images detected within the field of view (e.g., WFOV and NFOV) of the rear camera (FOV). The live preview 630 includes a representation showing a flower 2986 located in front of a tree 2988 (as described above in connection with scene 2980). In some embodiments, the live preview 630 does not extend to the top and/or bottom of the device 600.

図29Aに示すように、図29Aのカメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含み、これらは、インジケータ及びコントロールがライブプレビュー630と同時に表示され得るように、ライブプレビュー630上に重ね合わされる。インジケータ領域602及びコントロール領域606にライブプレビュー630の一部分を表示するために、デバイス600は、WFOV内にあるシーン2980の一部分(例えば、花2986及び木2988)を使用する。更には、図29Aのカメラユーザインタフェースはまた、カメラディスプレイ領域604を含み、これは、ライブプレビュー630上に重ね合わされ、領域602及び606とは対照的に、インジケータ又はコントロールと実質的に重ね合わされない。カメラディスプレイ領域604の部分を表示するために、デバイス600は、NFOV内にあるシーン2980の一部分を使用する。 As shown in FIG. 29A, the camera user interface of FIG. 29A includes an indicator region 602 and a control region 606, which are overlaid on the live preview 630 such that the indicators and controls can be displayed simultaneously with the live preview 630. To display portions of the live preview 630 in the indicator region 602 and the control region 606, the device 600 uses portions of the scene 2980 that are within the WFOV (e.g., flowers 2986 and trees 2988). Furthermore, the camera user interface of FIG. 29A also includes a camera display region 604, which is overlaid on the live preview 630 and, in contrast to regions 602 and 606, is not substantially overlaid with indicators or controls. To display portions of the camera display region 604, the device 600 uses portions of the scene 2980 that are within the NFOV.

図29Aに示すように、インジケータ領域602は、灰色オーバーレイを含み、カメラディスプレイ領域604は、灰色オーバーレイを含まない。インジケータ領域602とカメラディスプレイ領域604との間の色の遷移において、インジケータ領域602とカメラディスプレイ領域604との間に視覚境界部608が表示される。インジケータ領域602は、フラッシュインジケータ602aを含み、フラッシュインジケータ602aは、フラッシュが自動モード、オン、オフ、又は別のモード(例えば、赤目低減モード)であるかどうかを示す。いくつかの実施形態では、他のインジケータ(例えば、インジケータ602b~602fはまた、インジケータ領域602に含まれる。 29A, indicator area 602 includes a gray overlay and camera display area 604 does not include a gray overlay. At the color transition between indicator area 602 and camera display area 604, a visual border 608 is displayed between indicator area 602 and camera display area 604. Indicator area 602 includes a flash indicator 602a, which indicates whether the flash is in auto mode, on, off, or another mode (e.g., red-eye reduction mode). In some embodiments, other indicators (e.g., indicators 602b-602f) are also included in indicator area 602.

図29Aに示すように、コントロール領域606はまた、灰色オーバーレイを含み、これらの領域間の色の遷移において、コントロール領域606とカメラディスプレイ領域604との間に視覚境界部608が表示される。コントロール領域606は、カメラモードアフォーダンス620、メディアコレクション624の一部分、シャッターアフォーダンス610、及びカメラスイッチャアフォーダンス612を含む。カメラモードアフォーダンス620は、どのカメラモードが現在選択されているか(例えば、太字で示された「Photo」モード)を示し、ユーザがカメラモードを変更することを可能にする。いくつかの実施形態では、視覚境界部608は、領域602、604、及び608の間に実線又は点線として表示される。 As shown in FIG. 29A, the control area 606 also includes a gray overlay, and a visual border 608 is displayed between the control area 606 and the camera display area 604 at the color transition between these areas. The control area 606 includes a camera mode affordance 620, a portion of a media collection 624, a shutter affordance 610, and a camera switcher affordance 612. The camera mode affordance 620 indicates which camera mode is currently selected (e.g., "Photo" mode, shown in bold) and allows the user to change the camera mode. In some embodiments, the visual border 608 is displayed as a solid or dotted line between the areas 602, 604, and 608.

図29B~図29Eは、別のオブジェクト(例えば、木2988)よりもFOV内で近いオブジェクト(例えば、花2986)に焦点を当てている間に、ライブプレビュー630を表示するユーザインタフェースを示す。図29Aでは、デバイス600は、カメラディスプレイ領域604における位置に対応する位置(例えば、カメラディスプレイ領域604内に表示された花2986の部分に対応する位置)でのタップジェスチャ2950aを検出する。 29B-29E show a user interface displaying a live preview 630 while focusing on an object (e.g., a flower 2986) that is closer in the FOV than another object (e.g., a tree 2988). In FIG. 29A, the device 600 detects a tap gesture 2950a at a location corresponding to a location in the camera display area 604 (e.g., a location corresponding to a portion of the flower 2986 displayed within the camera display area 604).

図29Bに示すように、タップジェスチャ2950aを検出したことに応じて、デバイス600は、タップジェスチャ2950aに対応する位置で、花2986の部分の周りに焦点インジケータ2936aを表示する。更に、タップジェスチャ2950aを検出したことに応じて、デバイス600は、(例えば、図14N~図14Oの入力1495G及び図14P~図14Qの入力部分1495H1に関連して上述したものと同様の技術を使用して、)後カメラが焦点インジケータ2936aに取り囲まれた花2986の部分に焦点を合わせるように、焦点設定を変更する。デバイス600が後カメラの焦点設定を変更した後、デバイス600は、後カメラが現在、花2986に焦点を合わせているため、図29Aにおいて以前に表示されたものよりもぼかしが少ない(例えば、太線で示される)花2986を表示する。更なる理解のために、図29Bにおいて、シーン2980はまた、デバイス600が花2986の部分に現在焦点を合わせていることを示すための現在の焦点インジケータボックス2990を含む。図29Bでは、デバイス600は、デバイス600と花2986(例えば、焦点が合っているオブジェクト)との間の距離の変化を検出し、ここで、デバイス600及び花2986は、互いに接近して動いている。 As shown in FIG. 29B, in response to detecting the tap gesture 2950a, the device 600 displays a focus indicator 2936a around a portion of the flower 2986 at a location corresponding to the tap gesture 2950a. Further, in response to detecting the tap gesture 2950a, the device 600 changes a focus setting (e.g., using a technique similar to that described above in connection with the input 1495G of FIGS. 14N-14O and the input portion 1495H1 of FIGS. 14P-14Q) such that the rear camera focuses on the portion of the flower 2986 surrounded by the focus indicator 2936a. After the device 600 changes the focus setting of the rear camera, the device 600 displays the flower 2986 less blurred (e.g., indicated by a thicker line) than was previously displayed in FIG. 29A because the rear camera is now focused on the flower 2986. For further understanding, in FIG. 29B, the scene 2980 also includes a current focus indicator box 2990 to indicate that the device 600 is currently focused on a portion of the flower 2986. In FIG. 29B, the device 600 detects a change in the distance between the device 600 and the flower 2986 (e.g., the object in focus), where the device 600 and the flower 2986 are moving closer to each other.

図29Cに示すように、デバイス600と花2986との距離の変化を検出したことに応じて、デバイス600は、インジケータ領域602及びコントロール領域606(「外側部分」)内におけるライブプレビュー630の一部分の視覚プロミネンスを減少させ、一方、カメラディスプレイ領域604(「内側部分」)内に表示されたライブプレビュー630の一部分の視覚プロミネンスを維持する。ここで、デバイス600は、デバイス600と花2986(例えば、焦点が合っているオブジェクト)との間の距離2982bが距離の第1の範囲内にあるため、外側部分のプロミネンスを減少させる。具体的には、デバイス600は、外側部分が、それらの視覚プロミネンスを減少させるために、より暗く表示されるように、領域602及び606の不透明度を増加させる。いくつかの実施形態では、デバイス600は、輝度、色彩度、及び/又はコントラストを減少させることによって、外側部分の視覚プロミネンスを減少させる。いくつかの実施形態では、視覚プロミネンスを減少させることは、図29Aに表示された外側部分の状態から図29B(又は視覚プロミネンスが減少している任意の他の図)に表示された外側部分の状態へと外側部分を漸進的に退色させることを含む。いくつかの実施形態では、視覚プロミネンスを減少させることは、領域602及び/又は606の不透明度を漸進的に減少させることを含む。 As shown in FIG. 29C, in response to detecting a change in the distance between the device 600 and the flower 2986, the device 600 reduces the visual prominence of the portions of the live preview 630 within the indicator region 602 and the control region 606 (the "outer portion") while maintaining the visual prominence of the portions of the live preview 630 displayed within the camera display region 604 (the "inner portion"). Here, the device 600 reduces the prominence of the outer portions because the distance 2982b between the device 600 and the flower 2986 (e.g., the object in focus) is within a first range of distances. Specifically, the device 600 increases the opacity of the regions 602 and 606 such that the outer portions appear darker to reduce their visual prominence. In some embodiments, the device 600 reduces the visual prominence of the outer portions by reducing the brightness, saturation, and/or contrast. In some embodiments, decreasing the visual prominence includes gradually fading the outer portion from the state of the outer portion shown in FIG. 29A to the state of the outer portion shown in FIG. 29B (or any other figure in which visual prominence is decreased). In some embodiments, decreasing the visual prominence includes gradually decreasing the opacity of regions 602 and/or 606.

図29Cに示すように、デバイス600と花2986との距離の変化を検出したことに応じて、デバイス600は、ライブプレビュー630を更新する。ライブプレビュー630を更新するときに、デバイス600は、WFOVに基づいて外側一部分を更新し(例えば、広いカメラの視野を使用して、上述のように、領域602及び606内のライブプレビュー630の一部分を表示するため)、NFOVに基づいて外側一部分を更新する(例えば、狭いカメラの視野を使用して、上述のように、カメラディスプレイ領域604内のライブプレビュー630の一部分を表示するため)。特に、サイズ(例えば、幅)が異なる視野を有するカメラでライブプレビュー630の異なる領域を更新することにより、デバイス600に、デバイス600が花2986から距離2982bだけ離れている(例えば、又は距離の第1の範囲内にある)場合、視覚境界部608に沿った視覚的引裂きを有するライブプレビュー630を表示させる。すなわち、デバイス600は、デバイス600が花2986から距離2982bだけ離れている場合、内側部分に対してシフトされているように外側部分を表示する。図29Cに示すように、コントロール領域606内に表示された花2986の茎部は、カメラディスプレイ領域604内の花2986の茎部の右にシフトされる。更には、インジケータ領域602内に表示された花2986の花弁のうちのいくつかは、カメラディスプレイ領域604内の花2986の同じ花弁の右にシフトされる。図29Cにおいて、デバイス600は、外側部分の視覚プロミネンスを減少させ、これは、外側領域に対するカメラディスプレイ領域の相対的視覚プロミネンスを増加させる(例えば、視覚的引裂きを顕著に低下させる)。 29C, in response to detecting a change in the distance between the device 600 and the flower 2986, the device 600 updates the live preview 630. When updating the live preview 630, the device 600 updates the outer portion based on the WFOV (e.g., to display portions of the live preview 630 within regions 602 and 606, as described above, using a wide camera field of view) and updates the outer portion based on the NFOV (e.g., to display portions of the live preview 630 within the camera display region 604, as described above, using a narrow camera field of view). In particular, updating different regions of the live preview 630 with cameras having fields of view that are different in size (e.g., width) causes the device 600 to display the live preview 630 with a visual tear along the visual boundary 608 when the device 600 is away from the flower 2986 by a distance 2982b (e.g., or within a first range of distances). That is, the device 600 displays the outer portion as shifted relative to the inner portion when the device 600 is a distance 2982b away from the flower 2986. As shown in FIG. 29C, the stem of the flower 2986 displayed in the control region 606 is shifted to the right of the stem of the flower 2986 in the camera display region 604. Furthermore, some of the petals of the flower 2986 displayed in the indicator region 602 are shifted to the right of the same petals of the flower 2986 in the camera display region 604. In FIG. 29C, the device 600 reduces the visual prominence of the outer portion, which increases the relative visual prominence of the camera display region with respect to the outer region (e.g., noticeably reducing visual tearing).

図29Aに戻ると、デバイス600が花2986から2982bよりも大きい特定の距離だけ離れているとき、デバイス600が1×ズームレベルでメディアをキャプチャするように構成されている間に、視覚的引裂きが実質的にない(例えば、まったく若しくは小さい)又は視覚的引裂きの機会がより少ないため、デバイス600は、外側部分の視覚プロミネンスを減少させない。図29Cでは、デバイス600は、デバイス600と花2986(例えば、焦点が合っているオブジェクト)との間の距離の変化を検出し、ここで、デバイス600及び花2986は、互いに接近して動いている。 Returning to FIG. 29A, when the device 600 is a certain distance away from the flower 2986 that is greater than 2982b, the device 600 does not reduce the visual prominence of the outer portion while the device 600 is configured to capture media at a 1× zoom level, as there is substantially no (e.g., no or little) visual tearing or less opportunity for visual tearing. In FIG. 29C, the device 600 detects a change in the distance between the device 600 and the flower 2986 (e.g., the object in focus), where the device 600 and the flower 2986 are moving closer to each other.

図29Dに示すように、デバイス600と花2986との距離の変化を検出したことに応じて、デバイス600は、デバイス600と花2986との間の距離2982cが距離の第2の範囲内にあるため、外側部分の視覚プロミネンスを更に減少させ、一方、内側部分の視覚プロミネンスを維持する。ここで、距離の第2の範囲は、図29Cに関連して述べられた距離の第1の範囲よりも小さい。図29Dにおいて、デバイス600は、外側部分を不明瞭にする(例えば、退色させる、又はブラックアウトする)ことによって、外側部分の視覚プロミネンスを減少させる。具体的には、デバイス600は、外側部分が区別可能ではないようにインジケータ領域602及びコントロール領域606の不透明度レベルを増加させており、領域602及び606内に表示されたライブプレビュー630の一部分は、黒であるように見え、図29Cに以前に表示されたライブプレビュー630のいくらかの一部分(例えば、花2986の茎部)が表示されることを停止される。いくつかの実施形態では、デバイス600が花2986から距離2982cだけ離れている(例えば、又は距離の第2の範囲内にある)場合、デバイス600は、実際の視覚的引裂き又は視覚的引裂きの可能性が極端であると判定した。したがって、いくつかの実施形態では、デバイス600は、デバイス600が視覚的引裂き又は視覚的引裂きの変化が極端であると判定したときに、距離に基づいて外側部分を表示することを停止する。図29Dでは、デバイス600は、デバイス600と花2986(例えば、焦点が合っているオブジェクト)との間の距離の変化を検出し、ここで、デバイス600及び花2986は、互いに更に離れて動いている(例えば、図29Aに示すように、距離2982aに戻る)。 As shown in FIG. 29D, in response to detecting a change in the distance between the device 600 and the flower 2986, the device 600 further reduces the visual prominence of the outer portion while maintaining the visual prominence of the inner portion because the distance 2982c between the device 600 and the flower 2986 is within a second range of distances, where the second range of distances is less than the first range of distances described in connection with FIG. 29C. In FIG. 29D, the device 600 reduces the visual prominence of the outer portion by obscuring (e.g., fading or blacking out) the outer portion. Specifically, the device 600 increases the opacity level of the indicator region 602 and the control region 606 such that the outer portion is not distinguishable, the portions of the live preview 630 displayed within the regions 602 and 606 appear to be black, and some portions of the live preview 630 previously displayed in FIG. 29C (e.g., the stem of the flower 2986) are stopped from being displayed. In some embodiments, when the device 600 is a distance 2982c away from the flower 2986 (e.g., or within a second range of distances), the device 600 determines that the actual visual tear or the possibility of visual tear is extreme. Thus, in some embodiments, the device 600 stops displaying the outer portion based on distance when the device 600 determines that the visual tear or change in visual tear is extreme. In FIG. 29D, the device 600 detects a change in the distance between the device 600 and the flower 2986 (e.g., the object in focus), where the device 600 and the flower 2986 have moved further away from each other (e.g., back to the distance 2982a as shown in FIG. 29A).

図29Eに示すように、デバイス600と花2986との距離の変化を検出したことに応じて、デバイス600は、花2986から距離2982aだけ離れているため、外側部分の視覚プロミネンスを増加させる。換言すれば、図29Eにおいて、デバイス600は、図29Bに関連して論じられるように、距離2982aが距離の第1又は第2の範囲内でないため、図29B及び図29Cに表示された、視覚プロミネンスを有する外側部分を表示することをやめる。特に、図29Fでは、デバイス600は、実質的に視覚的引裂きがないライブプレビュー630を表示する。いくつかの実施形態では、デバイス600は、距離2982aが、実際の視覚的引裂きがないか又は視覚的引裂きの機会がほとんどない距離の第3の範囲内であると判定している。いくつかの実施形態では、デバイス600は、距離2982aが、距離の第3の範囲内であると判定し、視覚プロミネンスを最大視覚プロミネンスまで増加させる。 29E, in response to detecting a change in the distance between the device 600 and the flower 2986, the device 600 increases the visual prominence of the outer portion because it is now a distance 2982a away from the flower 2986. In other words, in FIG. 29E, the device 600 ceases to display the outer portion with visual prominence displayed in FIG. 29B and FIG. 29C because the distance 2982a is not within the first or second range of distances, as discussed in connection with FIG. 29B. In particular, in FIG. 29F, the device 600 displays a live preview 630 that is substantially free of visual tear. In some embodiments, the device 600 determines that the distance 2982a is within a third range of distances where there is no actual visual tear or little opportunity for visual tear. In some embodiments, the device 600 determines that the distance 2982a is within the third range of distances and increases the visual prominence to maximum visual prominence.

図29E~図29Iは、別のオブジェクト(例えば、花2986)よりもデバイス600からもっと遠く離れているオブジェクト(例えば、木2988)に焦点を当てている間に、ライブプレビュー630を表示するユーザインタフェースを示す。図29Eでは、デバイス600は、カメラディスプレイ領域604における位置に対応する位置(例えば、カメラディスプレイ領域604内に表示された木2988の部分に対応する位置)でのタップジェスチャ2950eを検出する。 29E-29I show a user interface displaying a live preview 630 while focusing on an object (e.g., a tree 2988) that is farther away from the device 600 than another object (e.g., a flower 2986). In FIG. 29E, the device 600 detects a tap gesture 2950e at a location that corresponds to a location in the camera display area 604 (e.g., a location that corresponds to a portion of the tree 2988 displayed within the camera display area 604).

図29Fに示すように、タップジェスチャ2950eを検出したことに応じて、デバイス600は、タップジェスチャ2950eに対応するカメラディスプレイ領域604上の位置で、木2988の一部分の周りに焦点インジケータ2936bを表示する。更に、タップジェスチャ2950eを検出したことに応じて、デバイス600は、(図14N~図14Oの入力1495G及び図14P~図14Qの入力部分1495H1に関連して上述したものと同様の技術を使用して、)後カメラが花2986の部分の焦点から、焦点インジケータ2936bに取り囲まれた木2988の部分に焦点を合わせるように、焦点設定を変更する。デバイス600が後カメラの焦点設定を変更した後、デバイス600は、図29Eにおいて以前に表示されたものよりも、ぼかしが少ない(例えば、太線で示される)木2988及びぼかしが多い(例えば、点線で示される)花を表示する。図29Fでは、シーン2980は、デバイス600が木2988の部分に現在焦点が合っているため、木2988の周りに現在の焦点インジケータボックス2990を示す。図29Fでは、デバイス600は、デバイス600と木2988(例えば、焦点が合っているオブジェクト)との間の距離の変化を検出し、ここで、デバイス600及び木2988は、互いに接近して動いている。 As shown in FIG. 29F, in response to detecting tap gesture 2950e, device 600 displays focus indicator 2936b around a portion of tree 2988 at a location on camera display area 604 that corresponds to tap gesture 2950e. Further, in response to detecting tap gesture 2950e, device 600 changes a focus setting (using techniques similar to those described above in connection with input 1495G of FIGS. 14N-14O and input portion 1495H1 of FIGS. 14P-14Q) such that the rear camera moves from focusing on a portion of flower 2986 to focusing on a portion of tree 2988 surrounded by focus indicator 2936b. After device 600 changes the focus setting of the rear camera, device 600 displays tree 2988 with less blur (e.g., shown with a bold line) and flower with more blur (e.g., shown with a dotted line) than was previously displayed in FIG. 29E. In FIG. 29F, the scene 2980 shows a current focus indicator box 2990 around the tree 2988 because the device 600 is currently focused on a portion of the tree 2988. In FIG. 29F, the device 600 detects a change in the distance between the device 600 and the tree 2988 (e.g., the object in focus), where the device 600 and the tree 2988 are moving closer to each other.

図29Gに示すように、デバイス600と木2988との間の距離の変化を検出したことに応じて、デバイス600は、デバイス600と木2988との間の距離2984bが、第1の範囲の距離内にないため(例えば、図29Cに関連して、距離2982bとは対照的に)、外側部分の視覚プロミネンスを減少させることをやめる。換言すれば、デバイス600が、距離2984b(及び距離2982bではない)が閾値距離の第1の範囲内であることに基づいて判定を行うことにより、デバイス600は、外側部分の視覚プロミネンスを変更しない。更には、視覚プロミネンスを変更しないことによって、領域602及び606が暗色化されていないため、視覚境界部608での視覚的引裂きは、図29Bよりも図29Gにおいてより明らかである。具体的には、デバイス600は、ライブプレビュー630の任意の部分の視覚プロミネンスを減少させることなく、カメラディスプレイ領域604内の花2986の茎部の右にシフトされたコントロール領域606の花2986の茎部、及びカメラディスプレイ領域604内の花2986の同じ花弁の右にシフトされたインジケータ領域602内に表示された花2986の花弁のうちのいくつかを表示する。図29Gでは、デバイス600は、デバイス600と木2988(例えば、焦点が合っているオブジェクト)との間の距離の変化を検出し、ここで、デバイス600及び木2988は、互いに接近して動いている。 As shown in FIG. 29G, in response to detecting a change in the distance between device 600 and tree 2988, device 600 ceases to reduce the visual prominence of the outer portion because distance 2984b between device 600 and tree 2988 is not within a first range of distances (e.g., in contrast to distance 2982b, with respect to FIG. 29C). In other words, by device 600 making a determination based on distance 2984b (and not distance 2982b) being within a first range of threshold distances, device 600 does not modify the visual prominence of the outer portion. Moreover, by not modifying the visual prominence, the visual tear at visual boundary 608 is more apparent in FIG. 29G than in FIG. 29B because regions 602 and 606 are not darkened. Specifically, device 600 displays the stem of flower 2986 in control region 606 shifted to the right of the stem of flower 2986 in camera display region 604, and some of the petals of flower 2986 displayed in indicator region 602 shifted to the right of the same petals of flower 2986 in camera display region 604, without reducing the visual prominence of any portion of live preview 630. In FIG. 29G, device 600 detects a change in the distance between device 600 and tree 2988 (e.g., an object in focus), where device 600 and tree 2988 are moving closer to each other.

図29Hに示すように、デバイス600と木2988との間の距離の変化を検出したことに応じて、デバイス600は、デバイス600と木2988との間の距離2984cが、距離の第1の範囲内にないため(例えば、図29Cに関連して、距離2982cとは対照的に)、外側部分の視覚プロミネンスを減少させることをやめる。デバイス600がライブプレビュー630の任意の部分の視覚プロミネンスを減少させていないため、デバイス600は、外側部分が内側部分の右に更にシフトされる図29Gよりも、視覚境界部608で視覚的引裂きをより多く表示する。図29Hでは、デバイス600は、シャッターアフォーダンス610に対応する位置でのタップジェスチャ2950hを検出する。 As shown in FIG. 29H, in response to detecting a change in the distance between the device 600 and the tree 2988, the device 600 ceases to reduce the visual prominence of the outer portion because the distance 2984c between the device 600 and the tree 2988 is not within the first range of distances (e.g., in contrast to distance 2982c, with respect to FIG. 29C). Because the device 600 has not reduced the visual prominence of any portion of the live preview 630, the device 600 displays more visual tearing at the visual border 608 than in FIG. 29G, where the outer portion is shifted further to the right of the inner portion. In FIG. 29H, the device 600 detects a tap gesture 2950h at a location corresponding to the shutter affordance 610.

図29Iに示すように、タップジェスチャ2950hを検出したことに応じて、デバイス600は、図29Hに表示されるように視覚境界部608での視覚的引裂きを含む、ライブプレビュー630の現在の状態に基づいて、メディアをキャプチャする(図8Q~図8Rに関連して論じられたのと同様の技術を使用して)。更に、タップジェスチャ2950hを検出したことに応じて、デバイス600は、新たにキャプチャされたメディアの表現で更新されたメディアコレクション624を更新する。図29Iでは、デバイス600は、インジケータ領域602に対応する位置でのタップジェスチャ2950iを検出する。 As shown in FIG. 29I, in response to detecting the tap gesture 2950h, the device 600 captures media based on the current state of the live preview 630 (using techniques similar to those discussed in connection with FIGS. 8Q-8R), including the visual tear at the visual border 608 as displayed in FIG. 29H. Further, in response to detecting the tap gesture 2950h, the device 600 updates the updated media collection 624 with a representation of the newly captured media. In FIG. 29I, the device 600 detects a tap gesture 2950i at a location corresponding to the indicator region 602.

図29Iに示すように、タップジェスチャ2950iを検出したことに応じて、デバイス600は、(例えば、ジェスチャ2950b及び2950fとは対照的に)タップジェスチャ2950iがカメラディスプレイ領域604の外側の位置に向けられているため、焦点設定を変更又は焦点インジケータを表示することをやめる。図29Iにおいて、タップジェスチャ2950iを検出したことに応じて、デバイス600は、カメラユーザインタフェースを維持し、電子デバイスは、カメラユーザインタフェースの部分を更新することをやめる(例えば、カメラユーザインタフェースは同じままである)。図29Iでは、デバイス600は、カメラディスプレイ領域604における位置に対応する位置(例えば、カメラディスプレイ領域604内に表示された花2986の部分に対応する位置)でのタップジェスチャ2950jを検出する。 29I, in response to detecting tap gesture 2950i, device 600 changes the focus setting or ceases to display the focus indicator because tap gesture 2950i is directed to a location outside camera display area 604 (e.g., as opposed to gestures 2950b and 2950f). In FIG. 29I, in response to detecting tap gesture 2950i, device 600 maintains the camera user interface and the electronic device ceases to update portions of the camera user interface (e.g., the camera user interface remains the same). In FIG. 29I, device 600 detects tap gesture 2950j at a location corresponding to a location in camera display area 604 (e.g., a location corresponding to a portion of flower 2986 displayed within camera display area 604).

図29Kに示すように、タップジェスチャ2950jを検出したことに応じて、デバイス600は、タップジェスチャ2950jに対応するカメラディスプレイ領域604上の位置で、花2986の部分の周りに焦点インジケータ2936cを表示する。更に、タップジェスチャ2950jを検出したことに応じて、デバイス600は、(図29A~図29Bにおいて上述したものと同様の技術を使用して、)後カメラが木2988の部分の焦点から、焦点インジケータ2936cに取り囲まれた花2986の部分に焦点を合わせるように、焦点設定を変更する。デバイス600が、木2988の部分の代わりに花2986の部分に焦点を合わせているため、デバイス600は、デバイス600と花2986(例えば、焦点が合っているオブジェクト)との間の距離が距離の第3の範囲内にあるため、外側部分の視覚プロミネンスを減少させる。ここで、デバイス600が焦点を当てていたオブジェクトに切り替えたため、どの距離(例えば、距離2982c又は距離2984c)で外側部分の視覚プロミネンスを減少させるか(又はあるいは、増加させる)かどうかをトリガする判定を変更する。これにより、デバイス600は、デバイス600と花2986との間の距離2982c(又は、デバイス600と木2988との間の距離2984c)が距離の第3の範囲内にあるとの判定を行い、その判定に従って、図29Cに関連して上述したように、外側部分の視覚プロミネンスを減少させる(例えば、外側部分を表示することを停止する)。理解を助けるために、図29Kでは、シーン2980は、デバイス600が花2986の部分に現在焦点が合っているため、花2986の周りに現在の焦点インジケータボックス2990を示す。 As shown in FIG. 29K, in response to detecting tap gesture 2950j, device 600 displays focus indicator 2936c around a portion of flower 2986 at a location on camera display area 604 corresponding to tap gesture 2950j. Further, in response to detecting tap gesture 2950j, device 600 changes the focus setting (using a technique similar to that described above in FIGS. 29A-B) such that the rear camera focuses from a focus on a portion of tree 2988 to a portion of flower 2986 surrounded by focus indicator 2936c. Because device 600 is focused on a portion of flower 2986 instead of a portion of tree 2988, device 600 reduces the visual prominence of the outer portion because the distance between device 600 and flower 2986 (e.g., the object in focus) is within a third range of distances. Now, because the device 600 has switched to the object on which it was focused, it changes the determination at which distance (e.g., distance 2982c or distance 2984c) triggers the determination of whether to decrease (or alternatively increase) the visual prominence of the outer portion. This causes the device 600 to determine that the distance 2982c between the device 600 and the flower 2986 (or the distance 2984c between the device 600 and the tree 2988) is within a third range of distances, and accordingly decreases the visual prominence of the outer portion (e.g., stops displaying the outer portion) as described above in connection with FIG. 29C. To aid in understanding, in FIG. 29K, the scene 2980 shows a current focus indicator box 2990 around the flower 2986 because the device 600 is currently focused on that portion of the flower 2986.

図29Lに戻る前に、図29A~図29Kは、特定のシナリオに基づいて視覚プロミネンスを増加又は減少させるかどうかに基づく技術を説明する。いくつかの実施形態では、図29A~図29Kの説明は、反転され(例えば、図29K~図29A)、スキップされ、再順序付けされてもよい(例えば、これにより、例えば、デバイス600は、上記の説明において視覚プロミネンスを減少させる視覚プロミネンスを増加させることができ、又は逆もまた同様である)。更には、図29A~図29Kにおいて、デバイス600は、デバイス600と、焦点が合っているオブジェクトとの間の距離が閾値内又は閾値の外側であるかどうかに基づいて、ライブプレビュー630の一部分の視覚プロミネンスを変更する(又は変更することをやめる)。いくつかの実施形態では、デバイス600は、他の基準に基づいて、ライブプレビュー630の一部分の視覚プロミネンスを変更する(又は変更することをやめる)。いくつかの実施形態では、デバイス600は、オブジェクトに焦点が合っているかどうかに加えて、又はその代わりに、それぞれのオブジェクトとの所定の関係状態(例えば、オブジェクトが最も近い又は最も遠いオブジェクトであるかどうか)に基づいて、ライブプレビュー630の一部分の視覚プロミネンスを変更する(又は変更することをやめる)。いくつかの実施形態では、デバイス600は、デバイス600を使用して、ライブプレビュー630を表示しているタイプのカメラに基づいて、ライブプレビュー630の一部分の視覚プロミネンスを変更する(又は変更することをやめる)。いくつかの実施形態では、デバイス600、デバイス600は、視覚的引裂きが1つ以上の環境条件(例えば、デバイス600とオブジェクトとの間の距離、照明条件など)に基づいて(例えば、視覚境界部608で)発生する可能性の判定に基づいて、ライブプレビュー630の一部分の視覚プロミネンスを変更する(又は変更することをやめる)。いくつかの実施形態では、デバイス600が同じサイズ視野(単数又は複数)を有する1つ以上のカメラ(単数又は複数)のみを使用する(例えば、望遠写真カメラのみを使用する)場合、デバイス600は、カメラの視野(単数又は複数)内のオブジェクトとデバイス600との間の距離にかかわらず、ライブプレビュー630の一部分の視覚プロミネンスをやめる。図29Kでは、デバイス600は、メディアコレクション624に対応する位置でのタップジェスチャ2950kを検出する。 Before returning to FIG. 29L, FIGS. 29A-K illustrate a technique based on whether to increase or decrease visual prominence based on a particular scenario. In some embodiments, the descriptions in FIGS. 29A-K may be reversed (e.g., FIGS. 29K-A), skipped, or reordered (e.g., so that, for example, device 600 can increase visual prominence where in the above description device 600 decreases visual prominence, or vice versa). Furthermore, in FIGS. 29A-K, device 600 alters (or ceases to alter) the visual prominence of a portion of live preview 630 based on whether the distance between device 600 and the object in focus is within or outside a threshold. In some embodiments, device 600 alters (or ceases to alter) the visual prominence of a portion of live preview 630 based on other criteria. In some embodiments, device 600 alters (or ceases to alter) the visual prominence of a portion of live preview 630 based on a predefined relationship state with the respective object (e.g., whether the object is the closest or furthest object) in addition to or instead of whether the object is in focus. In some embodiments, device 600 alters (or ceases to alter) the visual prominence of a portion of live preview 630 based on the type of camera device 600 is using to display live preview 630. In some embodiments, device 600 alters (or ceases to alter) the visual prominence of a portion of live preview 630 based on a determination of the likelihood that visual tearing will occur (e.g., at visual boundary 608) based on one or more environmental conditions (e.g., distance between device 600 and the object, lighting conditions, etc.). In some embodiments, if device 600 uses only one or more camera(s) with the same size field of view(s) (e.g., only telephoto cameras), device 600 ceases to highlight the visual prominence of a portion of live preview 630 regardless of the distance between the object in the camera's field of view(s) and device 600. In FIG. 29K, device 600 detects a tap gesture 2950k at a location corresponding to media collection 624.

図29L~図29Pは、デバイス600がキャプチャし、かつ視覚的引裂きが発生したが、メディアを編集するための追加のコンテンツ(例えば、図29Hの領域602及び606内に表示されたライブプレビュー630の一部分)を使用するために利用可能であることを示すメディアを編集するユーザインタフェースを示す。図29Lに示すように、タップジェスチャ2950kを検出したことに応じて、デバイス600は、カメラユーザインタフェースの表示を、写真ビューワインタフェースの表示に置き換える。メディア閲覧インタフェースは、表現2930を含み、これは、図29Hのタップジェスチャ2950hを検出したことに応じて、キャプチャされたメディアの表現である。更には、メディアビューワユーザインタフェースは、メディアを編集するための編集アフォーダンス644aと、キャプチャされたメディアを送信するための送信アフォーダンス644bと、キャプチャされたメディアをお気に入りのメディアとしてマーキングするためのお気に入りアフォーダンス644cと、キャプチャされたメディアを削除するためのごみ箱アフォーダンス644dと、ライブプレビュー630の表示に戻るための戻るアフォーダンス644eと、を含む。図29Lでは、デバイス600は、編集アフォーダンス644aに対応する位置でのタップジェスチャ2950lを検出する。 29L-29P illustrate a user interface for editing media that the device 600 has captured and indicates that visual tearing has occurred but that additional content is available for use to edit the media (e.g., the portion of the live preview 630 displayed in areas 602 and 606 of FIG. 29H). As shown in FIG. 29L, in response to detecting a tap gesture 2950k, the device 600 replaces the display of the camera user interface with a display of a photo viewer interface. The media viewing interface includes a representation 2930, which is a representation of the captured media in response to detecting the tap gesture 2950h of FIG. 29H. Additionally, the media viewer user interface includes an edit affordance 644a for editing the media, a send affordance 644b for sending the captured media, a favorite affordance 644c for marking the captured media as favorite media, a trash affordance 644d for deleting the captured media, and a back affordance 644e for returning to displaying the live preview 630. In FIG. 29L, the device 600 detects a tap gesture 2950l at a location corresponding to the edit affordance 644a.

図29Mに示すように、タップジェスチャ2950lを検出したことに応じて、デバイス600は、メディアビューワユーザインタフェースを、メディア編集ユーザインタフェースに置き換える(図22A~図22B及び図24Aのものと同様の技術を使用して)。メディア編集ユーザインタフェースは、表現2930及び画像コンテンツ編集アフォーダンス2210dを含む。図29Mでは、デバイス600は、画像コンテンツ編集アフォーダンス2210dに対応する位置でのタップジェスチャ2950mを検出する。 As shown in FIG. 29M, in response to detecting tap gesture 2950l, device 600 replaces the media viewer user interface with a media editing user interface (using techniques similar to those of FIGS. 22A-22B and 24A). The media editing user interface includes representation 2930 and image content editing affordance 2210d. In FIG. 29M, device 600 detects tap gesture 2950m at a location corresponding to image content editing affordance 2210d.

図29Nに示すように、タップジェスチャ2950mを検出したことに応じて、デバイス600は、デバイス600の上部付近にアスペクト比コントロールアフォーダンス626cを表示する。図29Nでは、デバイス600は、アスペクト比コントロールアフォーダンス626cに対応する位置でのタップジェスチャ2950nを(24J~24Oに記載されるものと同様のものを使用して)検出する。 As shown in FIG. 29N, in response to detecting tap gesture 2950m, device 600 displays aspect ratio control affordance 626c near the top of device 600. In FIG. 29N, device 600 detects tap gesture 2950n (using similar to those described in 24J-24O) at a location corresponding to aspect ratio control affordance 626c.

図29Oに示すように、タップジェスチャ2950nを検出したことに応じて、デバイス600は、表現2930上に視覚境界部608を表示する。図29Oでは、デバイス600は、表現2930上のピンチングジェスチャ2950oを検出する。 As shown in FIG. 29O, in response to detecting a tap gesture 2950n, the device 600 displays a visual boundary 608 on the representation 2930. In FIG. 29O, the device 600 detects a pinching gesture 2950o on the representation 2930.

図29Pに示すように、ピンチングジェスチャ2950oを検出したことに応じて、デバイス600は、ライブプレビュー630のインジケータ領域602及びコントロール領域606内に表示された、図29Hにおいてキャプチャされたメディアの部分を表示するように、表現2930を更新する。ここで、図29Hのライブプレビュー630とは対照的に、デバイス600は、図29Pにおいて表現2930に実質的に視覚的引裂きがないように、領域602、604、606内のライブプレビュー630の一部分を一緒にステッチした。いくつかの実施形態では、デバイス600は、ブラックアウトしている外側部分をキャプチャし(例えば、29D)、外側部分を内側部分にステッチして、視覚的引裂きがほとんど又はまったくないメディアの表現(領域602、604、606内のライブプレビュー630)を表示することができる。いくつかの実施形態では、デバイス600は、要求(例えば、ピンチングジェスチャ2950o)が受信されない限り、ステッチされた表現を表示することをやめ、代わりに、ステッチされていないキャプチャされたメディアの表現を表示する(例えば、図29Lの表現2930、29Hのカメラディスプレイ領域604内に表示されたライブプレビュー630の一部分の表現によって示されるように)。 As shown in FIG. 29P, in response to detecting pinching gesture 2950o, device 600 updates representation 2930 to display the portions of the media captured in FIG. 29H displayed within indicator region 602 and control region 606 of live preview 630. Here, in contrast to live preview 630 in FIG. 29H, device 600 has stitched together portions of live preview 630 in regions 602, 604, 606 such that there is substantially no visual tear in representation 2930 in FIG. 29P. In some embodiments, device 600 can capture a blacked-out outer portion (e.g., 29D) and stitch the outer portion to the inner portion to display a representation of the media (live preview 630 in regions 602, 604, 606) with little or no visual tear. In some embodiments, the device 600 ceases to display the stitched representation unless a request (e.g., a pinching gesture 2950o) is received, and instead displays a representation of the unstitched captured media (e.g., as shown by representation 2930 in FIG. 29L and a representation of a portion of the live preview 630 displayed within the camera display area 604 in FIG. 29H).

図30A~図30Cは、いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための方法を示すフロー図である。方法3000は、表示デバイス(例えば、タッチ感知ディスプレイ)を備えたデバイス(例えば、100、300、500、600)で実行される。方法3000のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 30A-30C are flow diagrams illustrating a method for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. Method 3000 is performed on a device (e.g., 100, 300, 500, 600) with a display device (e.g., a touch-sensitive display). Some operations of method 3000 are optionally combined, the order of some operations is optionally changed, and some operations are optionally omitted.

いくつかの実施形態では、電子デバイス(例えば、600)は、コンピュータシステムである。コンピュータシステムは、任意選択的に、ディスプレイ生成構成要素と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the electronic device (e.g., 600) is a computer system. The computer system is optionally in communication (e.g., wired communication, wireless communication) with a display generation component and with one or more input devices. The display generation component is configured to provide visual output, such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. The one or more input devices are configured to receive input, such as a touch-sensitive surface that receives user input. In some embodiments, the one or more input devices are integrated with the computer system. In some embodiments, the one or more input devices are separate from the computer system. Thus, the computer system can transmit data (e.g., image data or video data) via a wired or wireless connection to an integrated or external display generation component to visually generate content (e.g., using a display device) and can receive wired or wireless connection input from one or more input devices.

後述するように、方法3000は、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための直感的な仕方を提供する。この方法は、複数のカメラを有する電子デバイスを使用してメディアのキャプチャを管理する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアをキャプチャすることを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, the method 3000 provides an intuitive way to manage controlled media capture using an electronic device with multiple cameras. The method reduces the cognitive burden on a user when managing media capture using an electronic device with multiple cameras, thereby creating a more efficient human-machine interface. For battery-operated computing devices, it conserves power and extends the time between battery charges by enabling a user to capture media more quickly and efficiently.

電子デバイス(例えば、600)は、表示デバイス(例えば、タッチ感知ディスプレイ)及び1つ以上のカメラ(例えば、電子デバイスの異なる側(例えば、前カメラ、後カメラ)の1つ以上のカメラ(例えば、第1のカメラ及び第2のカメラ(例えば、第2のカメラは第1のカメラよりも広い視野を有する))(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど)))を含む。電子デバイスは、表示デバイスを介して、カメラユーザインタフェース、そのカメラユーザインタフェースを表示する(3002)。カメラユーザは、第1の領域(例えば、604)(例えば、カメラディスプレイ領域)であって、1つ以上のカメラ(例えば、カメラに視認可能である開放観測可能エリア、カメラレンズから所与の距離の画像の水平(又は垂直又は対角線)長さ)(例えば、第1のカメラ)の視野の第1の部分(例えば、第1のカメラの視野の第1の部分)の第1の表現(例えば、表現オーバータイム、カメラからのデータのライブプレビューフィード)を含む第1の領域と(3004)、第1の領域の外側にあり、第1の領域と視覚的に区別される第2の領域(例えば、602及び/又は606)(例えば、カメラコントロール領域)と、を含む。第1の領域とは視覚的に異なる第2の領域を表示することにより、メディアを表示するためにキャプチャ及び使用されるメインコンテンツ及びメディアを表示するためにキャプチャされ得る追加のコンテンツであるコンテンツについてのフィードをユーザに提供し、ユーザが、メディアをキャプチャするときに、異なる領域内/外に物を維持するために、メディアをフレーム化できるようにする。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 The electronic device (e.g., 600) includes a display device (e.g., a touch-sensitive display) and one or more cameras (e.g., one or more cameras (e.g., a first camera and a second camera (e.g., the second camera has a wider field of view than the first camera)) on different sides (e.g., front camera, rear camera) of the electronic device (e.g., dual camera, triple camera, quad camera, etc.)). The electronic device displays a camera user interface via the display device (3002). The camera user may display a first region (e.g., 604) (e.g., a camera display area) that includes a first representation (e.g., a representation over time, a live preview feed of data from the camera) of a first portion of a field of view (e.g., a first portion of a field of view of a first camera) of one or more cameras (e.g., an open observable area visible to the camera, a horizontal (or vertical or diagonal) length of an image at a given distance from the camera lens) (e.g., a first camera) (3004), and a second region (e.g., 602 and/or 606) (e.g., a camera control area) that is outside of the first region and visually distinct from the first region. Displaying the second region that is visually distinct from the first region provides the user with a feed of content, which is main content that is captured and used to display the media and additional content that may be captured to display the media, and allows the user to frame the media to keep things in/out of the different regions when capturing the media. Providing improved visual feedback to the user improves usability of the device and makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

第2の領域は、1つ以上のカメラの視野内の第1のそれぞれのオブジェクト(例えば、2986)(例えば、検出された観察可能なオブジェクト、焦点が合っているオブジェクト、1つ以上のカメラの焦点面内のオブジェクト)が1つ以上のカメラから第1の距離(例えば、2982b)であるときに満たされる基準を含む、1組の第1のそれぞれの基準が満たされているとの判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観(例えば、図29Cの602)で表示する(3008)ことを含む(3006)。所定の条件が満たされている又は満たされていない場合に基づいて第2の領域内に視野の一部分を表示するように選択することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性があると判定されたときに、第2の領域のプロミネンスを減少するように、かつ/又は電子デバイスの1つ以上のカメラの視野が、カメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性がないと判定されたときに、第2の領域のプロミネンスを増加するように、最適化されたユーザインタフェースを提供することができる。これにより、メディアをキャプチャする際に、視覚的引裂きがユーザにもたらす注意散漫が減り、例えば、ユーザが、画像のフレーミング及びキャプチャにかかる時間を短縮することを可能にする。更には、これは、デバイスがキャプチャされた画像を補正するために実行するコンピュータ集約的なステッチ動作をデバイスが実行する可能性を低減し、したがって、これは、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In accordance with a determination that a first set of respective criteria is satisfied, the second region including criteria that are satisfied when a first respective object (e.g., 2986) in the field of view of the one or more cameras (e.g., a detected observable object, an object in focus, an object in a focal plane of the one or more cameras) is a first distance (e.g., 2982b) from the one or more cameras, the electronic device displays (3008) a second portion of the field of view of the one or more cameras with a first visual appearance (e.g., 602 in FIG. 29C) within the second region (3006). By selecting to display a portion of the field of view in the second region based on whether a predetermined condition is met or not met, the electronic device can provide an optimized user interface to reduce the prominence of the second region when it is determined that the field of view of one or more cameras of the electronic device is likely to cause visual tearing when rendered on a camera user interface of the electronic device, and/or to increase the prominence of the second region when it is determined that the field of view of one or more cameras of the electronic device is not likely to cause visual tearing when rendered on a camera user interface of the electronic device. This reduces the distraction that visual tearing causes to the user when capturing media, for example, allowing the user to spend less time framing and capturing an image. Furthermore, this reduces the likelihood that the device will perform computationally intensive stitching operations to enhance the captured image, which therefore reduces power usage and improves the battery life of the device by allowing the user to use the device more quickly and efficiently. By performing an optimized action when a set of conditions are met without requiring further user input, it improves usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves the battery life of the device by allowing the user to use the device more quickly and efficiently.

第2の領域は、1つ以上のカメラの視野内の第1のそれぞれのオブジェクト(例えば、検出された観察可能なオブジェクト、焦点が合っているオブジェクト、1つ以上のカメラの焦点面内のオブジェクト)が1つ以上のカメラから第2の距離(例えば、2982a)であるときに満たされる基準を含む、1組の第2のそれぞれの基準が満たされているとの判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観(例えば、図29Bの602)で表示することをやめる(3010)ことを含む。所定の条件が満たされている又は満たされていない場合に基づいて第2の領域内に視野の一部分を表示するように選択することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性があると判定されたときに、第2の領域のプロミネンスを減少するように、かつ/又は電子デバイスの1つ以上のカメラの視野が、カメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性がないと判定されたときに、第2の領域のプロミネンスを増加するように、最適化されたユーザインタフェースを提供することができる。これにより、メディアをキャプチャする際に、視覚的引裂きがユーザにもたらす注意散漫が減り、例えば、ユーザが、画像のフレーミング及びキャプチャにかかる時間を短縮することを可能にする。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In accordance with a determination that a set of second respective criteria is met, including criteria that are met when a first respective object (e.g., a detected observable object, an object in focus, an object in a focal plane of one or more cameras) in the field of view of the one or more cameras is a second distance (e.g., 2982a) from the one or more cameras, the electronic device ceases to display (3010) a second portion of the field of view of the one or more cameras in the first visual appearance (e.g., 602 of FIG. 29B) in the second region. By selecting to display a portion of the field of view in the second region based on whether a predetermined condition is met or not, the electronic device can provide an optimized user interface to reduce the prominence of the second region when it is determined that the field of view of the one or more cameras of the electronic device is likely to cause visual tearing when rendered on a camera user interface of the electronic device, and/or to increase the prominence of the second region when it is determined that the field of view of the one or more cameras of the electronic device is not likely to cause visual tearing when rendered on a camera user interface of the electronic device. This reduces the distraction that visual tearing causes to the user when capturing media, for example, allowing the user to spend less time framing and capturing an image; improves usability of the device by performing an optimized action when a set of conditions are met without requiring further user input, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and reduces power usage and improves the battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第2の領域は、複数のカメラ設定(例えば、620)(例えば、フラッシュ、タイマー、フィルタ効果、f値、アスペクト比、ライブフォトなど)を制御する(例えば、カメラモードを変更する)(例えば、写真を撮影する)(例えば、異なるカメラ(例えば、前面から背面)をアクティブ化する)複数のコントロールアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、プロアクティブコントロールアフォーダンス、シャッターアフォーダンス、カメラ選択アフォーダンス、複数のカメラモードアフォーダンス)を含む。 In some embodiments, the second region includes multiple control affordances (e.g., selectable user interface objects) (e.g., proactive control affordances, shutter affordances, camera selection affordances, multiple camera mode affordances) that control multiple camera settings (e.g., 620) (e.g., flash, timer, filter effects, f-stop, aspect ratio, live photos, etc.), (e.g., change camera modes), (e.g., take a photo), (e.g., activate a different camera (e.g., front to back), etc.).

いくつかの実施形態では、電子デバイスは、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトに焦点を合わせるように電子デバイスが構成される(3012)。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示している間に、電子デバイスは、電子デバイスの焦点設定を調整する第1の要求(例えば、2950a)を受信する(3014)。いくつかの実施形態では、電子デバイスの焦点設定を調整する第1の要求(例えば、第1の領域に向けられたジェスチャ(例えば、タップ))を受信したことに応じて、電子デバイスは、1つ以上のカメラの視野内(例えば、2936a)の第2のそれぞれのオブジェクトに焦点を合わせるように電子デバイスを構成する(3016)。いくつかの実施形態では、1つ以上のカメラの視野内の第2のそれぞれのオブジェクトに焦点を合わせるように電子デバイスが構成されている間に(3018)、かつ1つ以上のカメラの視野内の第2のそれぞれのオブジェクト(例えば、2988)(例えば、検出された観察可能なオブジェクト、焦点が合っているオブジェクト、1つ以上のカメラの焦点面内のオブジェクト)が1つ以上のカメラから第3の距離(例えば、2984b)(例えば、第1のそれぞれのオブジェクトから更に離れた1つ以上のカメラからの距離)であるときに満たされる基準を含む、1組の第3のそれぞれの基準が満たされているとの判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することをやめる(例えば、29Gの602)(3020)。いくつかの実施形態では、1つ以上のカメラの視野内の第2のそれぞれのオブジェクトであるときに満たされる基準を含む、1組の第3のそれぞれの基準が満たされていないとの判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示する(又は表示を維持する)。電子デバイスの1つ以上のカメラの焦点が合っているオブジェクトに関して所定の条件が満たされている又は満たされていない場合に基づいて第2の領域内に視野の一部分を表示するように選択することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性があると判定されたときに、第2の領域のプロミネンスを減少するように、かつ/又は電子デバイスの1つ以上のカメラの視野が、カメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性がないと判定されたときに、第2の領域のプロミネンスを増加するように、最適化されたユーザインタフェースを提供することができる。これにより、メディアをキャプチャする際に、視覚的引裂きがユーザにもたらす注意散漫が減り、例えば、ユーザが、画像のフレーミング及びキャプチャにかかる時間を短縮することを可能にする。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the electronic device is configured to focus on a first respective object within the field of view of the one or more cameras (3012). In some embodiments, while displaying a second portion of the field of view of the one or more cameras in a first visual appearance, the electronic device receives a first request (e.g., 2950a) to adjust a focus setting of the electronic device (3014). In some embodiments, in response to receiving the first request (e.g., a gesture (e.g., a tap) directed toward the first region) to adjust a focus setting of the electronic device, the electronic device configures the electronic device to focus on a second respective object within the field of view of the one or more cameras (e.g., 2936a) (3016). In some embodiments, while the electronic device is configured to focus on a second respective object in the field of view of the one or more cameras (3018), and pursuant to a determination that a third set of respective criteria is met, including criteria that are met when a second respective object (e.g., 2988) in the field of view of the one or more cameras (e.g., a detected observable object, an object in focus, an object in a focal plane of the one or more cameras) is a third distance (e.g., 2984b) from the one or more cameras (e.g., a distance from the one or more cameras further away from the first respective object), the electronic device ceases to display (e.g., 602 of 29G) the second portion of the field of view of the one or more cameras in the first visual appearance (3020). In some embodiments, pursuant to a determination that a third set of respective criteria is not met, including criteria that are met when a second respective object in the field of view of the one or more cameras is a third distance (e.g., 2984b) from the one or more cameras (e.g., a distance from the one or more cameras further away from the first respective object), the electronic device ceases to display (or maintains displaying) the second portion of the field of view of the one or more cameras in the first visual appearance in the second region. By selecting to display a portion of the field of view in the second region based on whether a predetermined condition is met or not met with respect to an object in focus of one or more cameras of the electronic device, the electronic device can provide an optimized user interface to reduce the prominence of the second region when it is determined that the field of view of one or more cameras of the electronic device is likely to cause visual tearing when rendered on a camera user interface of the electronic device, and/or to increase the prominence of the second region when it is determined that the field of view of one or more cameras of the electronic device is not likely to cause visual tearing when rendered on a camera user interface of the electronic device. This reduces the distraction that visual tearing causes to a user when capturing media, for example, allowing a user to spend less time framing and capturing an image. Performing an optimized action when a set of conditions is met without requiring further user input improves usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves the battery life of the device by allowing a user to use the device more quickly and efficiently.

いくつかの実施形態では、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示している間に(例えば、図29Cの602)、電子デバイスは、1つ以上のカメラの視野内の第1のそれぞれのオブジェクト(例えば、2986)と1つ以上のカメラとの間の距離の第1の変化(例えば、第1のそれぞれのオブジェクトに焦点が合っているときの距離の増加)を検出する。いくつかの実施形態では、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトと1つ以上のカメラとの間の距離の第1の変化を検出したことに応じて、かつ1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第4の距離(例えば、2982c)であるときに満たされる基準を含む、1組の第4のそれぞれの基準が満たされているとの判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することをやめる(例えば、図29Dの602)。いくつかの実施形態では、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第4の距離であるときに満たされる基準を含む、1組の第4のそれぞれの基準が満たされていないとの判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を、第1の視覚外観よりも視覚的に目立たない第3の視覚外観で表示する(例えば、表示を維持する)。電子デバイスとオブジェクトと間の距離に基づく所定の条件が満たされている又は満たされていない場合に基づいて第2の領域内に視野の一部分を表示するように選択することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性があると判定されたときに、第2の領域のプロミネンスを減少するように、かつ/又は電子デバイスの1つ以上のカメラの視野が、カメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性がないと判定されたときに、第2の領域のプロミネンスを増加するように、最適化されたユーザインタフェースを提供することができる。これにより、メディアをキャプチャする際に、視覚的引裂きがユーザにもたらす注意散漫が減り、例えば、ユーザが、画像のフレーミング及びキャプチャにかかる時間を短縮することを可能にする。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, while displaying the second portion of the field of view of the one or more cameras in the first visual appearance (e.g., 602 of FIG. 29C), the electronic device detects a first change in distance (e.g., an increase in distance when the first respective object is in focus) between the first respective object (e.g., 2986) in the field of view of the one or more cameras and the one or more cameras. In some embodiments, in response to detecting the first change in distance between the first respective object in the field of view of the one or more cameras and the one or more cameras, and in accordance with a determination that a set of fourth respective criteria is satisfied, including a criterion that is satisfied when the first respective object in the field of view of the one or more cameras is a fourth distance (e.g., 2982c) from the one or more cameras, the electronic device ceases to display the second portion of the field of view of the one or more cameras in the first visual appearance in the second region (e.g., 602 of FIG. 29D). In some embodiments, pursuant to a determination that a set of fourth respective criteria is not met, including criteria that are met when a first respective object in the field of view of the one or more cameras is at a fourth distance from the one or more cameras, the electronic device displays (e.g., maintains) a second portion of the field of view of the one or more cameras in the second region with a third visual appearance that is less visually prominent than the first visual appearance. By selecting to display a portion of the field of view in the second region based on whether a predetermined condition based on the distance between the electronic device and the object is met or not, the electronic device can provide an optimized user interface that reduces the prominence of the second region when it is determined that the field of view of the one or more cameras of the electronic device is likely to cause visual tearing when rendered on a camera user interface of the electronic device, and/or increases the prominence of the second region when it is determined that the field of view of the one or more cameras of the electronic device is not likely to cause visual tearing when rendered on a camera user interface of the electronic device. This reduces the distraction that visual tearing causes to a user when capturing media, for example, allowing a user to spend less time framing and capturing an image. By performing an optimized action when a set of conditions are met without requiring further user input, it improves usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves the battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することをやめることの一部として、電子デバイスは、第2の領域内に、第2の領域内に以前に表示されなかった1つ以上のカメラの視野の第3の部分の少なくとも一部を表示することを停止する(例えば、図29Dの602)。1つ以上のカメラの視野の一部分を表示することを停止することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性があると判定されたときに、第2の領域のプロミネンスが減少するように、最適化されたユーザインタフェースを提供することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, as part of ceasing to display in the second region the second portion of the field of view of the one or more cameras in the first visual appearance, the electronic device ceasing to display in the second region at least a portion of a third portion of the field of view of the one or more cameras that was not previously displayed in the second region (e.g., 602 in FIG. 29D). By ceasing to display a portion of the field of view of the one or more cameras, the electronic device can provide an optimized user interface such that the prominence of the second region is reduced when it is determined that the field of view of the one or more cameras of the electronic device may cause visual tearing when rendered on the camera user interface of the electronic device. Providing improved visual feedback to the user improves usability of the device and provides a more efficient user-device interface (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), which in turn reduces the power usage of the device and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することをやめることの一部として、電子デバイスは、第2の領域上に重ね合わされた第1の黒化層(例えば、シミュレートされた黒化層、シミュレートされたマスキング層)の不透明度を増大させる(例えば、図29Dの602)(例えば、より詳細でない、より少ない色彩度、より低い輝度、及び/又はより小さいコントラストで表示される、より不透明なマスキング/黒化層とともに表示される)(例えば、第2の領域は、第1の領域よりも低い輝度、コントラスト、及び/又は色彩度を有するように見える)。第2の領域上に重ね合わされた、黒化層の不透明度を増加させて視覚を低減することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性があると判定されたときに、第2の領域のプロミネンスが減少するように、最適化されたユーザインタフェースを提供することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, as part of ceasing to display the second portion of the field of view of the one or more cameras in the second region with the first visual appearance, the electronic device increases the opacity of a first blackening layer (e.g., simulated blackening layer, simulated masking layer) superimposed over the second region (e.g., 602 in FIG. 29D) (e.g., displayed with a more opaque masking/blackening layer that is displayed with less detail, less color saturation, less brightness, and/or less contrast) (e.g., the second region appears to have less brightness, contrast, and/or color saturation than the first region). By increasing the opacity of the blackening layer superimposed over the second region to reduce its visibility, the electronic device can provide an optimized user interface such that the prominence of the second region is reduced when it is determined that the field of view of the one or more cameras of the electronic device may cause visual tearing when rendered on a camera user interface of the electronic device. Providing improved visual feedback to the user improves usability of the device and makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、電子デバイスは、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトに焦点を合わせるように電子デバイスが構成される。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分が第1の視覚外観で表示されていない間に、電子デバイスは、電子デバイスの焦点設定を調整する第2の要求(例えば、2950j)を受信する。いくつかの実施形態では、電子デバイスの焦点設定を調整する第2の要求を受信したことに応じて、電子デバイスは、1つ以上のカメラの視野内の第3のそれぞれのオブジェクトに焦点を合わせるように電子デバイスを構成する。いくつかの実施形態では、1つ以上のカメラの視野内の第3のそれぞれのオブジェクトに焦点を合わせるように電子デバイスが構成されている間に、かつ1つ以上のカメラの視野内の第3のそれぞれのオブジェクト(例えば、検出された観察可能なオブジェクト、焦点が合っているオブジェクト、1つ以上のカメラの焦点面内のオブジェクト)が1つ以上のカメラから第5の距離(例えば、第1のそれぞれのオブジェクトよりも近い1つ以上のカメラからの距離)であるときに満たされる基準を含む、1組の第5のそれぞれの基準が満たされているとの判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示する。いくつかの実施形態では、1つ以上のカメラの視野内の第3のそれぞれのオブジェクト(例えば、検出された観察可能なオブジェクト、焦点が合っているオブジェクト、1つ以上のカメラの焦点面内のオブジェクト)が1つ以上のカメラから第5の距離(例えば、第1のそれぞれのオブジェクトよりも近い1つ以上のカメラからの距離)であるときに満たされる基準を含む、1組の第5のそれぞれの基準が満たされていないとの判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することをやめる。焦点が合っているオブジェクトに関して所定の条件が満たされている又は満たされていない場合に基づいて第2の領域内に視野の一部分を表示するように選択することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性があると判定されたときに、第2の領域のプロミネンスを減少するように、かつ/又は電子デバイスの1つ以上のカメラの視野が、カメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性がないと判定されたときに、第2の領域のプロミネンスを増加するように、最適化されたユーザインタフェースを提供することができる。これにより、メディアをキャプチャする際に、視覚的引裂きがユーザにもたらす注意散漫が減り、例えば、ユーザが、画像のフレーミング及びキャプチャにかかる時間を短縮することを可能にする。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the electronic device is configured to focus on a first respective object in the field of view of the one or more cameras. In some embodiments, while the second portion of the field of view of the one or more cameras is not displayed in the first visual appearance, the electronic device receives a second request (e.g., 2950j) to adjust a focus setting of the electronic device. In some embodiments, in response to receiving the second request to adjust a focus setting of the electronic device, the electronic device configures the electronic device to focus on a third respective object in the field of view of the one or more cameras. In some embodiments, while the electronic device is configured to focus on the third respective object in the field of view of the one or more cameras, and pursuant to a determination that a set of fifth respective criteria is met, including a criterion that is met when a third respective object in the field of view of the one or more cameras (e.g., a detected observable object, an object in focus, an object in a focal plane of the one or more cameras) is at a fifth distance from the one or more cameras (e.g., a distance from the one or more cameras closer than the first respective object), the electronic device displays the second portion of the field of view of the one or more cameras in the first visual appearance within the second region. In some embodiments, pursuant to a determination that a set of fifth respective criteria is not met, including a criterion that is met when a third respective object (e.g., a detected observable object, an in-focus object, an object in a focal plane of the one or more cameras) in the field of view of the one or more cameras is a fifth distance from the one or more cameras (e.g., a distance from the one or more cameras closer than the first respective object), the electronic device ceases to display the second portion of the field of view of the one or more cameras in the second region with the first visual appearance. By selecting to display a portion of the field of view in the second region based on whether a predetermined condition is met or not met with respect to the in-focus object, the electronic device can provide an optimized user interface to reduce the prominence of the second region when it is determined that the field of view of the one or more cameras of the electronic device is likely to cause visual tearing when rendered on a camera user interface of the electronic device, and/or to increase the prominence of the second region when it is determined that the field of view of the one or more cameras of the electronic device is not likely to cause visual tearing when rendered on a camera user interface of the electronic device. This reduces the distraction that visual tearing causes to the user when capturing media, for example, allowing the user to spend less time framing and capturing an image; improves usability of the device by performing an optimized action when a set of conditions are met without requiring further user input, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and reduces power usage and improves the battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示されていない間に、電子デバイスは、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトと1つ以上のカメラとの間の距離(例えば、2982c)の第2の変化(例えば、第1のそれぞれのオブジェクトに焦点が合っているときの距離の減少)を検出する。いくつかの実施形態では、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトと1つ以上のカメラとの間の距離の第2の変化を検出したことに応じて、かつ1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第6の距離(例えば、2982a)であるときに満たされる基準を含む、1組の第6のそれぞれの基準が満たされているとの判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示する(例えば、図29E)。いくつかの実施形態では、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第6の距離であるときに満たされる基準を含む、1組の第6のそれぞれの基準が満たされていないとの判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することをやめる。電子デバイスとオブジェクトとの間の距離に基づく所定の条件が満たされている又は満たされていない場合に基づいて第2の領域内に視野の一部分を表示するように選択することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性があると判定されたときに、第2の領域のプロミネンスを減少するように、かつ/又は電子デバイスの1つ以上のカメラの視野が、カメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性がないと判定されたときに、第2の領域のプロミネンスを増加するように、最適化されたユーザインタフェースを提供することができる。これにより、メディアをキャプチャする際に、視覚的引裂きがユーザにもたらす注意散漫が減り、例えば、ユーザが、画像のフレーミング及びキャプチャにかかる時間を短縮することを可能にする。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, while the second portion of the field of view of the one or more cameras is not displayed in the first visual appearance, the electronic device detects a second change in distance (e.g., a decrease in distance when the first respective object is in focus) between the first respective object in the field of view of the one or more cameras and the one or more cameras. In some embodiments, in response to detecting the second change in distance between the first respective object in the field of view of the one or more cameras and the one or more cameras, and in accordance with a determination that a set of sixth respective criteria is satisfied, including a criterion that is satisfied when the first respective object in the field of view of the one or more cameras is a sixth distance (e.g., 2982a) from the one or more cameras, the electronic device displays the second portion of the field of view of the one or more cameras in the first visual appearance in the second region (e.g., FIG. 29E). In some embodiments, in response to a determination that a set of sixth respective criteria is not met, including criteria that are met when a first respective object in the field of view of the one or more cameras is at a sixth distance from the one or more cameras, the electronic device ceases to display the second portion of the field of view of the one or more cameras in the second region with the first visual appearance. By selecting to display a portion of the field of view in the second region based on whether a predetermined condition based on the distance between the electronic device and the object is met or not, the electronic device can provide an optimized user interface to reduce the prominence of the second region when it is determined that the field of view of the one or more cameras of the electronic device is likely to cause visual tearing when rendered on a camera user interface of the electronic device, and/or to increase the prominence of the second region when it is determined that the field of view of the one or more cameras of the electronic device is not likely to cause visual tearing when rendered on a camera user interface of the electronic device. This reduces the distraction that visual tearing causes to a user when capturing media, allowing, for example, a user to spend less time framing and capturing an image. By performing an optimized action when a set of conditions are met without requiring further user input, it improves usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves the battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することの一部として、含み(例えば、第1の視覚外観は、視野の第2の部分の以前の外観がより視覚的に目立つ(例えば、より詳細に、より大きい色彩度、より大きい輝度、及び/又はより大きいコントラストで表示された、より少ないマスキング/黒化層とともに表示された))、電子デバイスは、第2の領域内に、第2の領域内に以前に表示されなかった1つ以上のカメラの視野の第4の部分を表示する(例えば、図29Eの602)。追加のコンテンツをユーザに示すことにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性がないと判定されたときに、第2の領域のプロミネンスを増加するように、最適化されたユーザインタフェースを提供することができ、ユーザは、ユーザが、カメラユーザインタフェースを使用してメディアを迅速にフレーム化し、かつメディアをキャプチャすることができる、追加のコンテキスト情報を提供するために画像を撮影するときに、より多くの1つ以上のカメラの視野を見ることができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, as part of displaying in the second region a second portion of the field of view of the one or more cameras in the first visual appearance (e.g., the first visual appearance is displayed with less masking/blackening layers, where a previous appearance of the second portion of the field of view is more visually prominent (e.g., displayed with more detail, greater color saturation, greater brightness, and/or greater contrast)), the electronic device displays in the second region a fourth portion of the field of view of the one or more cameras that was not previously displayed in the second region (e.g., 602 in FIG. 29E). By showing the additional content to the user, the electronic device can provide an optimized user interface to increase the prominence of the second region when it is determined that the field of view of the one or more cameras of the electronic device is not likely to cause visual tearing when rendered on a camera user interface of the electronic device, and the user can see more of the field of view of the one or more cameras when taking an image to provide additional contextual information that allows the user to quickly frame and capture media using the camera user interface. Providing improved visual feedback to the user improves usability of the device and makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することの一部として、含み(例えば、より詳細に、より大きい色彩度、より大きい輝度、及び/又はより大きいコントラストで表示される、より不透明でないマスキング/黒化層とともに表示される)(例えば、第1の視覚外観は、視野の第2の部分の以前の外観がより視覚的に目立つ(例えば、より詳細に、より大きい色彩度、より大きい輝度、及び/又はより大きいコントラストで表示される、より少ないマスキング/黒化層とともに表示される))、電子デバイスは、第2の領域上に重ね合わされた第2の黒化層(例えば、シミュレートされた黒化層、シミュレートされたマスキング層))の不透明度を減少させる(例えば、図29Eの602)(例えば、第2の領域は、第1の領域よりも大きい輝度、コントラスト、及び/又は色彩度を有するように見える)。第2の領域上に重ね合わされた黒化層の不透明度を減少させて視覚を低減することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性がないと判定されたときに、第2の領域のプロミネンスを増加するように、最適化されたユーザインタフェースを提供することができ、ユーザは、ユーザが、カメラユーザインタフェースを使用してメディアを迅速にフレーム化し、かつメディアをキャプチャすることができ、これは、例えば、ユーザがメディアを生成するために実行する必要があるメディアキャプチャの数を低減する、追加のコンテキスト情報を提供するために画像を撮影するときに、より多くの1つ以上のカメラの視野を見ることができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, within the second region, as part of displaying the second portion of the field of view of one or more cameras in a first visual appearance (e.g., displayed with a less opaque masking/blackening layer displayed with more detail, greater color saturation, greater brightness, and/or greater contrast) (e.g., the first visual appearance is such that the previous appearance of the second portion of the field of view is more visually noticeable (e.g., displayed with less masking/blackening layer displayed with more detail, greater color saturation, greater brightness, and/or greater contrast)), the electronic device reduces the opacity of a second blackening layer (e.g., simulated blackening layer, simulated masking layer) superimposed on the second region (e.g., 602 in FIG. 29E) (e.g., the second region appears to have greater brightness, contrast, and/or color saturation than the first region). By reducing the opacity of the blackening layer superimposed on the second region to reduce visibility, the electronic device can provide an optimized user interface to increase the prominence of the second region when it is determined that the field of view of one or more cameras of the electronic device is not likely to cause visual tearing when rendered on a camera user interface of the electronic device, and the user can see more of the field of view of the one or more cameras when taking an image to provide additional contextual information, for example, reducing the number of media captures the user must perform to generate the media. Providing improved visual feedback to the user can improve usability of the device and make the user-device interface more efficient (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), which further reduces the power usage of the device and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1の視覚外観は、第1の視覚プロミネンスを含む。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することの一部として、電子デバイスは、1つ以上のカメラの視野の第2の部分を第2の視覚外観から第1の視覚外観に漸進的に遷移させるアニメーションを表示する(例えば、第1の視覚外観を表示する前に第1の視覚外観及び第2の視覚外観とは異なる、異なる外観で表示される)。いくつかの実施形態では、第2の視覚外観は、第1の視覚プロミネンスとは異なる第2の視覚プロミネンスを有する(例えば、より詳細に/より詳細ではなく、より大きい/より小さい色彩度、より大きい/より低い輝度、及び/又はより大きい/より小さいコントラストで表示される、より不透明でない/より不透明なマスキング/黒化層とともに表示される)。いくつかの実施形態では、第1の視覚外観は、第2の視覚外観とは異なる。第2の領域をある状態の視覚プロミネンスから第2の状態の視覚プロミネンスに漸進的に遷移させるアニメーションを表示することにより、ユーザに、視覚プロミネンスの突然の変化が、カメラユーザインタフェースを使用してメディアをフレーム化及びキャプチャするユーザの能力を中断する、又はメディアをフレーム化及びキャプチャする時間を増加させるユーザアクション(例えば、デバイスを揺さぶる又は動かす)を引き起こし得る、注意散漫の可能性を低減させている間に、視覚的引裂きを低減させたユーザインタフェースを提供する。第2の領域上に重ね合わされた黒化層の不透明度を減少させて視覚を低減することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性がないと判定されたときに、第2の領域のプロミネンスを増加するように、最適化されたユーザインタフェースを提供することができ、ユーザは、ユーザが、カメラユーザインタフェースを使用してメディアを迅速にフレーム化し、かつメディアをキャプチャすることができる、追加のコンテキスト情報を提供するために画像を撮影するときに、より多くの1つ以上のカメラの視野を見ることができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the first visual appearance includes a first visual prominence. In some embodiments, as part of displaying the second portion of the field of view of the one or more cameras in the first visual appearance, the electronic device displays an animation that gradually transitions the second portion of the field of view of the one or more cameras from the second visual appearance to the first visual appearance (e.g., displayed in a different appearance that is different from the first visual appearance and the second visual appearance before displaying the first visual appearance). In some embodiments, the second visual appearance has a second visual prominence that is different from the first visual prominence (e.g., displayed with more/less detail, with a less/less opaque masking/blackening layer that is displayed with more/less detail, greater/less color saturation, greater/less brightness, and/or greater/less contrast). In some embodiments, the first visual appearance is different from the second visual appearance. Displaying an animation that gradually transitions the second region from one state of visual prominence to a second state of visual prominence provides the user with a user interface that reduces visual tearing while reducing the likelihood of distraction where a sudden change in visual prominence may cause a user action (e.g., shaking or moving the device) that interrupts the user's ability to frame and capture media using the camera user interface or increases the time to frame and capture media. By reducing the opacity of the blackening layer superimposed on the second region to reduce visibility, the electronic device can provide an optimized user interface that increases the prominence of the second region when it is determined that the field of view of one or more cameras of the electronic device is not likely to cause visual tearing when rendered on the camera user interface of the electronic device, allowing the user to see more of the field of view of the one or more cameras when taking an image to provide additional contextual information that enables the user to quickly frame and capture media using the camera user interface. Providing improved visual feedback to the user improves usability of the device and makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1の部分は、第1の視覚外観とは異なる第3の視覚外観で表示される(例えば、より大きな/より小さな詳細、色彩度、輝度、及び/又はコントラストで表示される、より少ない/より多くのマスキング/黒化層とともに表示される)。いくつかの実施形態では、第1の部分が第3の視覚外観で表示され、かつ1つ以上のカメラの視野の第2の部分が第1の視覚外観で表示されている間に、電子デバイスは、メディアをキャプチャする要求(例えば、2950h)を受信する。いくつかの実施形態では、第2の部分は、ブラックアウトしており、領域は、ブラックアウトしていない。いくつかの実施形態では、メディアをキャプチャする要求を受信したことに応じて、電子デバイスは、1つ以上のカメラの視野に対応するメディアをキャプチャし、メディアが、1つ以上のカメラの視野の第1の部分からのコンテンツ及び1つ以上のカメラの視野の第2の部分からのコンテンツを含む。いくつかの実施形態では、1つ以上のカメラの視野に対応するメディアをキャプチャした後に、電子デバイスは、1つ以上のカメラの視野の第1の部分からのコンテンツ及び1つ以上のカメラの視野の第2の部分からのコンテンツを含む、メディアの表現(例えば、図26Pの2930)を表示する。いくつかの実施形態では、メディアの表現は、第1の視覚外観を有さない。 In some embodiments, the first portion is displayed in a third visual appearance different from the first visual appearance (e.g., displayed with less/more masking/blackening layers, displayed with greater/less detail, color saturation, brightness, and/or contrast). In some embodiments, while the first portion is displayed in the third visual appearance and the second portion of the field of view of the one or more cameras is displayed in the first visual appearance, the electronic device receives a request to capture media (e.g., 2950h). In some embodiments, the second portion is blacked out and the area is not blacked out. In some embodiments, in response to receiving the request to capture media, the electronic device captures media corresponding to the one or more cameras' field of view, the media including content from the first portion of the field of view of the one or more cameras and content from the second portion of the field of view of the one or more cameras. In some embodiments, after capturing the media corresponding to the one or more cameras' field of view, the electronic device displays a representation of the media (e.g., 2930 of FIG. 26P) including content from the first portion of the field of view of the one or more cameras and content from the second portion of the field of view of the one or more cameras. In some embodiments, the representation of the media does not have the first visual appearance.

いくつかの実施形態では、第2の領域の少なくとも第1の部分(例えば、602)は、第1の領域の上である(例えば、デバイスのカメラにより近い、デバイスの上部により近い)。いくつかの実施形態では、第2の領域の少なくとも第2の部分(例えば、606)は、第2の領域の下である(例えば、デバイスのカメラから更に離れる、デバイスの底部により近い)。 In some embodiments, at least a first portion of the second region (e.g., 602) is above the first region (e.g., closer to the device's camera, closer to the top of the device). In some embodiments, at least a second portion of the second region (e.g., 606) is below the second region (e.g., further away from the device's camera, closer to the bottom of the device).

いくつかの実施形態では、電子デバイスは、カメラユーザインタフェース上の位置での入力を受信する。いくつかの実施形態では、カメラユーザインタフェース上の位置で入力を受信したことに応じて、電子デバイスは、入力(例えば、2950j)の位置が第1の領域(例えば、604)内にあるとの判定に従って、入力(例えば、2936c)の位置に、焦点を合わせるように電子デバイスを構成し(及び任意選択的に、露出又はホワイトバランスなどの1つ以上の他のカメラ設定を、1つ以上のカメラの視野の特性に基づいて設定し)、電子デバイスは、入力(例えば、2950hi)の位置が第2の領域(例えば、602)内にあるとの判定に従って、入力の位置に、焦点を合わせるように電子デバイスを構成することをやめる(及び任意選択的に、露出又はホワイトバランスなどの1つ以上の他のカメラ設定を、1つ以上のカメラの視野の特性に基づいて設定することをやめる)。 In some embodiments, the electronic device receives an input at a location on the camera user interface. In some embodiments, in response to receiving the input at a location on the camera user interface, the electronic device configures the electronic device to focus on the location of the input (e.g., 2936c) in accordance with a determination that the location of the input (e.g., 2950j) is within a first region (e.g., 604) (and optionally sets one or more other camera settings, such as exposure or white balance, based on the characteristics of the field of view of the one or more cameras), and the electronic device ceases to configure the electronic device to focus on the location of the input in accordance with a determination that the location of the input (e.g., 2950hi) is within a second region (e.g., 602) (and optionally ceases to set one or more other camera settings, such as exposure or white balance, based on the characteristics of the field of view of the one or more cameras).

いくつかの実施形態では、第1の視覚外観で表示されるとき、第2の領域(例えば、602)は、第1の領域(例えば、604)と視覚的に区別される(例えば、第2の領域内の1つ以上のカメラの視野に対応するコンテンツは、退色され、かつ/又は半透明オーバーレイとともに表示され、第1の領域内の1つ以上のカメラの視野に対応するコンテンツは、退色されず、かつ/又は半透明オーバーレイとともに表示されない)。第1の領域とは視覚的に異なる第2の領域を表示することにより、メディアを表示するためにキャプチャ及び使用されるメインコンテンツ及びメディアを表示するためにキャプチャされ得る追加のコンテンツであるコンテンツについてのフィードをユーザに提供し、ユーザが、メディアをキャプチャするときに、異なる領域内/外に物を維持するために、メディアをフレーム化できるようにする。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, when displayed in the first visual appearance, the second region (e.g., 602) is visually distinct from the first region (e.g., 604) (e.g., content corresponding to the field of view of one or more cameras in the second region is faded and/or displayed with a semi-transparent overlay, and content corresponding to the field of view of one or more cameras in the first region is not faded and/or displayed with a semi-transparent overlay). Displaying the second region visually distinct from the first region provides the user with a feed of content that is the main content that is captured and used to display the media and additional content that may be captured to display the media, and allows the user to frame the media to keep things in/out of the different regions when capturing the media. Providing the user with improved visual feedback improves device usability and makes the user-device interface more efficient (e.g., by helping the user make appropriate inputs and reducing user errors when operating/interacting with the device), which further reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、1組の第1のそれぞれの基準は、第1のそれぞれのオブジェクトが1つ以上のカメラの視野内で識別された最も近いオブジェクトであるときに満たされる基準を更に含む。いくつかの実施形態では、1組の第1のそれぞれの基準は、第1のそれぞれのオブジェクトが1つ以上のカメラの視野内の焦点の位置にあるときに満たされる基準を更に含む。 In some embodiments, the first set of respective criteria further includes a criterion that is met when the first respective object is the closest object identified in the field of view of one or more cameras. In some embodiments, the first set of respective criteria further includes a criterion that is met when the first respective object is in a focal position in the field of view of one or more cameras.

いくつかの実施形態では、第1の領域は、境界部(例えば、608)によって第2の領域から分離される。いくつかの実施形態では、1組の第1のそれぞれの基準は、視覚的引裂きが検出されたときに満たされる基準を更に含む(例えば、図26H)(例えば、境界部に隣接する(例えば、隣の、上の)スクリーン引裂き(例えば、第1の領域内に表示された表現が第2の領域内に表示された表現と視覚的に同期していない(例えば、視覚アーチファクトの)外観(例えば、単一のオブジェクトが第1の表現を横切って表示され、かつ第2の表現が変更されて見えるように(例えば、第1の表現に表示されたオブジェクトの一部が、第2の表現に表示されたオブジェクトの一部と並んで見えるように)、第2の表現が方向(例えば、右又は左)にシフトするように見える)が視覚的引裂きの閾値レベルを上回る)。 In some embodiments, the first region is separated from the second region by a border (e.g., 608). In some embodiments, the first set of respective criteria further includes criteria that are met when a visual tear is detected (e.g., FIG. 26H) (e.g., a screen tear adjacent to (e.g., next to, on) the border (e.g., the appearance (e.g., visual artifact) of the representation displayed in the first region being visually out of sync with the representation displayed in the second region (e.g., a single object is displayed across the first representation and the second representation appears to shift in a direction (e.g., right or left) such that the second representation appears altered (e.g., a portion of the object displayed in the first representation appears aligned with a portion of the object displayed in the second representation)) exceeds a threshold level for visual tear).

いくつかの実施形態では、1組の第1のそれぞれの基準は、1つ以上のカメラの視野の第1の部分が第1のカメラの視野の一部分であるときに満たされる基準を更に含み。いくつかの実施形態では、1組の第2のそれぞれの基準は、1つ以上のカメラの視野の第2の部分が第1のカメラとは異なる第2のカメラの視野の一部分であるときに満たされる基準を更に含む(例えば、図31A~図31I、及び図32A~図32Cて記載された方法3200に関連して後述するように)。いくつかの実施形態では、第1のカメラは、第2のタイプの第2のカメラ(例えば、異なる幅の異なるレンズを有するカメラ(例えば、超広角、広角、望遠写真カメラ)とは異なる第1のタイプのカメラ(例えば、異なる幅の異なるレンズを有するカメラ(例えば、超広角、広角、望遠写真カメラ))である。 In some embodiments, the first set of respective criteria further includes a criterion that is met when the first portion of the field of view of the one or more cameras is a portion of the field of view of the first camera. In some embodiments, the second set of respective criteria further includes a criterion that is met when the second portion of the field of view of the one or more cameras is a portion of the field of view of a second camera different from the first camera (e.g., as described below in connection with method 3200 described in Figures 31A-31I and 32A-32C). In some embodiments, the first camera is a camera of a first type (e.g., a camera with different lenses of different widths (e.g., ultra-wide, wide, telephoto cameras)) that is different from the second camera of a second type (e.g., a camera with different lenses of different widths (e.g., ultra-wide, wide, telephoto cameras).

いくつかの実施形態では、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示している間に、電子は、メディアをキャプチャする要求を受信する。いくつかの実施形態では、メディアをキャプチャする要求を受信したことに応じて、電子デバイスは、1つ以上のカメラの視野に対応するメディアを受信するし、メディアが、1つ以上のカメラの視野の第1の部分からのコンテンツ及び1つ以上のカメラの視野の第2の部分からのコンテンツを含む。いくつかの実施形態では、メディアをキャプチャした後に、電子デバイスは、キャプチャされたメディアを編集する要求(例えば、2950o)を受信する。いくつかの実施形態では、キャプチャされたメディアを編集する要求を受信したことに応じて、電子デバイスは、1つ以上のカメラの視野の第1の部分からのコンテンツの少なくとも一部及び1つ以上のカメラの視野の第2の部分からのコンテンツの少なくとも一部を含む、キャプチャされたメディアの表現(例えば、図26Pの2930)を表示する。いくつかの実施形態では、部分からのコンテンツ及び第2の部分からのコンテンツを含むメディアアイテムの表現は、メディアの表現の補正されたバージョン(例えば、安定化、水平補正、垂直視点補正、水平視点補正)である。いくつかの実施形態では、部分からのコンテンツ及び第2の部分からのコンテンツを含むメディアアイテムの表現は、第1及び第2のコンテンツの組み合わせを含み、第1の部分からのコンテンツの少なくとも一部の表現及び第2の部分からのコンテンツの少なくとも一部の表現を表示することを含む。いくつかの実施形態では、表現は、第2の部分(又は第1の部分)のコンテンツの少なくともいくつかの表現を表示することを含まず、メディアアイテムの表現は、第2の部分のコンテンツの少なくとも一部を表示することなく、第2の部分からのコンテンツの少なくとも一部を使用して生成される。 In some embodiments, while displaying the second portion of the field of view of the one or more cameras in a first visual appearance, the electronic device receives a request to capture media. In some embodiments, in response to receiving the request to capture media, the electronic device receives media corresponding to the field of view of the one or more cameras, the media including content from the first portion of the field of view of the one or more cameras and content from the second portion of the field of view of the one or more cameras. In some embodiments, after capturing the media, the electronic device receives a request to edit the captured media (e.g., 2950o). In some embodiments, in response to receiving the request to edit the captured media, the electronic device displays a representation of the captured media (e.g., 2930 of FIG. 26P) including at least a portion of the content from the first portion of the field of view of the one or more cameras and at least a portion of the content from the second portion of the field of view of the one or more cameras. In some embodiments, the representation of the media item including the content from the portion and the content from the second portion is a corrected version (e.g., stabilized, horizontally corrected, vertically perspective corrected, horizontally perspective corrected) of the representation of the media. In some embodiments, the representation of the media item including content from the first portion and content from the second portion includes a combination of the first and second content and includes displaying a representation of at least some of the content from the first portion and a representation of at least some of the content from the second portion. In some embodiments, the representation does not include displaying a representation of at least some of the content of the second portion (or the first portion), and the representation of the media item is generated using at least some of the content from the second portion without displaying at least some of the content of the second portion.

方法3000に関して上述された処理(例えば、図30A~図30C)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2500、2700、2800、3200、3400、3600、3800、4000、及び4200は、方法3000を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法3200は、任意選択的に、方法3000に関連して上述した様々な技術を使用して、カメラユーザインタフェースの様々な領域の視覚プロミネンスを変更することを採用する。簡潔にするために、これらの詳細は、以下で繰り返さない。 It should be noted that the details of the processes (e.g., FIGS. 30A-30C) described above with respect to method 3000 are also applicable in a similar manner to the methods described above. For example, methods 700, 900, 1100, 1300, 1500, 1700, 1900, 2100, 2300, 2500, 2700, 2800, 3200, 3400, 3600, 3800, 4000, and 4200 optionally include one or more of the characteristics of the various methods described above with reference to method 3000. For example, method 3200 optionally employs modifying the visual prominence of various regions of the camera user interface using the various techniques described above in connection with method 3000. For the sake of brevity, these details will not be repeated below.

図31A~図31Iは、いくつかの実施形態による、電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図32A~図32Cにおける処理を含む、以下で説明する処理を例示するために使用される。いくつかの実施形態では、図29A~図29P及び図30A~図30Cで論じられた1つ以上の技術を、以下で論じられた図31A~図31I及び図32A~図32Cの1つ以上の技術と任意選択的に組み合わせてもよい。 31A-31I show example user interfaces for displaying a camera user interface at various zoom levels using different cameras of an electronic device, according to some embodiments. The user interfaces in these figures are used to illustrate the processes described below, including the processes in FIGS. 32A-32C. In some embodiments, one or more of the techniques discussed in FIGS. 29A-29P and 30A-30C may be optionally combined with one or more of the techniques of FIGS. 31A-31I and 32A-32C discussed below.

図31Aは、前側3106aと裏側3106bとを含む電子デバイス600を示す。タッチ感知ディスプレイは、デバイス600の前側3106aに配置され、カメラユーザインタフェースを表示するのに使用される。カメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含み、これらは、インジケータ及びコントロールがライブプレビュー630と同時に表示され得るように、ライブプレビュー630上に重ね合わされる。カメラディスプレイ領域604は、インジケータ又はコントロールと実質的に重ね合わされない。この実施例では、ライブプレビュー630は、周囲環境内の人の肩に乗っている犬を含む。図31Aのカメラユーザインタフェースはまた、インジケータ領域602とカメラディスプレイ領域604との境界部及びカメラディスプレイ領域604とコントロール領域606との境界部を示す視覚境界部608を含む。 31A shows an electronic device 600 including a front side 3106a and a back side 3106b. A touch-sensitive display is disposed on the front side 3106a of the device 600 and is used to display a camera user interface. The camera user interface includes an indicator area 602 and a control area 606 that are overlaid on the live preview 630 such that the indicators and controls may be displayed simultaneously with the live preview 630. The camera display area 604 is not substantially overlaid with the indicators or controls. In this example, the live preview 630 includes a dog on the shoulder of a person in the surrounding environment. The camera user interface of FIG. 31A also includes a visual boundary 608 that indicates the boundary between the indicator area 602 and the camera display area 604 and the boundary between the camera display area 604 and the control area 606.

図31Aに示すように、インジケータ領域602は、ライブプレビュー630上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。インジケータ領域602は、フラッシュインジケータ602aを含む。フラッシュインジケータ602aは、フラッシュが自動モード、オン、オフ、又は別のモード(例えば、赤目低減モード)であるかどうかを示す。 31A, indicator area 602 is superimposed on live preview 630 and optionally includes a colored (e.g., gray, semi-transparent) overlay. Indicator area 602 includes a flash indicator 602a. Flash indicator 602a indicates whether the flash is in auto mode, on, off, or another mode (e.g., red-eye reduction mode).

図31Aに示すように、カメラディスプレイ領域604は、ライブプレビュー630及びズームアフォーダンス2622を含み、ズームアフォーダンス2622は、0.5×ズームアフォーダンス2622a、1×ズームアフォーダンス2622b、及び2×ズームアフォーダンス2622cを含む。この実施例では、0.5×ズームアフォーダンス2622aが選択され、これは、0.5×ズームレベルでライブプレビュー630が表されることを示す。 31A, the camera display area 604 includes a live preview 630 and a zoom affordance 2622, which includes a 0.5x zoom affordance 2622a, a 1x zoom affordance 2622b, and a 2x zoom affordance 2622c. In this example, the 0.5x zoom affordance 2622a is selected, indicating that the live preview 630 is presented at a 0.5x zoom level.

図31Aに示すように、コントロール領域606は、ライブプレビュー630上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。コントロール領域606は、カメラモードアフォーダンス620、メディアコレクション624の一部分、シャッターアフォーダンス610、及びカメラスイッチャアフォーダンス612を含む。カメラモードアフォーダンス620は、どのカメラモードが現在選択されているかを示し、ユーザがカメラモードを変更することを可能にする。 As shown in FIG. 31A, control area 606 is superimposed on live preview 630 and optionally includes a colored (e.g., gray, semi-transparent) overlay. Control area 606 includes camera mode affordance 620, a portion of media collection 624, shutter affordance 610, and camera switcher affordance 612. Camera mode affordance 620 indicates which camera mode is currently selected and allows the user to change camera modes.

図31Aに示すように、ライブプレビュー630は、ディスプレイの上部からディスプレイの底部まで延びる。ライブプレビュー630は、1つ以上のカメラ(例えば、又はカメラセンサ)によって検出されたコンテンツの表現である。いくつかの実施形態では(例えば、特定の条件下では)、デバイス600は、異なる1組の1つ以上のカメラを使用して、異なるズームレベルでライブプレビュー630を表示する。いくつかの実施形態では、あるズームレベルでは、デバイス600は、カメラディスプレイ領域604に表示されるライブプレビュー630の一部分を表示するための第1のカメラ、並びにインジケータ領域602及びコントロール領域606内に表示されるライブプレビュー630の一部分を表示するための第2のカメラ(例えば、第1のカメラよりも広い視野(FOV)を有するカメラ)からのコンテンツを使用する。いくつかの実施形態では、デバイス600は、1つだけのカメラからのコンテンツを使用して、ライブプレビュー630の全体を表示する。いくつかの実施形態では、ライブプレビュー630は、デバイス600の上部及び/又は底部まで延びない。 As shown in FIG. 31A, the live preview 630 extends from the top of the display to the bottom of the display. The live preview 630 is a representation of the content detected by one or more cameras (e.g., or camera sensors). In some embodiments (e.g., under certain conditions), the device 600 uses a different set of one or more cameras to display the live preview 630 at different zoom levels. In some embodiments, at one zoom level, the device 600 uses content from a first camera to display the portion of the live preview 630 displayed in the camera display area 604 and a second camera (e.g., a camera having a wider field of view (FOV) than the first camera) to display the portion of the live preview 630 displayed in the indicator area 602 and the control area 606. In some embodiments, the device 600 uses content from only one camera to display the entire live preview 630. In some embodiments, the live preview 630 does not extend to the top and/or bottom of the device 600.

特定のズームレベルでライブプレビュー630の表示に寄与する例示的な1組のカメラに関する理解を改善するために、図26A~図26Sは、デバイス600の裏側3106bの例示的な表現を含む。デバイス600の裏側3106bは、カメラ3180を含む。カメラ3180の各FOVは、異なる幅(例えば、FOV内に包含される角度の異なる幅)を有し、これは、カメラセンサとレンズとの異なる組み合わせを有する各カメラ3180に起因する。カメラ3180は、超広角カメラ3180a、広角カメラ3180b、及び望遠写真カメラ3180cを含み、これは、最も広いFOVから最も狭いFOVを有する裏側3106bに示される。更には、特定のズームレベルでライブプレビュー630の表示に寄与する例示的な1組のカメラに関する理解を改善するために、FOVボックス3182aはまた、デバイス600の前側3106aを包含するように示される。ライブプレビュー630に関するFOVボックス3182aは、カメラディスプレイ領域604(例えば、図31Aの超広角カメラ3180a)内に表示されるライブプレビュー630の一部分を表示するために、デバイス600を使用している、カメラのFOVの一部分を表す。FOVボックス3182aは、縮尺どおりに表示されない。図31Aにおいて、FOVボックス3182aは、超広角カメラ3180aのFOVがカメラディスプレイ領域604、インジケータ領域602、及びコントロール領域606を含む、ライブプレビュー630全体のコンテンツを提供するのに十分である(例えば、十分に広い)ことを示す。対照的に、以下でより詳細に論じられる図31Cにおいて、広角カメラ3180bは、カメラディスプレイ領域604のコンテンツを提供するために使用されているが、広角カメラ3180bのFOVは、FOVボックス3182bによって示されるように、インジケータ領域602及びコントロール領域606全体のコンテンツを提供するのに十分ではない。 26A-26S include an exemplary representation of the back side 3106b of the device 600 to improve understanding of an exemplary set of cameras that contribute to the display of the live preview 630 at a particular zoom level. The back side 3106b of the device 600 includes cameras 3180. Each FOV of the cameras 3180 has a different width (e.g., a different width of the angle encompassed within the FOV), which is due to each camera 3180 having a different combination of camera sensors and lenses. The cameras 3180 include an ultra-wide camera 3180a, a wide-angle camera 3180b, and a telephoto camera 3180c, which are shown on the back side 3106b from the widest FOV to the narrowest FOV. Furthermore, to improve understanding of an exemplary set of cameras that contribute to the display of the live preview 630 at a particular zoom level, an FOV box 3182a is also shown encompassing the front side 3106a of the device 600. The FOV box 3182a for the live preview 630 represents a portion of the FOV of a camera that is being used by the device 600 to display the portion of the live preview 630 that is displayed within the camera display area 604 (e.g., the ultra-wide camera 3180a in FIG. 31A). The FOV box 3182a is not drawn to scale. In FIG. 31A, the FOV box 3182a indicates that the FOV of the ultra-wide camera 3180a is sufficient (e.g., wide enough) to provide the content of the entire live preview 630, including the camera display area 604, the indicator area 602, and the control area 606. In contrast, in FIG. 31C, which is discussed in more detail below, the wide-angle camera 3180b is being used to provide the content of the camera display area 604, but the FOV of the wide-angle camera 3180b is not sufficient to provide the content of the entire indicator area 602 and the control area 606, as indicated by the FOV box 3182b.

上述のように、デバイス600は、図31Aにおいて0.5×ズームレベルでライブプレビュー630を表示している。0.5×ズームレベルが第1のズーム値範囲内(例えば、1×ズームレベル未満)であるため、デバイス600は、領域602、604、及び606内のライブプレビュー630の一部分を表示するように、超広角カメラ3180aのみを使用する。図31Aに示すように、FOVボックス3182aは、超広角カメラ3180aのFOVである。更には、FOVボックス3182aは、ライブプレビュー630を包含し、これは、超広角カメラ3180aのFOVが、ライブプレビュー630全体(例えば、領域602、604、及び606内のライブプレビュー630の一部分を含む)を表示するように、超広角カメラ3180aを使用するのに、デバイス600に対して十分に大きい(例えば、十分に広い)ことを示す。ここで、広角カメラ3180aのFOVがライブプレビュー630全体(及び/又は第1のズーム値範囲にある0.5×ズームレベル)を提供するのに十分に大きいため、デバイス600は、領域602、604、及び606内のライブプレビュー630の一部分を提供するように、超広角カメラ3180aのみを使用する。図31Aでは、デバイス600は、カメラディスプレイ領域604に対応する位置でのデピンチジェスチャ3150aを検出する。 As described above, device 600 is displaying live preview 630 at a 0.5x zoom level in FIG. 31A. Because the 0.5x zoom level is within a first zoom value range (e.g., less than a 1x zoom level), device 600 uses only ultra-wide camera 3180a to display a portion of live preview 630 in regions 602, 604, and 606. As shown in FIG. 31A, FOV box 3182a is the FOV of ultra-wide camera 3180a. Moreover, FOV box 3182a encompasses live preview 630, indicating that the FOV of ultra-wide camera 3180a is large enough (e.g., wide enough) for device 600 to use ultra-wide camera 3180a to display the entire live preview 630 (e.g., including a portion of live preview 630 in regions 602, 604, and 606). Here, because the FOV of the wide-angle camera 3180a is large enough to provide the entire live preview 630 (and/or the 0.5x zoom level in the first zoom value range), the device 600 uses only the ultra-wide-angle camera 3180a to provide a portion of the live preview 630 in regions 602, 604, and 606. In FIG. 31A, the device 600 detects a de-pinch gesture 3150a at a location corresponding to the camera display region 604.

図31Bに示すように、デピンチジェスチャ3150aを検出したことに応じて、デバイス600は、ライブプレビュー630にズームインし、ライブプレビュー630のズームレベルを0.5×ズームレベルから0.9×ズームレベルまで変更する(例えば、新たに選択されかつ表示された0.9×ズームアフォーダンス2622dによって示すように)。0.9×ズームレベルが第1のズーム値範囲内(例えば、0.99ズームレベル未満)であるため、デバイス600は、領域602、604、及び606内のライブプレビュー630の一部分を表示するように、超広角カメラ3180aのみを使用し続ける。ライブプレビュー630内でズームするとき、デバイス600は、ライブプレビュー630を表示するのに、図31Aで使用されるよりも少ない超広角カメラ3180aのFOVのパーセンテージを使用し、これは、ライブプレビュー630に対してサイズが増加するFOVボックス3182aによって表される(例えば、ライブプレビュー630は、FOVボックス3182のより大きな部分を占有する)。超広角カメラ3180aのFOVのより少ないパーセンテージを使用することによって、デバイス600は、図31Aに適用されたデジタルズーよりも高いデジタルズームを超広角カメラ3180aのFOVに適用している。したがって、いくつかの実施形態では、図31Bのライブプレビュー630は、図31Aのライブプレビュー630よりも画像歪みが大きい。ライブプレビュー630内でのズームに加えて、デバイス600はまた、デピンチジェスチャ3150aを検出したことに応じて、0.5×ズームアフォーダンス2622aの表示を、0.9×ズームアフォーダンス2622dの表示に置き換える。ここで、デバイス600は、.9×ズームレベルがズームアフォーダンスを置き換えるための閾値ズームレベル(例えば、1×)を下回るため、0.5×ズームアフォーダンス2622aを、0.9×ズームアフォーダンス2622dに置き換える。図31Bに示すように、デピンチジェスチャ3150aを検出したことに応じて、デバイス600は、更に、選択されているものとして0.5×ズームアフォーダンス2622aを表示することを停止し、かつ選択されているものとして0.9×ズームアフォーダンス2622dを表示して、ライブプレビュー630が0.9×ズームレベルで表示されることを示す。図31Bでは、デバイス600は、カメラディスプレイ領域604に対応する位置でのデピンチジェスチャ3150bを検出する。 31B, in response to detecting the de-pinch gesture 3150a, the device 600 zooms in on the live preview 630 and changes the zoom level of the live preview 630 from the 0.5× zoom level to the 0.9× zoom level (e.g., as indicated by the newly selected and displayed 0.9× zoom affordance 2622d). Because the 0.9× zoom level is within the first zoom value range (e.g., less than the 0.99 zoom level), the device 600 continues to use only the ultra-wide camera 3180a to display portions of the live preview 630 within regions 602, 604, and 606. When zooming within live preview 630, device 600 uses a smaller percentage of the FOV of ultra wide camera 3180a to display live preview 630 than is used in FIG. 31A , which is represented by an FOV box 3182a that increases in size relative to live preview 630 (e.g., live preview 630 occupies a larger portion of FOV box 3182a). By using a smaller percentage of the FOV of ultra wide camera 3180a, device 600 is applying a higher digital zoom to the FOV of ultra wide camera 3180a than the digital zoom applied in FIG. 31A . Thus, in some embodiments, live preview 630 in FIG. 31B has more image distortion than live preview 630 in FIG. 31A . In addition to zooming within the live preview 630, the device 600 also replaces the display of the 0.5x zoom affordance 2622a with a display of a 0.9x zoom affordance 2622d in response to detecting the de-pinch gesture 3150a. Here, the device 600 replaces the 0.5x zoom affordance 2622a with the 0.9x zoom affordance 2622d because the .9x zoom level is below the threshold zoom level (e.g., 1x) for replacing the zoom affordance. As shown in FIG. 31B , in response to detecting the de-pinch gesture 3150a, the device 600 further ceases displaying the 0.5x zoom affordance 2622a as selected and displays the 0.9x zoom affordance 2622d as selected to indicate that the live preview 630 is displayed at the 0.9x zoom level. In FIG. 31B, the device 600 detects a de-pinch gesture 3150b at a location corresponding to the camera display area 604.

図31Cに示すように、デピンチジェスチャ3150bを検出したことに応じて、デバイス600は、ライブプレビュー630にズームインし、ライブプレビュー630のズームレベルを0.9×ズームレベルから1×ズームレベルまで変更する(例えば、新たに選択されかつ再表示された1×ズームアフォーダンス2622bによって示すように)。1×ズームレベルが第2のズーム値範囲内(例えば、1×ズームレベルと1.89ズームレベルとの間)であるため、デバイス600は、他の領域(例えば、領域602及び606)内にライブプレビュー630の一部分を表示するように、超広角カメラ3180aのFOVの使用を維持している間に、カメラディスプレイ領域604内に表示されたライブプレビュー630の一部分を表示するように、カメラ広角カメラ3180bのFOVを使用するように切り替える。いくつかの実施形態では、デバイス600は、カメラディスプレイ領域604内のライブプレビュー630の一部分の画像歪みを低減するように、広角カメラ3180bを使用するように切り替える。換言すれば、デバイス600が超広角カメラ3180aを使用してライブプレビュー630全体を表示することができるものの、デバイス600は、デバイス600がまた、より狭いFOVのカメラを使用して歪みがより少なく及び/又は忠実度が増加したライブプレビュー630のカメラディスプレイ領域604を表示する(例えば、より高い光学ズームレベルを有するため、より狭いFOVを有するカメラは、歪みがより少なく及び/又は忠実度が増加した画像を生成することができる)ように、より狭い視野を有するカメラ(例えば、広角カメラ3180b)を使用するように切り替える。図31Cにおいて、デバイス600がライブプレビュー630の一部分を表示するように、広角カメラ3180bを使用するように切り替えたため、FOVボックス3182bは、広角カメラ3180bのFOVを表すように示される。 31C, in response to detecting the de-pinch gesture 3150b, the device 600 zooms in on the live preview 630 and changes the zoom level of the live preview 630 from the 0.9x zoom level to the 1x zoom level (e.g., as indicated by the newly selected and redisplayed 1x zoom affordance 2622b). Because the 1x zoom level is within the second zoom value range (e.g., between the 1x zoom level and the 1.89 zoom level), the device 600 switches to using the FOV of the camera wide-angle camera 3180b to display the portion of the live preview 630 displayed in the camera display area 604, while maintaining the use of the FOV of the ultra-wide-angle camera 3180a to display the portion of the live preview 630 in the other areas (e.g., areas 602 and 606). In some embodiments, the device 600 switches to using the wide-angle camera 3180b to reduce image distortion of the portion of the live preview 630 in the camera display area 604. In other words, while device 600 may use ultra-wide camera 3180a to display the entire live preview 630, device 600 may switch to using a camera with a narrower field of view (e.g., wide-angle camera 3180b) so that device 600 may also use a camera with a narrower FOV to display the camera display area 604 of live preview 630 with less distortion and/or increased fidelity (e.g., a camera with a narrower FOV may produce an image with less distortion and/or increased fidelity because it has a higher optical zoom level). In FIG. 31C, FOV box 3182b is shown to represent the FOV of wide-angle camera 3180b because device 600 has switched to using wide-angle camera 3180b to display a portion of live preview 630.

図31Cに示すように、デバイス600が2つのカメラ(例えば、デバイス600上のそれらの異なる位置による視差を導入する)を使用して、ライブプレビュー630の全体を表示するので、デバイス600は、視覚境界部608で視覚的引裂きを表示する。図31Bに戻ると、デバイス600は、デバイス600が1つだけのカメラを使用して、ライブプレビュー630の全体を表示したので、視覚境界部608で実質的に視覚的引裂きが表示されなかった。図31Cに示すように、デバイス600は、0.5×ズームアフォーダンス2622aを再表示し、かつ0.9×ズームアフォーダンス2622dを表示することを停止する。デバイス600はまた、1×ズームアフォーダンス2622bを表示し、ここで、1×ズームアフォーダンス2622bが、選択されているものとして表示されて、ライブプレビュー630が1×ズームレベルで表示されることを示す。図31Cでは、デバイス600は、カメラディスプレイ領域604に対応する位置でのデピンチジェスチャ3150cを検出する。 As shown in FIG. 31C, the device 600 displays visual tearing at the visual border 608 because the device 600 uses two cameras (e.g., introducing parallax due to their different positions on the device 600) to display the entire live preview 630. Returning to FIG. 31B, the device 600 displayed substantially no visual tearing at the visual border 608 because the device 600 displayed the entire live preview 630 using only one camera. As shown in FIG. 31C, the device 600 redisplays the 0.5× zoom affordance 2622a and stops displaying the 0.9× zoom affordance 2622d. The device 600 also displays the 1× zoom affordance 2622b, where the 1× zoom affordance 2622b is displayed as selected to indicate that the live preview 630 is displayed at a 1× zoom level. In FIG. 31C, the device 600 detects a de-pinch gesture 3150c at a location corresponding to the camera display area 604.

図31Dに示すように、デピンチジェスチャ3150cを検出したことに応じて、デバイス600は、ライブプレビュー630にズームインし、ライブプレビュー630のズームレベルを1×ズームレベルから1.2×ズームレベルまで変更する(例えば、新たに表示されかつ選択された1.2×ズームアフォーダンス2622eによって示すように)。1.2×ズームレベルが第2のズーム値範囲内(例えば、1×ズームレベルと1.89ズームレベルとの間)であるため、デバイス600は、他の領域(例えば、領域602及び606)内に表示されたライブプレビュー630の一部分を表示するように、カメラディスプレイ領域604及び超広角カメラ3180aのFOV内に表示されたライブプレビュー630の一部分を表示するように、カメラ広角カメラ3180bのFOVを使用し続ける。図31Dにおいて、FOVボックス3182bは、成長していたが、ライブプレビュー630全体を包含しておらず(例えば、図31Aのボックス3182aとは異なり)、これは、広角カメラ3180bのFOVが、ライブプレビュー630全体(例えば、領域602、604、及び606内のライブプレビュー630の一部分を含む)を表示するように、広角カメラ3180bを使用するのに、デバイス600に対して十分に大きくない(例えば、十分に広くない)ことを示す。したがって、デバイス600は、2つのカメラを使用し続けて、ライブプレビュー630の全体を表示する。図31Dに示すように、デバイス600はまた、1×ズームアフォーダンス2622bの表示を、1.2×ズームアフォーダンス2622eの表示に置き換え、ここで、1.2×ズームアフォーダンス2622eが、選択されているものとして表示されて、ライブプレビュー630が1.2×ズームレベルで表示されることを示す。ここで、デバイス600は、1.2×ズームレベルがズームアフォーダンスを置き換えるためのズームレベルの範囲の間(例えば、1×と2×との間などの所定の範囲)にあるため、1×ズームアフォーダンス2622bを置き換える。図31Dでは、デバイス600は、カメラディスプレイ領域604に対応する位置でのデピンチジェスチャ3150dを検出する。 31D, in response to detecting the de-pinch gesture 3150c, the device 600 zooms in on the live preview 630 and changes the zoom level of the live preview 630 from the 1× zoom level to the 1.2× zoom level (e.g., as indicated by the newly displayed and selected 1.2× zoom affordance 2622e). Because the 1.2× zoom level is within the second zoom value range (e.g., between the 1× zoom level and the 1.89 zoom level), the device 600 continues to use the FOV of the camera wide-angle camera 3180b to display portions of the live preview 630 displayed within the camera display area 604 and the FOV of the ultra-wide-angle camera 3180a to display portions of the live preview 630 displayed within other areas (e.g., areas 602 and 606). In FIG. 31D , FOV box 3182b has grown but does not encompass the entire live preview 630 (e.g., unlike box 3182a in FIG. 31A ), indicating that the FOV of wide-angle camera 3180b is not large enough (e.g., not wide enough) for device 600 to use wide-angle camera 3180b to display the entire live preview 630 (e.g., including portions of live preview 630 in regions 602, 604, and 606). Thus, device 600 continues to use two cameras to display the entire live preview 630. As shown in FIG. 31D , device 600 also replaces the display of 1× zoom affordance 2622b with a display of 1.2× zoom affordance 2622e, where 1.2× zoom affordance 2622e is displayed as selected to indicate that live preview 630 will be displayed at the 1.2× zoom level. Here, the device 600 replaces the 1× zoom affordance 2622b because the 1.2× zoom level is between the range of zoom levels for replacing the zoom affordance (e.g., a predetermined range such as between 1× and 2×). In FIG. 31D, the device 600 detects a de-pinch gesture 3150d at a location corresponding to the camera display area 604.

図31Eに示すように、デピンチジェスチャ3150eを検出したことに応じて、デバイス600は、ライブプレビュー630にズームインし、ライブプレビュー630のズームレベルを1.2×ズームレベルから1.9×ズームレベルまで変更する(例えば、新たに表示されかつ選択された1.9×ズームアフォーダンス2622fによって示すように)。1.9×ズームレベルが第3のズーム値範囲内(例えば、1.9×ズームレベルと2×ズームレベルとの間)であるため、デバイス600は、ライブプレビュー630全体(例えば、領域602、604、及び606内のライブプレビュー630)を表示するように、広角カメラ3180bのFOVのみを使用するように切り替える。図31Dに示すように、FOVボックス3182bは、ライブプレビュー630全体を包含するように成長し、これは、広角カメラ3180bのFOVが、ライブプレビュー630全体(例えば、領域602、604、及び606内のライブプレビュー630の一部分を含む)を表示するように、広角カメラ3180bを使用するのに、デバイス600に対して十分に大きい(例えば、十分に広い)ことを現在示す。したがって、デバイス600は、1つだけのカメラを使用して、ライブプレビュー630の全体を表示する。図31Eに示すように、デバイス600はまた、1.2×ズームアフォーダンス2262dの表示を、選択されているものとして1.9×ズームアフォーダンス2622eの表示に置き換える(例えば、ズームアフォーダンスを置き換えるために、1.9×ズームレベルがズームレベルの範囲内(例えば、1×~2×などの所定の範囲内)であるため))。更には、図31Eに示すように、デバイス600は、デバイス600がライブプレビュー630を表示するのに広角カメラ3180bのみを使用しているため、視覚的引裂きが表示されない。図31Eでは、デバイス600は、カメラディスプレイ領域604に対応する位置でのデピンチジェスチャ3150eを検出する。 31E, in response to detecting de-pinch gesture 3150e, device 600 zooms in on live preview 630 and changes the zoom level of live preview 630 from the 1.2× zoom level to the 1.9× zoom level (e.g., as indicated by the newly displayed and selected 1.9× zoom affordance 2622f). Because the 1.9× zoom level is within a third zoom value range (e.g., between the 1.9× zoom level and the 2× zoom level), device 600 switches to using only the FOV of wide-angle camera 3180b to display the entire live preview 630 (e.g., live preview 630 in regions 602, 604, and 606). As shown in FIG. 31D, FOV box 3182b grows to encompass the entire live preview 630, indicating that the FOV of wide-angle camera 3180b is now large enough (e.g., wide enough) for device 600 to use wide-angle camera 3180b to display the entire live preview 630 (e.g., including portions of live preview 630 in regions 602, 604, and 606). Thus, device 600 displays the entire live preview 630 using only one camera. As shown in FIG. 31E, device 600 also replaces the display of 1.2× zoom affordance 2262d with a display of 1.9× zoom affordance 2622e as being selected (e.g., because the 1.9× zoom level is within a range of zoom levels (e.g., a predetermined range such as 1× to 2×) to replace the zoom affordance). Moreover, as shown in FIG. 31E, device 600 does not display visual tearing because device 600 is using only wide-angle camera 3180b to display live preview 630. In FIG. 31E, device 600 detects de-pinch gesture 3150e at a location corresponding to camera display area 604.

図31Fに示すように、デピンチジェスチャ3150eを検出したことに応じて、デバイス600は、ライブプレビュー630にズームインし、ライブプレビュー630のズームレベルを1.9×ズームレベルから2×ズームレベルまで変更する(例えば、選択された2×ズームアフォーダンス2622cによって示すように)。2×ズームレベルが第4のズーム値範囲内(例えば、2×ズームレベルと2.9×ズームレベルとの間)であるため、デバイス600は、他の領域(例えば、領域602及び606)内にライブプレビュー630の一部分を表示するように、広角カメラ3180bのFOVの使用を維持している間に、カメラディスプレイ領域604内に表示されたライブプレビュー630の一部分を表示するように、望遠写真カメラ3180cのFOVを使用するように切り替える。いくつかの実施形態では、図31Cのカメラの切り替え(例えば、超広角カメラ3180aから広角カメラ3180b)について論じたのと同様の理由で、広角カメラ3180bを使用する代わりに、デバイス600は、カメラディスプレイ領域604を表示するように、望遠写真カメラ3180cのFOVを使用する。更には、図31Cと同様に、デバイス600は、デバイス600が2つのカメラを使用して、ライブプレビュー630の全体を表示するため、視覚境界部608に視覚的引裂きを表示する。図31Fに示すように、デバイス600がライブプレビュー630の一部分を表示するように、望遠写真カメラ3180cを使用するように切り替えたため、FOVボックス3182cは、望遠写真カメラ3180cのFOVを表すように示される。図31Fに示すように、デバイス600はまた、1.9×ズームアフォーダンス2622fの表示を、1×ズームアフォーダンス2622bの表示に置き換え、かつ選択されているものとして2×ズームアフォーダンス2622cを表示する。図31Fでは、デバイス600は、カメラディスプレイ領域604に対応する位置でのデピンチジェスチャ3150fを検出する。 As shown in FIG. 31F, in response to detecting de-pinch gesture 3150e, device 600 zooms in on live preview 630 and changes the zoom level of live preview 630 from a 1.9× zoom level to a 2× zoom level (e.g., as indicated by selected 2× zoom affordance 2622c). Because the 2× zoom level is within a fourth zoom value range (e.g., between the 2× and 2.9× zoom levels), device 600 switches to using the FOV of telephoto camera 3180c to display the portion of live preview 630 displayed in camera display area 604, while maintaining use of the FOV of wide-angle camera 3180b to display portions of live preview 630 in other areas (e.g., areas 602 and 606). In some embodiments, for reasons similar to those discussed for switching cameras in FIG. 31C (e.g., from ultra-wide camera 3180a to wide camera 3180b), instead of using wide camera 3180b, device 600 uses the FOV of telephoto camera 3180c to display camera display area 604. Additionally, similar to FIG. 31C, device 600 displays visual tearing at visual border 608 because device 600 uses two cameras to display the entire live preview 630. As shown in FIG. 31F, FOV box 3182c is shown to represent the FOV of telephoto camera 3180c because device 600 has switched to using telephoto camera 3180c to display a portion of live preview 630. As shown in FIG. 31F, the device 600 also replaces the display of the 1.9× zoom affordance 2622f with the display of the 1× zoom affordance 2622b, and displays the 2× zoom affordance 2622c as selected. In FIG. 31F, the device 600 detects a de-pinch gesture 3150f at a location corresponding to the camera display area 604.

図31Gに示すように、デピンチジェスチャ3150fを検出したことに応じて、デバイス600は、ライブプレビュー630にズームインし、ライブプレビュー630のズームレベルを2×ズームレベルから2.2×ズームレベルまで変更する(例えば、選択された2.2×ズームアフォーダンス2622gによって示すように)。2.2×ズームレベルが第4のズーム値範囲内(例えば、2×ズームレベルと2.9×ズームレベルとの間)であるため、デバイス600は、他の領域(例えば、領域602及び606)内に表示されたライブプレビュー630の一部分を表示するように、カメラディスプレイ領域604及び広角カメラ3180bのFOV内に表示されたライブプレビュー630の一部分を表示するように、望遠写真カメラ3180cのFOVを使用し続ける。図31Gにおいて、FOVボックス3182cは、成長していたが、ライブプレビュー630全体を包含しておらず(例えば、図31Aのボックス3182aとは異なり)、これは、望遠写真カメラ3180cのFOVが、ライブプレビュー630全体(例えば、領域602、604、及び606内のライブプレビュー630の一部分を含む)を表示するように、望遠写真カメラ3180cを使用するのに、デバイス600に対して十分に大きくない(例えば、十分に広くない)ことを示す。したがって、デバイス600は、2つのカメラを使用し続けて、ライブプレビュー630の全体を表示する。図31Gに示すように、デバイス600はまた、2×ズームアフォーダンス2622cの表示を、2.2×ズームアフォーダンス2622gの表示に置き換え、ここで、2.2×ズームアフォーダンス2622gが、選択されているものとして表示されて、ライブプレビュー630が2.2×ズームレベルで表示されることを示す。ここで、デバイス600は、2.2×ズームレベルがズームアフォーダンスを置き換えるためのズームレベルを上回る(例えば、2×を上回る)であるため、2×ズームアフォーダンス2622cを置き換える。図31Gでは、デバイス600は、カメラディスプレイ領域604に対応する位置でのデピンチジェスチャ3150gを検出する。 31G, in response to detecting the de-pinch gesture 3150f, the device 600 zooms in on the live preview 630 and changes the zoom level of the live preview 630 from the 2× zoom level to the 2.2× zoom level (e.g., as indicated by the selected 2.2× zoom affordance 2622g). Because the 2.2× zoom level is within the fourth zoom value range (e.g., between the 2× zoom level and the 2.9× zoom level), the device 600 continues to use the FOV of the telephoto camera 3180c to display portions of the live preview 630 displayed within the camera display area 604 and the FOV of the wide-angle camera 3180b to display portions of the live preview 630 displayed within other areas (e.g., areas 602 and 606). In FIG. 31G, FOV box 3182c has grown but does not encompass the entire live preview 630 (e.g., unlike box 3182a in FIG. 31A), indicating that the FOV of telephoto camera 3180c is not large enough (e.g., not wide enough) for device 600 to use telephoto camera 3180c to display the entire live preview 630 (e.g., including portions of live preview 630 in regions 602, 604, and 606). Thus, device 600 continues to use two cameras to display the entire live preview 630. As shown in FIG. 31G, device 600 also replaces the display of 2× zoom affordance 2622c with a display of 2.2× zoom affordance 2622g, where 2.2× zoom affordance 2622g is displayed as selected to indicate that live preview 630 will be displayed at a 2.2× zoom level. Here, device 600 replaces 2x zoom affordance 2622c because the 2.2x zoom level exceeds the zoom level (e.g., exceeds 2x) for replacing the zoom affordance. In FIG. 31G, device 600 detects a de-pinch gesture 3150g at a location corresponding to camera display area 604.

図31Hに示すように、デピンチジェスチャ3150gを検出したことに応じて、デバイス600は、ライブプレビュー630にズームインし、ライブプレビュー630のズームレベルを2.2×ズームレベルから2.9×ズームレベルまで変更する(例えば、新たに表示されかつ選択された2.9×ズームアフォーダンス2622hによって示すように)。2.9×ズームレベルが第5のズーム値範囲内(例えば、2.9×ズームレベル以上)であるため、デバイス600は、ライブプレビュー630全体(例えば、領域602、604、及び606内のライブプレビュー630)を表示するように、望遠写真カメラ3180cのFOVのみを使用して使用するように切り替える。図31Hに示すように、FOVボックス3182cは、ライブプレビュー630全体を包含するように成長し、これは、望遠写真カメラ3180cのFOVが、ライブプレビュー630全体(例えば、領域602、604、及び606内のライブプレビュー630の一部分を含む)を表示するように、望遠写真カメラ3180cを使用するのに、デバイス600に対して十分に大きい(例えば、十分に広い)ことを現在示す。したがって、デバイス600は、1つだけのカメラを使用して、ライブプレビュー630の全体を表示する。図31Hに示すように、デバイス600はまた、2.2×ズームアフォーダンス2262gの表示を、選択されているものとして2.9×ズームアフォーダンス2622hの表示に置き換える。更には、図31Eに示すように、デバイス600は、デバイス600がライブプレビュー630を表示するのに望遠写真カメラ3180cのみを使用しているため、視覚的引裂きが表示されない。図31Hでは、デバイス600は、カメラディスプレイ領域604に対応する位置でのデピンチジェスチャ3150hを検出する。 31H, in response to detecting the de-pinch gesture 3150g, the device 600 zooms in on the live preview 630 and changes the zoom level of the live preview 630 from the 2.2× zoom level to the 2.9× zoom level (e.g., as indicated by the newly displayed and selected 2.9× zoom affordance 2622h). Because the 2.9× zoom level is within the fifth zoom value range (e.g., greater than or equal to the 2.9× zoom level), the device 600 switches to using only the FOV of the telephoto camera 3180c to display the entire live preview 630 (e.g., the live preview 630 in regions 602, 604, and 606). As shown in FIG. 31H, the FOV box 3182c grows to encompass the entire live preview 630, indicating that the FOV of the telephoto camera 3180c is now large enough (e.g., wide enough) for the device 600 to use the telephoto camera 3180c to display the entire live preview 630 (e.g., including the portion of the live preview 630 in regions 602, 604, and 606). Thus, the device 600 displays the entire live preview 630 using only one camera. As shown in FIG. 31H, the device 600 also replaces the display of the 2.2× zoom affordance 2262g with a display of the 2.9× zoom affordance 2622h as selected. Furthermore, as shown in FIG. 31E, the device 600 does not display visual tearing because the device 600 is using only the telephoto camera 3180c to display the live preview 630. In FIG. 31H, the device 600 detects a de-pinch gesture 3150h at a location corresponding to the camera display area 604.

図31Iに示すように、デピンチジェスチャ3150hを検出したことに応じて、デバイス600は、ライブプレビュー630にズームインし、ライブプレビュー630のズームレベルを2.9×ズームレベルから3×ズームレベルまで変更する(例えば、新たに表示されかつ選択された3×ズームアフォーダンス2622iによって示すように)。3×ズームレベルが第5のズーム値範囲内(例えば、2.9×ズームレベル以上)であるため、デバイス600は、ライブプレビュー630全体(例えば、領域602、604、及び606内のライブプレビュー630)を表示するように、望遠写真カメラ3180cのFOVのみを使用し続ける。いくつかの実施形態では、デバイス600は、図31Iで(又はより高いズームレベル(例えば、10×ズームレベル)で)ライブプレビュー630を表示するように、デジタルズームを使用する。更には、図31Iに示すように、デバイス600がライブプレビュー630を表示するのに望遠写真カメラ3180cのみを使用しているため、デバイス600は、視覚的引裂きを表示しない。 As shown in FIG. 31I, in response to detecting the de-pinch gesture 315Oh, the device 600 zooms in on the live preview 630 and changes the zoom level of the live preview 630 from the 2.9x zoom level to the 3x zoom level (e.g., as indicated by the newly displayed and selected 3x zoom affordance 2622i). Because the 3x zoom level is within the fifth zoom value range (e.g., above the 2.9x zoom level), the device 600 continues to use only the FOV of the telephoto camera 3180c to display the entire live preview 630 (e.g., the live preview 630 in regions 602, 604, and 606). In some embodiments, the device 600 uses digital zoom to display the live preview 630 in FIG. 31I (or at a higher zoom level (e.g., a 10x zoom level)). Moreover, as shown in FIG. 31I, because device 600 uses only telephoto camera 3180c to display live preview 630, device 600 does not display visual tearing.

いくつかの実施形態では、ライブプレビュー630のズームインの代わりに、デバイス600は、図31A~図31Iに関連して上述された説明を反転するように、1つ以上のピンチジェスチャによりライブプレビュー630上でズームアウトする。いくつかの実施形態では、図31A~図31Iに加えて、デバイス600は、図29A~図29Uに関連して上述されたように、1つ以上の技術を使用する。例えば、いくつかの実施形態では、デバイス600は、上述したようなものと類似のジェスチャを受信して(例えば、図29A~図29B、図29E~図29F、図29H~図29I、及び図29J~図29K)、カメラディスプレイ領域604に対応する位置に向けられたジェスチャに対応する位置(又はカメラディスプレイ領域604に対応する位置の外側)に、1つ以上のカメラの焦点を合わせる(又は焦点を合わせることをやめる)ことができる。加えて、又はあるいは、いくつかの実施形態では、デバイス600は、上述したようなものと類似の入力を受信して(例えば、図29L~図29P)、シャッターアフォーダンス610上の入力を受信したことに応じて、ライブプレビュー630に表示されなかったコンテンツを使用する(例えば、又は表示する)ことができる。 In some embodiments, instead of zooming in on the live preview 630, the device 600 zooms out on the live preview 630 with one or more pinch gestures, reversing the description described above in connection with FIGS. 31A-31I. In some embodiments, in addition to FIGS. 31A-31I, the device 600 uses one or more techniques as described above in connection with FIGS. 29A-29U. For example, in some embodiments, the device 600 can receive a gesture similar to those described above (e.g., FIGS. 29A-29B, 29E-29F, 29H-29I, and 29J-29K) and focus (or unfocus) one or more cameras at a position corresponding to the gesture directed at a position corresponding to the camera display area 604 (or outside of a position corresponding to the camera display area 604). Additionally or alternatively, in some embodiments, device 600 can receive inputs similar to those described above (e.g., FIGS. 29L-29P) and use (e.g., or display) content that was not displayed in live preview 630 in response to receiving the input on shutter affordance 610.

図32A~図32Cは、いくつかの実施形態による、電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための方法を示すフロー図である。方法3200は、表示デバイス(例えば、タッチ感知ディスプレイ)を備えたデバイス(例えば、100、300、500、600)で実行される。方法3200のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 32A-32C are flow diagrams illustrating a method for displaying a camera user interface at various zoom levels using different cameras of an electronic device, according to some embodiments. Method 3200 is performed on a device (e.g., 100, 300, 500, 600) with a display device (e.g., a touch-sensitive display). Some operations of method 3200 are optionally combined, the order of some operations is optionally changed, and some operations are optionally omitted.

いくつかの実施形態では、電子デバイス(例えば、600)は、コンピュータシステムである。コンピュータシステムは、任意選択的に、ディスプレイ生成構成要素と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the electronic device (e.g., 600) is a computer system. The computer system is optionally in communication (e.g., wired communication, wireless communication) with a display generation component and with one or more input devices. The display generation component is configured to provide visual output, such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. The one or more input devices are configured to receive input, such as a touch-sensitive surface that receives user input. In some embodiments, the one or more input devices are integrated with the computer system. In some embodiments, the one or more input devices are separate from the computer system. Thus, the computer system can transmit data (e.g., image data or video data) via a wired or wireless connection to an integrated or external display generation component to visually generate content (e.g., using a display device) and can receive wired or wireless connection input from one or more input devices.

後述するように、方法3200は、ズームレベルの変更時にカメラユーザインタフェースを表示するための直感的な仕方を提供する。この方法は、カメラユーザインタフェースのズームレベルを変更する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にユーザインタフェースのズームレベルを変更することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, method 3200 provides an intuitive way to display a camera user interface when changing zoom levels. The method reduces the cognitive burden on a user when changing the zoom level of the camera user interface, thereby creating a more efficient human-machine interface. For battery-operated computing devices, enabling a user to change the zoom level of the user interface more quickly and efficiently conserves power and extends the time between battery charges.

電子デバイスは、表示デバイス(例えば、タッチ感知ディスプレイ)、視野を有する第1のカメラ(例えば、広角カメラ)(例えば、3180b)(例えば、電子デバイスの同じ側又は異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど)))、第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)よりも広い視野を有する第2のカメラ(例えば、超広角カメラ)(例えば、3180a)(例えば、電子デバイスの同じ側又は異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど)))を有する。電子デバイスは、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示する(3202)。カメラユーザインタフェースは、第1のズームレベル(例えば、2622a)(例えば、第2のカメラよりも狭い視野を有するカメラ)で第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の第1の部分の表現(例えば、630)を含む、第1の領域(例えば、604)(例えば、カメラディスプレイ領域)と、第1のズームレベル(例えば、2622a)(例えば、第1のカメラよりも広い視野を有するカメラ)で第2のカメラの視野(例えば、超広角カメラ)(例えば、3180a)の第1の部分の表現(例えば、630)を含む、第2の領域(例えば、602及び606)(例えば、カメラコントロール領域)と、を含む。いくつかの実施形態では、第2の領域は、第1の領域と視覚的に区別される(例えば、暗色外観を有する)(例えば、1つ以上のカメラの視野の第2の部分上に半透明オーバーレイを有する)。いくつかの実施形態では、第2の領域は、第1の領域と比較して、暗色外観を有する。いくつかの実施形態では、第2の領域は、カメラユーザインタフェース内の第1の領域の上方及び/又は下方に位置する。 The electronic device has a display device (e.g., a touch-sensitive display), a first camera (e.g., a wide-angle camera) (e.g., 3180b) having a field of view (e.g., one or more cameras (e.g., dual cameras, triple cameras, quad cameras, etc.) on the same or different sides (e.g., front camera, rear camera) of the electronic device), and a second camera (e.g., an ultra-wide-angle camera) (e.g., 3180a) having a field of view wider than the field of view (e.g., wide-angle camera) (e.g., one or more cameras (e.g., dual cameras, triple cameras, quad cameras, etc.) on the same or different sides (e.g., front camera, rear camera) of the electronic device). The electronic device displays (3202) a camera user interface via the display device, the camera user interface including a representation of at least a portion of the field of view of the one or more cameras displayed at a first zoom level. The camera user interface includes a first region (e.g., 604) (e.g., camera display area) that includes a representation (e.g., 630) of a first portion of a field of view of a first camera (e.g., a wide-angle camera) (e.g., 3180b) at a first zoom level (e.g., 2622a) (e.g., a camera having a narrower field of view than the second camera), and a second region (e.g., 602 and 606) (e.g., camera control area) that includes a representation (e.g., 630) of a first portion of a field of view of a second camera (e.g., an ultra-wide-angle camera) (e.g., 3180a) at a first zoom level (e.g., 2622a) (e.g., a camera having a wider field of view than the first camera). In some embodiments, the second region is visually distinct (e.g., has a dark appearance) from the first region (e.g., has a semi-transparent overlay over the second portion of the field of view of one or more cameras). In some embodiments, the second region has a dark appearance compared to the first region. In some embodiments, the second region is located above and/or below the first region in the camera user interface.

表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェース(例えば、第1のズームレベルから第2のズームレベルへ変更する要求)を表示している間に、電子デバイスは、1つ以上のカメラの視野の一部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求(例えば、3150a、3150b)を受信する(3204)。 While displaying via the display device a camera user interface including a representation of at least a portion of the field of view of one or more cameras displayed at a first zoom level (e.g., a request to change from the first zoom level to a second zoom level), the electronic device receives a first request (e.g., 3150a, 3150b) to increase the zoom level of the representation of the portion of the field of view of one or more cameras to a second zoom level (3204).

1つ以上のカメラの視野の一部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求(例えば、第1のユーザインタフェース上でズームインする要求)を受信したことに応じて(3206)、電子デバイスは、第1の領域において、第2のズームレベル(例えば、2622d、2622b)で、第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の第1の部分の少なくともサブセットを除外する第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の第2の部分の表現(例えば、630)を表示し(3208)、第2の領域において、第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第2の部分から除外された第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の部分のサブセットの表現を表示することなく、第2の領域において、第2のズームレベル(例えば、2622d、2622b)で、第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の第2の部分から除外された第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の部分のサブセットと重なり合う第2のカメラの視野(超広角カメラ)(例えば、3180a)の第2の部分の表現(例えば、630)を表示する(3210)(例えば、ユーザインタフェース及び/又は第1のカメラの視野の第1の表現がズームインされるとき、第1のカメラの視野の第1の表現からのカットオフ部分は、第2の領域内に表示されない)。いくつかの実施形態では、除外されるサブセットの量は、第2のズームレベルに依存する。いくつかの実施形態では、第2の表現は、第1の表現と同じである。特定の条件が規定されているときに、電子デバイスの異なるカメラを使用して表現の異なる部分を表示することにより、ユーザは、表現が特定のズーム値範囲内に表示されるとき、電子デバイスの改善された表現を閲覧することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In response to receiving a first request to increase the zoom level of a representation of a portion of the field of view of one or more cameras to a second zoom level (e.g., a request to zoom in on a first user interface) (3206), the electronic device displays (3208) a representation (e.g., 630) of a second portion of the field of view of the first camera (e.g., wide-angle camera) (e.g., 3180b) at the second zoom level (e.g., 2622d, 2622b) in the first region, the representation excluding at least a subset of the first portion of the field of view of the first camera (e.g., wide-angle camera) (e.g., 3180b) in the second region, and displays (3209) a representation (e.g., 630) of a second portion of the field of view of the first camera (e.g., wide-angle camera) (e.g., 3180b) that excludes at least a subset of the first portion of the field of view of the first camera (e.g., wide-angle camera) (e.g., 3180b) in the second region. and displaying (3210) a representation (e.g., 630) of a second portion of a second camera's field of view (e.g., ultra-wide camera) (e.g., 3180a) that overlaps with a subset of a portion of a first camera's field of view (e.g., wide angle camera) (e.g., 3180b) that was excluded from the second portion of the first camera's field of view (e.g., wide angle camera) (e.g., 3180b) at a second zoom level (e.g., 2622d, 2622b) without displaying a representation of the subset of the portion of the first camera's field of view (e.g., wide angle camera) (e.g., 3180b) in the second region (e.g., when the user interface and/or the first representation of the first camera's field of view is zoomed in, a cut-off portion from the first representation of the first camera's field of view is not displayed in the second region). In some embodiments, the amount of the subset that is excluded depends on the second zoom level. In some embodiments, the second representation is the same as the first representation. By displaying different portions of the representation using different cameras of the electronic device when certain conditions are specified, the user can view an improved representation of the electronic device when the representation is displayed within a certain zoom value range. By performing an optimized action when a set of conditions is met without requiring further user input, the device can be more easily operated, the user-device interface can be more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and the device can be more quickly and efficiently used, thereby reducing power usage and improving the device's battery life.

いくつかの実施形態では、第2のカメラの視野(例えば、超広角カメラ)(例えば、3180a)の第1の部分(例えば、604)は、第2のカメラの視野(例えば、超広角カメラ)(例えば、3180a)の第2の部分(例えば、602及び606)とは異なる(例えば、第1の部分及び第2の部分は、第2のカメラの利用可能な視野の異なる部分である)。第1の領域とは視覚的に異なる第2の領域を表示することにより、メディアを表示するためにキャプチャ及び使用されるメインコンテンツ及びメディアを表示するためにキャプチャされ得る追加のコンテンツであるコンテンツについてのフィードをユーザに提供し、ユーザが、メディアをキャプチャするときに、異なる領域内/外に物を維持するために、メディアをフレーム化できるようにする。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, a first portion (e.g., 604) of the field of view (e.g., ultra-wide camera) (e.g., 3180a) of the second camera (e.g., ultra-wide camera) is different from a second portion (e.g., 602 and 606) of the field of view (e.g., ultra-wide camera) (e.g., 3180a) (e.g., the first and second portions are different portions of the available field of view of the second camera). Displaying a second area that is visually different from the first area provides the user with a feed of content that is the main content that is captured and used to display the media and additional content that may be captured to display the media, and allows the user to frame the media to keep things in/out of the different areas when capturing the media. Providing improved visual feedback to the user improves usability of the device and makes the user-device interface more efficient (e.g., by helping the user make appropriate inputs and reducing user errors when operating/interacting with the device), which further reduces the power usage of the device and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1の領域(例えば、604)において、第2のズームレベルで、第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の第2の部分の表現(例えば、図31Dの630)を表示し、かつ第2の領域(例えば、602及び606)において、第2のズームレベルで、第2のカメラの視野(例えば、超広角カメラ)(例えば、3180a)の第2の部分の表現(例えば、図31Dの630)を表示している間に、電子デバイスは、1つ以上のカメラの視野の一部分の表現のズームレベルを第3のズームレベル(例えば、2622f)まで上げる第2の要求(例えば、3150d)(例えば、カメラユーザインタフェース上でズームインする要求)を受信する(3212)。いくつかの実施形態では、1つ以上のカメラの視野の一部分の表現のズームレベルを第3のズームレベルまで上げる第2の要求(例えば、カメラユーザインタフェース上でズームインする要求)を受信したことに応じて、かつ第3のズームレベルが第1のズーム値範囲(例えば、第1のカメラの視野が第1の領域及び第2の領域の両方に存在するのに十分なズーム値範囲)内にあるとの判定に従って(3214)、電子デバイスは、第1の領域(例えば、604)において、第3のズームレベルで、第1のカメラ(例えば、広角カメラ)(例えば、3180b)(例えば、図31Eの3180b)の視野の第3の部分の表現(例えば、図31Eの630)を表示し(3216)、かつ第2の領域(例えば、602及び606)において、第3のズームレベルで、第1のカメラ(例えば、広角カメラ)(例えば、3180b)(例えば、広角カメラ)(例えば、3180b)(例えば、図31Eの3180b)の視野の第4の部分の表現(例えば、図31Eの630)を表示する(3218)。いくつかの実施形態では、あるカメラの視野(例えば、第2のカメラよりも狭い視野を有するカメラ)が、特定のズームレベルで第1及び第2の領域の両方を満たすことができる場合、電子デバイスは、単一のカメラのみを使用して、両方の領域で表現を表示するように切り替える。いくつかの実施形態では、あるカメラが第1及び第2の領域の両方を特定のズームレベルで満たすことができない場合、デバイスは、第1の領域内に表現を表示するあるカメラ及び第2の領域内に表現を表示する別のカメラを使用し続け;例えば、1つ以上のカメラの視野の一部分の表現のズームレベルを第3のズームレベルまで上げる第1の要求(例えば、第1のユーザインタフェース上でズームインする要求)を受信したことに応じて、第3のズームレベルが第1のズーム値範囲を下回るとの判定に従って、電子デバイスは、第1の領域において、第3のズームレベルで、第1のカメラの視野の第1の部分の少なくともサブセットを除外する(いくつかの実施形態では、除外されるサブセットの量は、第3のズームレベルに依存する)第1のカメラの視野の第2の部分の表現を表示し、かつ第2の領域において、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットの表現を表示することなく、第2の領域において、第3のズームレベルで、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットと重なり合う第2のカメラの視野の第2の部分の表現を表示する。いくつかの実施形態では、第3のズームレベルが第1のズーム値範囲内にないとの判定に従って、電子デバイスは、第1の領域内に表現を表示するあるタイプのカメラ(例えば、超広角、広角、望遠写真カメラ)及び第2の領域内に表現を表示するあるタイプのカメラを使用する。いくつかの実施形態では、第3のズームレベルが第1のズーム値範囲内にないとの判定に従って、電子デバイスは、第1の領域において、第3のズームレベルで、第1のカメラの視野の第3の部分の第1のサブセットの表現を表示することと、第2の領域において、第3のズームレベルで、第1のカメラの視野の第1のカメラの視野第4の部分の第3の部分の第2のサブセットの表現を表示することと、をやめる。特定の条件が規定されているときに、あるカメラが表現を表示するように切り替えられることにより、ユーザは、表現が特定のズーム値範囲内に表示されるとき、改善された忠実度及び視覚的引裂きを有する、電子デバイスの改善された表現を閲覧することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, while displaying a representation (e.g., 630 in FIG. 31D) of a second portion of a first camera's field of view (e.g., a wide-angle camera) (e.g., 3180b) at a second zoom level in a first region (e.g., 604) and displaying a representation (e.g., 630 in FIG. 31D) of a second portion of a second camera's field of view (e.g., an ultra-wide-angle camera) (e.g., 3180a) at a second zoom level in a second region (e.g., 602 and 606), the electronic device receives a second request (e.g., 3150d) (e.g., a request to zoom in on a camera user interface) to increase the zoom level of the representation of the portion of the field of view of one or more cameras to a third zoom level (e.g., 2622f) (3212). In some embodiments, in response to receiving a second request to increase the zoom level of a representation of a portion of the field of view of one or more cameras to a third zoom level (e.g., a request to zoom in on a camera user interface) and in accordance with a determination that the third zoom level is within the first zoom value range (e.g., a zoom value range sufficient such that the field of view of the first camera is in both the first region and the second region) (3214), the electronic device may display a second request to increase the zoom level of a representation of a portion of the field of view of one or more cameras to a third zoom level in the first region (e.g., 604). , display (3216) a representation (e.g., 630 in FIG. 31E ) of a third portion of the field of view of the first camera (e.g., wide-angle camera) (e.g., 3180b) (e.g., 3180b in FIG. 31E ) and display (3218) a representation (e.g., 630 in FIG. 31E ) of a fourth portion of the field of view of the first camera (e.g., wide-angle camera) (e.g., 3180b) (e.g., 3180b in FIG. 31E ) at a third zoom level in the second region (e.g., 602 and 606). In some embodiments, if the field of view of one camera (e.g., a camera having a narrower field of view than the second camera) can fill both the first and second regions at a particular zoom level, the electronic device switches to displaying representations in both regions using only a single camera. In some embodiments, if a camera is unable to fill both the first and second regions at a particular zoom level, the device continues to use one camera to display a representation in the first region and another camera to display a representation in the second region; e.g., in response to receiving a first request to increase the zoom level of a representation of a portion of the field of view of one or more cameras to a third zoom level (e.g., a request to zoom in on a first user interface) and pursuant to a determination that the third zoom level is below the first zoom value range, the electronic device may increase the zoom level of the representation of the portion of the field of view of one or more cameras to a third zoom level in the first region. and displaying, in the second region, a representation of the second portion of the field of view of the first camera that excludes at least a subset of the first portion of the field of view of the first camera at the third zoom level (in some embodiments, the amount of the subset excluded depends on the third zoom level), and displaying, in the second region, a representation of the second portion of the field of view of the second camera that overlaps with the subset of the portion of the field of view of the first camera that was excluded from the second portion of the field of view of the first camera at the third zoom level without displaying, in the second region, a representation of the subset of the portion of the field of view of the first camera that was excluded from the second portion of the field of view of the first camera. In some embodiments, pursuant to determining that the third zoom level is not within the first zoom value range, the electronic device uses one type of camera (e.g., an ultra-wide, wide-angle, telephoto camera) to display a representation in the first region and one type of camera to display a representation in the second region. In some embodiments, in accordance with determining that the third zoom level is not within the first zoom value range, the electronic device ceases to display a representation of a first subset of the third portion of the field of view of the first camera at the third zoom level in the first region and a representation of a second subset of the third portion of the field of view of the first camera at the third zoom level in the second region. By switching a camera to display a representation when a particular condition is specified, a user can view an improved representation of the electronic device with improved fidelity and visual tearing when the representation is displayed within the particular zoom value range. By performing an optimized action when a set of conditions is met without requiring further user input, the device can be made more usable, the user-device interface can be made more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and the device can be made to use a faster and more efficient device, thereby reducing power usage and improving the device's battery life.

いくつかの実施形態では、第1の領域(例えば、604)において、第3のズームレベルで、第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の第3の部分の表現(例えば、図31Eの630)を表示し、かつ第2の領域(例えば、602及び606)において、第3のズームレベル(例えば、図31Eの2622f)で、第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の第4の部分の表現(例えば、図31Eの630)を表示している間に、電子デバイスは、1つ以上のカメラの視野の一部分の表現のズームレベルを第4のズームレベル(例えば、2622c)まで上げる第3の要求(例えば、3150e)(例えば、カメラユーザインタフェース上でズームインする要求)を受信する。いくつかの実施形態では、1つ以上のカメラの視野の一部分の表現のズームレベルを第4のズームレベルまで上げる第3の要求を受信したことに応じて、かつ第4のズームレベルが第2のズーム値範囲(例えば、デバイスが第1のカメラ及び第3のカメラを使用するように切り替えるズーム値範囲(例えば、望遠写真カメラは、プレビュー領域を満たすことができる))内にあるとの判定に従って、電子デバイスは、第1の領域において、第4のズームレベル(例えば、図31Fの2622c)で、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)(例えば、第3のカメラは、第1のカメラよりも狭い視野だが、高い光学ズームレベルを有する)の視野の第3の部分の少なくともサブセットを除外する第3のカメラ(例えば、広角カメラよりも狭い視野を有する望遠写真カメラ)の視野の第5の部分の表現(例えば、図31Fの630)を表示し、かつ第2の領域において、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第5の部分から除外された第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の部分のサブセットの表現を表示することなく、第2の領域において、第4のズームレベルで、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第5の部分から除外された第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の部分のサブセットと重なり合う第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の第5の部分の表現(例えば、図31Fの630)を表示する(例えば、ユーザインタフェース及び/又は第1のカメラの視野の第1の表現がズームインされるとき、第3のカメラの視野の表現からのカットオフ部分は、第2の領域内に表示されない)。いくつかの実施形態では、第4のズームレベルが第2のズーム値範囲内にない(ズームイン時)(又は依然として第1のズーム値範囲内にある)との判定に従って、電子デバイスは、第1及び第2の領域において、第1のカメラのみを使用し続ける(例えば、第1の領域において、第3のズームレベルで、第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第3の部分の表現を表示すること、及び第2の領域において、第3のズームレベルで、第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第4の部分の表現を表示すること)。特定の条件が規定されているときに、電子デバイスの異なるカメラを使用して表現の異なる部分を表示することにより、ユーザは、表現が特定のズーム値範囲内に表示されるとき、電子デバイスの改善された表現を閲覧することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, while displaying a representation (e.g., 630 in FIG. 31E) of a third portion of a first camera's field of view (e.g., wide-angle camera) (e.g., 3180b) at a third zoom level in the first region (e.g., 604) and displaying a representation (e.g., 630 in FIG. 31E) of a fourth portion of a first camera's field of view (e.g., wide-angle camera) (e.g., 3180b) at a third zoom level (e.g., 2622f in FIG. 31E) in the second region (e.g., 602 and 606), the electronic device receives a third request (e.g., 3150e) (e.g., a request to zoom in on a camera user interface) to increase the zoom level of the representation of the portion of the field of view of one or more cameras to a fourth zoom level (e.g., 2622c). In some embodiments, in response to receiving a third request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to a fourth zoom level, and in accordance with a determination that the fourth zoom level is within the second zoom value range (e.g., the zoom value range at which the device switches to use the first camera and the third camera (e.g., the telephoto camera can fill the preview area)), the electronic device generates a representation (e.g., 6 in FIG. 31F ) of a fifth portion of the field of view of the third camera (e.g., a telephoto camera having a narrower field of view than the wide-angle camera) at the fourth zoom level (e.g., 2622c of FIG. 31F ) that excludes at least a subset of the third portion of the field of view of the third camera (e.g., a telephoto camera) (e.g., 3180c) (e.g., the third camera has a narrower field of view than the first camera but a higher optical zoom level) in the first area. 30) and displays in the second region a representation (e.g., 630 in FIG. 31F ) of a fifth portion of the first camera's field of view (e.g., wide-angle camera) (e.g., 3180b) that overlaps with the subset of the portion of the field of view of the third camera (e.g., telephoto camera) (e.g., 3180c) that is excluded from the fifth portion of the field of view of the third camera (e.g., telephoto camera) (e.g., 3180c) at a fourth zoom level, without displaying in the second region a representation of the subset of the portion of the field of view of the third camera (e.g., telephoto camera) (e.g., 3180c) that is excluded from the fifth portion of the field of view of the third camera (e.g., telephoto camera) (e.g., 3180c) (e.g., when the user interface and/or the first representation of the first camera's field of view is zoomed in, the cut-off portion from the representation of the third camera's field of view is not displayed in the second region). In some embodiments, pursuant to a determination that the fourth zoom level is not within the second zoom value range (when zoomed in) (or is still within the first zoom value range), the electronic device continues to use only the first camera in the first and second regions (e.g., displaying a representation of a third portion of the field of view of the first camera (e.g., wide-angle camera) (e.g., 3180b) at the third zoom level in the first region, and displaying a representation of a fourth portion of the field of view of the first camera (e.g., wide-angle camera) (e.g., 3180b) at the third zoom level in the second region). By displaying different portions of the representation using different cameras of the electronic device when certain conditions are defined, a user may view an improved representation of the electronic device when the representation is displayed within a certain zoom value range. By performing an optimized action when a set of conditions are met without requiring further user input, it improves usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves the battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1の領域において、第4のズームレベルで、第3のカメラ(例えば、第3のカメラは、第1のカメラよりも狭い視野を有する)の視野の第3の部分の少なくともサブセットを除外する第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第5の部分の表現(図31Gの630)を表示し、かつ第2の領域において、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第5の部分から除外された第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の部分のサブセットの表現を表示することなく、第2の領域において、第4のズームレベルで、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第5の部分から除外された第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の部分のサブセットと重なり合う第1のカメラ(例えば、望遠写真カメラ)(例えば、3180c)(例えば、広角カメラ)(例えば、3180b)の視野の第5の部分の表現を表示している間に、電子デバイスは、1つ以上のカメラの視野の一部分の表現のズームレベルを第5のズームレベル(例えば、2622h)まで上げる第4の要求(例えば、3150g)を受信する。いくつかの実施形態では、1つ以上のカメラの視野の一部分の表現のズームレベルを第5のズームレベルまで上げる第4の要求を受信したことに応じて、かつ第5のズームレベルが第3のズーム値範囲(例えば、第1のズーム値範囲及び第2のズーム値範囲の外側のズーム値範囲)(例えば、第3のカメラの視野が第1の領域及び第2の領域の両方に存在するのに十分なズーム値範囲)内にあるとの判定に従って、電子デバイスは、第1の領域において、第5のズームレベルで、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第6の部分の表現(例えば、図31Hの630)を表示し、かつ第2の領域において、第5のズームレベルで、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第7の部分の表現(例えば、図31Hの630)を表示する。いくつかの実施形態では、あるカメラの視野(例えば、第2のカメラよりも狭い視野を有するカメラ)が、特定のズームレベルで第1及び第2の領域の両方を満たすことができる場合、電子デバイスは、単一のカメラのみを使用して、両方の領域で表現を表示するように切り替える。いくつかの実施形態では、あるカメラが第1及び第2の領域の両方を特定のズームレベルで満たすことができない場合、デバイスは、第1の領域内に表現を表示するあるカメラ及び第2の領域内に表現を表示する別のカメラを使用し続け;例えば、1つ以上のカメラの視野の一部分の表現のズームレベルを第5のズームレベルまで上げる第4の要求を受信したことに応じて、第5のズームレベルが第3のズーム値範囲内にない(又は下回る)との判定に従って、第1の領域において、第5のズームレベルで、第3のカメラ(例えば、第3のカメラは、第1のカメラよりも狭い視野だが、より高い光学ズームレベルを有する)の視野の第3の部分の少なくともサブセットを除外する第3のカメラの視野の第5の部分の表現を表示し、第2の領域において、第3のカメラの視野の第5の部分から除外された第3のカメラの視野の部分のサブセットの表現を表示することなく、第2の領域において、第5のズームレベルで、第3のカメラの視野の第5の部分から除外された第3のカメラの視野の部分のサブセットと重なり合う第1のカメラの視野の第5の部分の表現を表示する。いくつかの実施形態では、第5のズームレベルが第3のズーム値範囲内にないとの判定に従って、電子デバイスは、第1の領域内に表現を表示するあるカメラ及び第2の領域内に表現を表示するあるタイプのカメラを使用する。いくつかの実施形態では、第5のズームレベルが第3のズーム値範囲内にない(又は依然として第2のズーム値範囲内にある)との判定に従って、電子デバイスは、第1の領域において、第5のズームレベルで、第3のカメラの視野の第6の部分の表現を表示することと、第2の領域において、第5のズームレベルで、第3のカメラの視野の第7の部分の表現を表示することと、をやめる。特定の条件が規定されているときに、あるカメラが表現を表示するように切り替えられることにより、ユーザは、表現が特定のズーム値範囲内に表示されるとき、改善された忠実度及び視覚的引裂きを有する、電子デバイスの改善された表現を閲覧することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in the first region, a representation (630 in FIG. 31G) of a fifth portion of the field of view of a third camera (e.g., a telephoto camera) (e.g., 3180c) is displayed at a fourth zoom level, excluding at least a subset of a third portion of the field of view of the third camera (e.g., the third camera has a narrower field of view than the first camera), and in the second region, a representation (630 in FIG. 31G) of a fifth portion of the field of view of a third camera (e.g., a telephoto camera) (e.g., 3180c) is displayed at a fourth zoom level, without displaying a representation of a subset of the portion of the field of view of the third camera (e.g., a telephoto camera) (e.g., 3180c) that is excluded from the fifth portion of the field of view of the third camera (e.g., a telephoto camera) (e.g., 3180c). While displaying a representation of the fifth portion of the field of view of the first camera (e.g., telephoto camera) (e.g., 3180c) (e.g., wide-angle camera) (e.g., 3180b) that overlaps with a subset of the portion of the field of view of the third camera (e.g., telephoto camera) (e.g., 3180c) that is excluded from the fifth portion of the field of view of the third camera (e.g., telephoto camera) (e.g., 3180c) at a fourth zoom level in the region of the fourth zoom level, the electronic device receives a fourth request (e.g., 3150g) to increase the zoom level of the representation of the portion of the field of view of one or more cameras to a fifth zoom level (e.g., 2622h). In some embodiments, in response to receiving a fourth request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to a fifth zoom level, and in accordance with a determination that the fifth zoom level is within a third zoom value range (e.g., a zoom value range outside the first zoom value range and the second zoom value range) (e.g., a zoom value range sufficient for the field of view of the third camera to be present in both the first region and the second region), the electronic device displays a representation of a sixth portion of the field of view of the third camera (e.g., a telephoto camera) (e.g., 3180c) at the fifth zoom level in the first region, and displays a representation of a seventh portion of the field of view of the third camera (e.g., a telephoto camera) (e.g., 3180c) at the fifth zoom level in the second region (e.g., 630 in FIG. 31H ). In some embodiments, if the field of view of one camera (e.g., a camera having a narrower field of view than a second camera) can fill both the first and second regions at a particular zoom level, the electronic device switches to display representations in both regions using only a single camera. In some embodiments, if a camera is unable to fill both the first and second regions at a particular zoom level, the device continues to use one camera displaying a representation in the first region and the other camera displaying a representation in the second region; for example, in response to receiving a fourth request to increase the zoom level of the representation of the portion of the field of view of one or more cameras to a fifth zoom level, in accordance with a determination that the fifth zoom level is not within (or falls below) the third zoom value range, displaying, in the first region, a representation of a fifth portion of the field of view of a third camera that excludes at least a subset of the third portion of the field of view of the third camera (e.g., the third camera has a narrower field of view than the first camera but a higher optical zoom level), at the fifth zoom level, and displaying, in the second region, a representation of the fifth portion of the field of view of the first camera that overlaps with the subset of the portion of the field of view of the third camera that was excluded from the fifth portion of the field of view of the third camera, at the fifth zoom level, without displaying, in the second region, a representation of the subset of the portion of the field of view of the third camera that was excluded from the fifth portion of the field of view of the third camera. In some embodiments, in response to a determination that the fifth zoom level is not within the third zoom value range, the electronic device uses one camera to display the representation in the first region and one type of camera to display the representation in the second region. In some embodiments, in response to a determination that the fifth zoom level is not within the third zoom value range (or is still within the second zoom value range), the electronic device ceases to display a representation of a sixth portion of the third camera's field of view at the fifth zoom level in the first region and a seventh portion of the third camera's field of view at the fifth zoom level in the second region. By switching one camera to display the representation when certain conditions are defined, a user may view an improved representation of the electronic device having improved fidelity and visual tearing when the representation is displayed within the certain zoom value range. By performing an optimized action when a set of conditions are met without requiring further user input, it improves usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves the battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1の領域において、第5のズームレベルで、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第6の部分の表現を表示し、かつ第2の領域において、第5のズームレベルで、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第7の部分の表現を表示している間に、電子デバイスは、1つ以上のカメラの視野の一部分の表現のズームレベルを第6のズームレベル(例えば、第5のズームレベル未満であるが、第3のズームレベルよりも高いズームレベル)まで下げる(例えば、ズームアウトする)第1の要求を受信する。いくつかの実施形態では、1つ以上のカメラの視野の一部分の表現のズームレベルを第6のズームレベルまで下げる(例えば、ズームアウトする)第1の要求を受信したことに応じて、かつ第6のズームレベルが第2の領域内に表示するために第4のズーム値範囲(例えば、第1のズーム値範囲及び第3のズーム値範囲の外側のズーム値範囲)内にあるとの判定に従って、電子デバイスは、第1の領域において、第6のズームレベルで、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)(例えば、第3のカメラは、第1のカメラよりも狭い視野だが、高い光学ズームレベルを有する)の視野の第3の部分の少なくともサブセットを除外する第3のカメラ(例えば、広角カメラよりも狭い視野を有する望遠写真カメラ)の視野の第8の部分の表現を表示し、かつ第2の領域において、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第8の部分から除外された第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の部分のサブセットの表現を表示することなく、第2の領域において、第6のズームレベルで、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第8の部分から除外された第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の部分のサブセットと重なり合う第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第8の部分の表現を表示する。いくつかの実施形態では、第4のズーム値範囲は、第2のズーム値範囲と同じである。いくつかの実施形態では、あるカメラの視野(例えば、第2のカメラよりも狭い視野を有するカメラ)が、特定のズームレベルで第1及び第2の領域の両方を満たすことができる場合、電子デバイスは、単一のカメラのみを使用して、両方の領域で表現を表示するように切り替える。いくつかの実施形態では、あるカメラが第1及び第2の領域の両方を特定のズームレベルで満たすことができない場合、デバイスは、第1の領域内に表現を表示するあるカメラ及び第2の領域内に表現を表示する別のカメラを使用し続ける。いくつかの実施形態では、第6のズームレベルが第4のズーム値範囲内にないとの判定に従って、電子デバイスは、第1の領域内に表現を表示するあるタイプのカメラ及び第2の領域内に表現を表示するあるタイプのカメラを使用する。いくつかの実施形態では、第6のズームレベルが第4のズーム値範囲内にないとの判定に従って、電子デバイスは、第1の領域において、第6のズームレベルで、第3のカメラの視野の第6の部分の表現を表示し続け、かつ第2の領域において、第5のズームレベルで、第3のカメラの視野の第7の部分の表現を表示し続ける。特定の条件が規定されているときに、電子デバイスの異なるカメラを使用して表現の異なる部分を表示することにより、ユーザは、表現が特定のズーム値範囲内に表示されるとき、電子デバイスの改善された表現を閲覧することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, while displaying a representation of a sixth portion of the field of view of a third camera (e.g., a telephoto camera) (e.g., 3180c) at a fifth zoom level in the first region and displaying a representation of a seventh portion of the field of view of a third camera (e.g., a telephoto camera) (e.g., 3180c) at a fifth zoom level in the second region, the electronic device receives a first request to decrease the zoom level of the representation of the portion of the field of view of one or more cameras (e.g., to zoom out) to a sixth zoom level (e.g., a zoom level less than the fifth zoom level but higher than the third zoom level). In some embodiments, in response to receiving a first request to reduce the zoom level (e.g., zoom out) of a representation of a portion of the field of view of one or more cameras to a sixth zoom level, and in accordance with a determination that the sixth zoom level is within a fourth zoom value range (e.g., a zoom value range outside the first zoom value range and the third zoom value range) for display in the second region, the electronic device displays, in the first region, a third camera (e.g., a wide-angle camera) (e.g., 3180c) (e.g., the third camera has a narrower field of view than the first camera but a higher optical zoom level) at the sixth zoom level, excluding at least a subset of a third portion of the field of view of the third camera (e.g., a telephoto camera) (e.g., 3180d) (e.g., the third camera has a narrower field of view than the first camera but a higher optical zoom level). and displaying, in the second region, a representation of an eighth portion of the field of view of the first camera (e.g., wide-angle camera) (e.g., 3180b) that overlaps with a subset of the portion of the field of view of the third camera (e.g., telephoto camera) (e.g., 3180c) that is excluded from the eighth portion of the field of view of the third camera (e.g., telephoto camera) (e.g., 3180c) at the sixth zoom level, without displaying, in the second region, a representation of a subset of the portion of the field of view of the third camera (e.g., telephoto camera) (e.g., 3180c) that is excluded from the eighth portion of the field of view of the third camera (e.g., telephoto camera) (e.g., 3180c). In some embodiments, the fourth zoom value range is the same as the second zoom value range. In some embodiments, if a camera's field of view (e.g., a camera having a narrower field of view than the second camera) can fill both the first and second regions at a particular zoom level, the electronic device switches to displaying representations in both regions using only a single camera. In some embodiments, if a camera cannot fill both the first and second regions at a particular zoom level, the device continues to use one camera to display a representation in the first region and another camera to display a representation in the second region. In some embodiments, pursuant to a determination that the sixth zoom level is not within the fourth zoom value range, the electronic device uses one type of camera to display a representation in the first region and one type of camera to display a representation in the second region. In some embodiments, pursuant to a determination that the sixth zoom level is not within the fourth zoom value range, the electronic device continues to display a representation of a sixth portion of the third camera's field of view at the sixth zoom level in the first region and a seventh portion of the third camera's field of view at the fifth zoom level in the second region. By displaying different portions of the representation using different cameras of the electronic device when certain conditions are specified, the user can view an improved representation of the electronic device when the representation is displayed within a certain zoom value range. By performing an optimized action when a set of conditions is met without requiring further user input, the device can be more easily operated, the user-device interface can be more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and the device can be more quickly and efficiently used, thereby reducing power usage and improving the device's battery life.

いくつかの実施形態では、第1の領域において、第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第8の部分の少なくともサブセットの表現を表示することなく、第1の領域において、第6のズームレベルで、第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第8の部分の少なくともサブセットと重なり合う第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第8の部分の表現を表示し、かつ第2の領域において、第6のズームレベルで、第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第8の部分の少なくともサブセットを除外する第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第8の部分の表現を表示している間に、電子デバイスは、1つ以上のカメラの視野の一部分の表現のズームレベルを第7のズームレベル(例えば、第6のズームレベル未満であるが、第2のズームレベルよりも高いズームレベル)まで下げる(例えば、ズームアウトする)第2の要求を受信する。いくつかの実施形態では、1つ以上のカメラの視野の一部分の表現のズームレベルを第7のズームレベルまで下げる(例えば、ズームアウトする)第2の要求を受信したことに応じて、かつ第7のズームレベルが第5のズーム値範囲(例えば、第2のズーム値範囲及び第4のズーム値範囲の外側のズーム値範囲)(例えば、第1のカメラの視野が第1の領域及び第2の領域の両方に存在するのに十分なズーム値範囲)(例えば、デバイスが第1のカメラ及び第3のカメラを使用するように切り替えるズーム値範囲(例えば、望遠写真カメラは、プレビュー領域を満たすことができる))内にあるとの判定に従って、電子デバイスは、第1の領域において、第7のズームレベルで、第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第9の部分の表現を表示し、かつ第2の領域において、第7のズームレベルで、第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第10の部分の表現を表示する。いくつかの実施形態では、第2のズーム値は、第1のズーム値範囲と同じである。いくつかの実施形態では、あるカメラの視野(例えば、第2のカメラよりも狭い視野を有するカメラ)が、特定のズームレベルで第1及び第2の領域の両方を満たすことができる場合、電子デバイスは、単一のカメラのみを使用して、両方の領域で表現を表示するように切り替える。いくつかの実施形態では、あるカメラが第1及び第2の領域の両方を特定のズームレベルで満たすことができない場合、デバイスは、第1の領域内に表現を表示するあるカメラ及び第2の領域内に表現を表示する別のカメラを使用し続け;例えば、1つ以上のカメラの視野の一部分の表現のズームレベルを第7のズームレベルまで下げる第1の要求(例えば、第1のユーザインタフェース上でズームアウトする要求)を受信したことに応じて、第7のズームレベルが第5のズーム値範囲内にない(例えば、下回る)との判定に従って、電子デバイスは、第1の領域において、第7のズームレベルで、第3のカメラの視野の第8の部分の少なくともサブセットを除外する(いくつかの実施形態では、除外されるサブセットの量は、第7のズームレベルに依存する)第3のカメラの視野の第8の部分の表現を表示し、かつ第2の領域において、第3のカメラの視野の第8の部分から除外された第3のカメラの視野の部分のサブセットの表現を表示することなく、第2の領域において、第7のズームレベルで、第3のカメラの視野の第8の部分から除外された第3のカメラの視野の部分のサブセットと重なり合う第1のカメラの視野の第8の部分の表現を表示する。いくつかの実施形態では、第7のズームレベルが第5のズーム値範囲内にないとの判定に従って、電子デバイスは、第1の領域内に表現を表示するあるタイプのカメラ及び第2の領域内に表現を表示するあるタイプのカメラを使用する。いくつかの実施形態では、第3のズームレベルが第1のズーム値範囲内にないとの判定に従って、電子デバイスは、第1の領域において、第7のズームレベルで、第1のカメラの視野の第9の部分の表現を表示することと、第2の領域において、第7のズームレベルで、第1のカメラの視野の第10の部分の表現を表示することと、をやめる。特定の条件が規定されているときに、あるカメラが表現を表示するように切り替えられることにより、ユーザは、表現が特定のズーム値範囲内に表示されるとき、改善された忠実度及び視覚的引裂きを有する、電子デバイスの改善された表現を閲覧することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the display may display, in the first region, a representation of an eighth portion of the field of view of a third camera (e.g., a telephoto camera) (e.g., 3180c) that overlaps with at least a subset of the eighth portion of the field of view of a first camera (e.g., a wide-angle camera) (e.g., 3180b) at a sixth zoom level without displaying, in the first region, a representation of at least a subset of the eighth portion of the field of view of a first camera (e.g., a wide-angle camera) (e.g., 3180b), and in the second region, a representation of an eighth portion of the field of view of a third camera (e.g., a telephoto camera) (e.g., 3180c) that overlaps with at least a subset of the eighth portion of the field of view of a first camera (e.g., a wide-angle camera) (e.g., 3180b) at a sixth zoom level. While displaying a representation of an eighth portion of the field of view of a first camera (e.g., wide-angle camera) (e.g., 3180b) at a zoom level that excludes at least a subset of the eighth portion of the field of view of the first camera (e.g., wide-angle camera) (e.g., 3180b), the electronic device receives a second request to decrease the zoom level (e.g., zoom out) of the representation of the portion of the field of view of one or more cameras to a seventh zoom level (e.g., a zoom level less than the sixth zoom level but higher than the second zoom level). In some embodiments, in response to receiving a second request to decrease the zoom level (e.g., zoom out) of the representation of the portion of the field of view of one or more cameras to a seventh zoom level, and in accordance with a determination that the seventh zoom level is within a fifth zoom value range (e.g., a zoom value range outside the second and fourth zoom value ranges) (e.g., a zoom value range sufficient for the field of view of the first camera to be present in both the first and second regions) (e.g., a zoom value range in which the device switches to use the first and third cameras (e.g., the telephoto camera can fill the preview region)), the electronic device displays a representation of a ninth portion of the field of view of the first camera (e.g., wide-angle camera) (e.g., 3180b) at the seventh zoom level in the first region, and displays a representation of a tenth portion of the field of view of the first camera (e.g., wide-angle camera) (e.g., 3180b) at the seventh zoom level in the second region. In some embodiments, the second zoom value is the same as the first zoom value range. In some embodiments, if a camera's field of view (e.g., a camera having a narrower field of view than a second camera) can fill both the first and second regions at a particular zoom level, the electronic device switches to displaying the representation in both regions using only a single camera. In some embodiments, if a camera cannot fill both the first and second regions at a particular zoom level, the device continues to use one camera to display the representation in the first region and another camera to display the representation in the second region; for example, in response to receiving a first request to reduce the zoom level of the representation of the portion of the field of view of one or more cameras to a seventh zoom level (e.g., a request to zoom out on the first user interface), in accordance with a determination that the seventh zoom level is not within (e.g., below) the fifth zoom value range, the electronic device switches to displaying the representation in the seventh region in the first region. and displaying, in the second region, a representation of an eighth portion of the third camera's field of view that overlaps with the subset of the portion of the third camera's field of view that is excluded from the eighth portion of the third camera's field of view at the seventh zoom level, without displaying, in the second region, a representation of the subset of the portion of the third camera's field of view that is excluded from the eighth portion of the third camera's field of view at the seventh zoom level. In some embodiments, pursuant to a determination that the seventh zoom level is not within the fifth zoom value range, the electronic device uses one type of camera to display a representation in the first region and one type of camera to display a representation in the second region. In some embodiments, in accordance with a determination that the third zoom level is not within the first zoom value range, the electronic device ceases to display a representation of the ninth portion of the field of view of the first camera at the seventh zoom level in the first region and a representation of the tenth portion of the field of view of the first camera at the seventh zoom level in the second region. By switching a camera to display a representation when a particular condition is specified, a user can view an improved representation of the electronic device with improved fidelity and visual tearing when the representation is displayed within the particular zoom value range. By performing an optimized action when a set of conditions is met without requiring further user input, the device can be more easily operated, the user-device interface can be more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and, in addition, the device can be used more quickly and efficiently, thereby reducing power usage and improving the device's battery life.

いくつかの実施形態では、第2の領域(例えば、602及び606)は、複数のカメラ設定を制御する複数のコントロールアフォーダンス(例えば、620、626)(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、プロアクティブコントロールアフォーダンス、シャッターアフォーダンス、カメラ選択アフォーダンス、複数のカメラモードアフォーダンス)を含む。 In some embodiments, the second region (e.g., 602 and 606) includes multiple control affordances (e.g., 620, 626) (e.g., selectable user interface objects) that control multiple camera settings (e.g., a proactive control affordance, a shutter affordance, a camera selection affordance, multiple camera mode affordances).

いくつかの実施形態では、電子デバイスは、カメラユーザインタフェース上の位置での入力(例えば、2950i、2950j)を受信する。いくつかの実施形態では、カメラユーザインタフェース上の位置で入力を受信したことに応じて、電子デバイスは、入力(例えば、2950j)の位置が第1の領域(例えば、604)内にあるとの判定に従って、入力の位置に、焦点(例えば、2936c)を合わせるように電子デバイスを構成し(及び任意選択的に、露出又はホワイトバランスなどの1つ以上の他のカメラ設定を、1つ以上のカメラの視野の特性に基づいて設定し)、電子デバイスは、入力(例えば、2950i)の位置が第2の領域(例えば、602)内にあるとの判定に従って、入力の位置に、焦点を合わせるように電子デバイスを構成することをやめる(及び任意選択的に、露出又はホワイトバランスなどの1つ以上の他のカメラ設定を、1つ以上のカメラの視野の特性に基づいて設定することをやめる(例えば、図29J)。 In some embodiments, the electronic device receives an input (e.g., 2950i, 2950j) at a location on the camera user interface. In some embodiments, in response to receiving the input at a location on the camera user interface, the electronic device configures the electronic device to focus (e.g., 2936c) at the location of the input in accordance with a determination that the location of the input (e.g., 2950j) is within a first region (e.g., 604) (and optionally sets one or more other camera settings, such as exposure or white balance, based on the characteristics of the field of view of the one or more cameras), and the electronic device ceases to configure the electronic device to focus (and optionally ceases to set one or more other camera settings, such as exposure or white balance, based on the characteristics of the field of view of the one or more cameras, in accordance with a determination that the location of the input (e.g., 2950i) is within a second region (e.g., 602) (e.g., FIG. 29J).

いくつかの実施形態では、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現(例えば、図29Hの630)を含むカメラユーザインタフェースを表示している間に(例えば、第1のズームレベルから第2のズームレベルへ変更する要求)、電子デバイスは、メディアをキャプチャする要求(例えば、2950h)(例えば、シャッターアフォーダンス(例えば、610)に向けられたジェスチャ(例えば、タップ))を受信する。いくつかの実施形態では、メディアをキャプチャする要求を受信したことに応じて、電子デバイスは、1つ以上のカメラの視野に対応するメディア(例えば、図29Iの624)をキャプチャし、メディアは、第1のズームレベルでの第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第1の部分からのコンテンツ及び第1のズームレベルでの第2のカメラ(例えば、超広角カメラ)(例えば、3180a)の視野の第1の部分からのコンテンツを含む。いくつかの実施形態では、メディアをキャプチャした後に、電子デバイスは、キャプチャされたメディアを編集する要求(例えば、2950o)を受信する。いくつかの実施形態では、キャプチャされたメディアを編集する要求を受信したことに応じて、電子デバイスは、第1のズームレベルでの第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第1の部分からのコンテンツの少なくとも一部及び第1のズームレベルでの第2のカメラ(例えば、超広角カメラ)(例えば、3180a)の視野の第1の部分からのコンテンツの少なくとも一部を含む、キャプチャされたメディアの表現(例えば、図29Pの2930)を表示することと、を含む。いくつかの実施形態では、第1のズームレベルでの第1のカメラの視野の第1の部分からのコンテンツ及び第1のズームレベルでの第2のカメラの視野の第1の部分からのコンテンツを含む、メディアアイテムの表現は、メディアの表現の補正された(例えば、メディアアイテム内の識別された対象を保持するために、安定化、水平補正、垂直視点補正、水平視点補正、及び/又は再フレーム化された)バージョンである。いくつかの実施形態では、電子デバイスは、第1のズームレベルでの第1のカメラの視野の第1の部分からのコンテンツ及び第1のズームレベルでの第2のカメラの視野の第1の部分からのコンテンツを含む、メディアアイテムの表現を表示し、第1のズームレベルで第1のカメラの視野の第1の部分からのコンテンツの少なくとも一部の表現及び第1のズームレベルで第2のカメラの視野の第1の部分からのコンテンツの少なくとも一部の表現を表示することを含む。いくつかの実施形態では、表現は、第1のズームレベルで第2のカメラ(又は第1のカメラ)の視野の第1の部分からのコンテンツの少なくとも一部の表現を表示することを含まず、メディアアイテムの表現は、第1のズームレベルで第2のカメラの視野の第1の部分からコンテンツの少なくとも一部を使用して生成される。 In some embodiments, while displaying via the display device a camera user interface including a representation (e.g., 630 of FIG. 29H) of at least a portion of the field of view of one or more cameras displayed at a first zoom level (e.g., a request to change from the first zoom level to a second zoom level), the electronic device receives a request (e.g., 2950h) to capture media (e.g., a gesture (e.g., a tap) directed at the shutter affordance (e.g., 610). In some embodiments, in response to receiving the request to capture media, the electronic device captures media (e.g., 624 of FIG. 29I) corresponding to the field of view of one or more cameras, the media including content from a first portion of the field of view of a first camera (e.g., wide-angle camera) (e.g., 3180b) at the first zoom level and content from a first portion of the field of view of a second camera (e.g., ultra-wide-angle camera) (e.g., 3180a) at the first zoom level. In some embodiments, after capturing the media, the electronic device receives a request (e.g., 2950o) to edit the captured media. In some embodiments, in response to receiving a request to edit the captured media, the electronic device includes displaying a representation of the captured media (e.g., 2930 of FIG. 29P) including at least a portion of content from a first portion of a field of view of a first camera (e.g., wide-angle camera) at a first zoom level (e.g., 3180b) and at least a portion of content from a first portion of a field of view of a second camera (e.g., ultra-wide-angle camera) at the first zoom level (e.g., 3180a). In some embodiments, the representation of the media item including the content from the first portion of the field of view of the first camera at the first zoom level and the content from the first portion of the field of view of the second camera at the first zoom level is a corrected (e.g., stabilized, horizontally corrected, vertically perspective corrected, horizontally perspective corrected, and/or reframed to preserve identified subjects within the media item) version of the representation of the media. In some embodiments, the electronic device displays a representation of the media item including content from a first portion of the field of view of the first camera at a first zoom level and content from a first portion of the field of view of the second camera at the first zoom level, including displaying a representation of at least a portion of the content from the first portion of the field of view of the first camera at the first zoom level and a representation of at least a portion of the content from the first portion of the field of view of the second camera at the first zoom level. In some embodiments, the representation does not include displaying a representation of at least a portion of the content from the first portion of the field of view of the second camera (or the first camera) at the first zoom level, and the representation of the media item is generated using at least a portion of the content from the first portion of the field of view of the second camera at the first zoom level.

方法3200に関して上述された処理(例えば、図32A~図32C)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2500、2700、2800、3000、3400、3600、3800、4000、及び4200は、方法3200を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法3000は、任意選択的に、方法3200に関連して上述した様々な技術を使用して、様々なズームレベルでメディアをキャプチャするために、異なる1組のカメラの組み合わせを使用することを採用する。簡潔にするために、これらの詳細は、以下で繰り返さない。 It should be noted that the details of the processes (e.g., FIGS. 32A-32C) described above with respect to method 3200 are also applicable in a similar manner to the methods described above. For example, methods 700, 900, 1100, 1300, 1500, 1700, 1900, 2100, 2300, 2500, 2700, 2800, 3000, 3400, 3600, 3800, 4000, and 4200 optionally include one or more of the characteristics of the various methods described above with reference to method 3200. For example, method 3000 optionally employs the use of a combination of different sets of cameras to capture media at various zoom levels using the various techniques described above in connection with method 3200. For the sake of brevity, these details will not be repeated below.

図33A~図33Qは、いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図34A~図34Bにおける処理を含む、以下で説明する処理を例示するために使用される。いくつかの実施形態では、図8A~図8V及び図9A~図9Cで論じられた1つ以上の技術を、以下で論じられた図33A~図33Q及び図34A~図34Bの1つ以上の技術と任意選択的に組み合わせてもよい。 FIGS. 33A-33Q show example user interfaces for changing zoom levels using an electronic device, according to some embodiments. The user interfaces in these figures are used to illustrate the processes described below, including those in FIGS. 34A-34B. In some embodiments, one or more of the techniques discussed in FIGS. 8A-8V and 9A-9C may be optionally combined with one or more of the techniques in FIGS. 33A-33Q and 34A-34B discussed below.

図33Aは、ディスプレイの上部からディスプレイの底部まで延びるライブプレビュー630を表示する電子デバイス600を示す。ライブプレビュー630は、1つ以上のカメラセンサによって検出された画像に基づく。いくつかの実施形態では、デバイス600は、複数のカメラセンサを使用して画像をキャプチャし、それらを組み合わせてライブプレビュー630を表示する。いくつかの実施形態では、デバイス600は、単一のカメラセンサを使用して画像をキャプチャして、ライブプレビュー630を表示する。 FIG. 33A shows an electronic device 600 displaying a live preview 630 that extends from the top of the display to the bottom of the display. The live preview 630 is based on images detected by one or more camera sensors. In some embodiments, the device 600 captures images using multiple camera sensors and combines them to display the live preview 630. In some embodiments, the device 600 captures images using a single camera sensor to display the live preview 630.

図33Aのカメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含み、これらは、インジケータ及びコントロールがライブプレビュー630と同時に表示され得るように、ライブプレビュー630上に重ね合わされる。カメラディスプレイ領域604は、インジケータ又はコントロールと実質的に重ね合わされない。この実施例では、ライブプレビュー630は、周囲環境内の人の肩に乗っている犬を含む。いくつかの実施形態では、図33Aのカメラユーザインタフェースは、インジケータ領域602とカメラディスプレイ領域604との境界部及びカメラディスプレイ領域604とコントロール領域606との境界部を示す視覚境界部を含む。いくつかの実施形態では、ライブプレビュー630は、インジケータ領域602及び/又はコントロール領域606に延びない。 The camera user interface of FIG. 33A includes an indicator region 602 and a control region 606 that are overlaid on the live preview 630 such that the indicators and controls may be displayed simultaneously with the live preview 630. The camera display region 604 is not substantially overlaid with the indicators or controls. In this example, the live preview 630 includes a dog on the shoulder of a person in the surrounding environment. In some embodiments, the camera user interface of FIG. 33A includes visual boundaries that indicate the boundaries between the indicator region 602 and the camera display region 604 and between the camera display region 604 and the control region 606. In some embodiments, the live preview 630 does not extend into the indicator region 602 and/or the control region 606.

図33Aに示すように、インジケータ領域602は、ライブプレビュー630上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。インジケータ領域602は、フラッシュインジケータ602aを含む。フラッシュインジケータ602aは、フラッシュが自動モード、オン、オフ、又は別のモード(例えば、赤目低減モード)であるかどうかを示す。 33A, indicator area 602 is superimposed on live preview 630 and optionally includes a colored (e.g., gray, semi-transparent) overlay. Indicator area 602 includes a flash indicator 602a. Flash indicator 602a indicates whether the flash is in auto mode, on, off, or another mode (e.g., red-eye reduction mode).

図33Aに示すように、カメラディスプレイ領域604は、ライブプレビュー630及びズームアフォーダンス2622を含み、ズームアフォーダンス2622は、0.5×ズームアフォーダンス2622a、1×ズームアフォーダンス2622b、及び2×ズームアフォーダンス2622cを含む。この実施例では、1×ズームアフォーダンス2622bが選択され、これは、1×ズームレベルでライブプレビュー630が表されることを示す。 33A, the camera display area 604 includes a live preview 630 and a zoom affordance 2622, which includes a 0.5x zoom affordance 2622a, a 1x zoom affordance 2622b, and a 2x zoom affordance 2622c. In this example, the 1x zoom affordance 2622b is selected, indicating that the live preview 630 is presented at a 1x zoom level.

図33Aに示すように、コントロール領域606は、ライブプレビュー630上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。コントロール領域606は、カメラモードアフォーダンス620、メディアコレクション624の一部分、シャッターアフォーダンス610、及びカメラスイッチャアフォーダンス612を含む。カメラモードアフォーダンス620は、どのカメラモードが現在選択されているかを示し、ユーザがカメラモードを変更することを可能にする。 As shown in FIG. 33A, control area 606 is superimposed on live preview 630 and optionally includes a colored (e.g., gray, semi-transparent) overlay. Control area 606 includes camera mode affordance 620, a portion of media collection 624, shutter affordance 610, and camera switcher affordance 612. Camera mode affordance 620 indicates which camera mode is currently selected and allows the user to change camera modes.

更には、図33Aは、カメラインタフェースの異なる位置に対応する位置で様々なジェスチャに応答するデバイス600を示す。具体的には、図33Aは、デバイス600が3つの入力に応答することを示す:(1)インジケータ領域602内の位置に対応する位置でのタップジェスチャ(タップジェスチャ3350a);(2)ズームアフォーダンス2622のうちの1つの位置に対応しない、カメラディスプレイ領域604内の位置に対応するタップジェスチャ(タップジェスチャ3350b);及び(3)カメラディスプレイ領域604内にある、ズームアフォーダンス2622のうちの1つに対応する位置に対応するタップジェスチャ(タップジェスチャ3350c)。ある代替的シナリオにおいて、図33Aでは、デバイス600は、インジケータ領域602内の位置に対応する位置でのタップジェスチャ3350aを検出する。タップジェスチャ3350aを検出したことに応じて、デバイス600は、カメラユーザインタフェースの表示を維持し、かつ1つ以上のカメラの視野内の位置に対応するタップジェスチャ3550aの位置に焦点を合わせるように、電子デバイスの1つ以上のカメラを構成することをやめる(例えば、図29H~図29Iにおいてタップジェスチャ2950iに関連して上で開示されたのと同様の技術を使用して)。別の代替的シナリオにおいて、図33Aでは、デバイス600は、ズームアフォーダンス2622のうちの1つの位置に対応しない、カメラディスプレイ領域604内の位置に対応するタップジェスチャの位置でのタップジェスチャ3350bを検出する。タップジェスチャ3350bを検出したことに応じて、デバイス600は、1つ以上のカメラの視野内の位置に対応するタップジェスチャ3550bの位置に焦点を合わせるように、電子デバイスの1つ以上のカメラを構成する(例えば、図29I~図29Jにおいてタップジェスチャ2950jに関連して上で開示されたのと同様の技術を使用して)。図33Aでの追加のシナリオにおいて、デバイス600は、1×ズームアフォーダンス262bに対応する位置でのタップジェスチャ3350cを検出する。 33A further illustrates device 600 responding to various gestures at locations corresponding to different locations of the camera interface. Specifically, FIG. 33A illustrates device 600 responding to three inputs: (1) a tap gesture (tap gesture 3350a) at a location corresponding to a location in indicator region 602; (2) a tap gesture (tap gesture 3350b) corresponding to a location in camera display region 604 that does not correspond to the location of one of zoom affordances 2622; and (3) a tap gesture (tap gesture 3350c) corresponding to a location within camera display region 604 that corresponds to one of zoom affordances 2622. In one alternative scenario, in FIG. 33A, device 600 detects tap gesture 3350a at a location corresponding to a location in indicator region 602. In response to detecting the tap gesture 3350a, the device 600 maintains the display of the camera user interface and ceases to configure the one or more cameras of the electronic device to focus on a location of the tap gesture 3550a that corresponds to a location in the field of view of the one or more cameras (e.g., using techniques similar to those disclosed above in connection with tap gesture 2950i in FIGS. 29H-29I). In another alternative scenario, in FIG. 33A, the device 600 detects a tap gesture 3350b at a location of the tap gesture that corresponds to a location in the camera display area 604 that does not correspond to a location of one of the zoom affordances 2622. In response to detecting the tap gesture 3350b, the device 600 configures the one or more cameras of the electronic device to focus on a location of the tap gesture 3550b that corresponds to a location in the field of view of the one or more cameras (e.g., using techniques similar to those disclosed above in connection with tap gesture 2950j in FIGS. 29I-29J). In an additional scenario in FIG. 33A, the device 600 detects a tap gesture 3350c at a location corresponding to the 1x zoom affordance 262b.

図33Bに示すように、タップジェスチャ3350cを検出したことに応じて、デバイス600は、第1のカメラセンサから異なる視野を有する第2のカメラセンサに切り替えることにより、ライブプレビュー630のズームレベルを、図33Aの1×ズームレベルから2×ズームレベルに更新する。いくつかの実施形態では、第2のカメラセンサが望遠写真レンズを有するカメラに対応するため(例えば、図31Iに関して上述したように)、デバイス600は、不透明(例えば、黒色)オーバーレイとともにインジケータ領域602を表示する。 As shown in FIG. 33B, in response to detecting tap gesture 3350c, device 600 updates the zoom level of live preview 630 from the 1× zoom level of FIG. 33A to a 2× zoom level by switching from the first camera sensor to a second camera sensor having a different field of view. In some embodiments, device 600 displays indicator region 602 with an opaque (e.g., black) overlay because the second camera sensor corresponds to a camera having a telephoto lens (e.g., as described above with respect to FIG. 31I).

タップジェスチャ3350cを検出したことに応じて、デバイス600はまた、ズームアフォーダンス2622を更新する。具体的には、デバイス600は、1×ズームアフォーダンス2622bの表示を更新することにより、デバイス600は、選択されていないものとして1×ズームアフォーダンス2622bを表示する。図33Bに示すように、ズームアフォーダンスが選択されていないものとして表示されるとき、ズームアフォーダンスは、太字ではなく、かつ選択されたときに表示される1つ以上の文字(例えば、「x」)を含まない(例えば、図33Bの1×ズームアフォーダンス2622bと比較して図33Aの1×ズームアフォーダンス2622b)。更には、デバイス600はまた、2×ズームアフォーダンス2622cの表示を更新することにより、デバイス600は、選択されているものとして2×ズームアフォーダンス2622cを表示する。図33Bに示すように、ズームアフォーダンスが選択されているものとして表示されるとき、ズームアフォーダンスは、太字化され、かつ未選択のズームアフォーダンスを含まない1つ以上の文字を含む(例えば、ズームレベルの隣の「x」)。いくつかの実施形態では、タップジェスチャ3350cを検出したことに応じて、デバイス600は、ズームアフォーダンス2622のテキストを拡大させる。いくつかの実施形態では、デバイス600は、デバイスがより大きいズームレベルでライブプレビュー630を表示しているため(例えば、図33Aの1×ズームレベルから図33Bの2×ズームレベルへ)、テキストを拡大する。加えて、タップジェスチャ3350cを検出したことに応じて、デバイス600は、0.5×ズームアフォーダンス2622aの表示を維持する(例えば、0.5×ズームアフォーダンス2622aは、未選択のままである)。図33Bに示すように、ズームアフォーダンスが選択されていると、ズームアフォーダンスは、他の未選択のズームアフォーダンスよりも大きいサイズを有する。いくつかの実施形態では、ズームアフォーダンスが選択されていると、ズームアフォーダンスは、他の未選択のズームアフォーダンスとは異なる色である。いくつかの実施形態では、タップジェスチャ3350cを検出したことに応じて、デバイス600は、新しいズームレベルを示す(例えば、1×ズームアフォーダンス2622bのテキストを「2×」に変更する)ように、1×ズームアフォーダンス2622bの表示を更新し、かつ選択されているものとして1×ズームアフォーダンスを表示し続ける。いくつかの実施形態では、新しいズームレベルを示すために、デバイスが1×ズームアフォーダンス2622bの表示を更新すると、デバイス600は、未選択である(又は選択されている)ものとして2×ズームアフォーダンス2622cを表示する。 In response to detecting the tap gesture 3350c, the device 600 also updates the zoom affordance 2622. Specifically, the device 600 updates the display of the 1× zoom affordance 2622b such that the device 600 displays the 1× zoom affordance 2622b as unselected. As shown in FIG. 33B, when the zoom affordance is displayed as unselected, the zoom affordance is not bold and does not include one or more characters (e.g., "x") that are displayed when selected (e.g., the 1× zoom affordance 2622b in FIG. 33A compared to the 1× zoom affordance 2622b in FIG. 33B). Furthermore, the device 600 also updates the display of the 2× zoom affordance 2622c such that the device 600 displays the 2× zoom affordance 2622c as selected. As shown in FIG. 33B , when a zoom affordance is displayed as selected, it is bolded and includes one or more letters (e.g., an "x" next to a zoom level) that do not include an unselected zoom affordance. In some embodiments, in response to detecting a tap gesture 3350c, the device 600 enlarges the text of the zoom affordance 2622. In some embodiments, the device 600 enlarges the text because the device is displaying the live preview 630 at a larger zoom level (e.g., from a 1× zoom level in FIG. 33A to a 2× zoom level in FIG. 33B ). Additionally, in response to detecting a tap gesture 3350c, the device 600 maintains the display of the 0.5× zoom affordance 2622a (e.g., the 0.5× zoom affordance 2622a remains unselected). As shown in FIG. 33B , when a zoom affordance is selected, the zoom affordance has a larger size than other unselected zoom affordances. In some embodiments, when a zoom affordance is selected, the zoom affordance is a different color than other unselected zoom affordances. In some embodiments, in response to detecting a tap gesture 3350c, the device 600 updates the display of the 1× zoom affordance 2622b to indicate the new zoom level (e.g., changes the text of the 1× zoom affordance 2622b to “2×”) and continues to display the 1× zoom affordance as selected. In some embodiments, once the device updates the display of the 1× zoom affordance 2622b to indicate the new zoom level, the device 600 displays the 2× zoom affordance 2622c as unselected (or selected).

図33B~図33Fは、2つの異なるタイプズームアフォーダンスに向けられたジェスチャに応じて、ズームレベルを変更するデバイス600を示す:(1)ズームアフォーダンス(例えば、1×ズームアフォーダンス2622b)が繰り返し選択されているとき、ライブプレビュー630が異なるズームレベルで表示されるように、デバイス600がライブプレビュー630を更新させるズームアフォーダンス;及び(2)ズームアフォーダンスが繰り返し選択されているとき、ライブプレビュー630があるズームレベルでのみ表示されるように、デバイス600がライブプレビュー630を更新させるズームアフォーダンス(例えば、ズームアフォーダンス2622c)。図33Bでは、デバイス600は、1×ズームアフォーダンス2622bに対応する位置での追加のタップジェスチャ3350dを検出する。 33B-33F show device 600 changing zoom levels in response to gestures directed at two different types of zoom affordances: (1) a zoom affordance that causes device 600 to update live preview 630 such that live preview 630 is displayed at different zoom levels when the zoom affordance (e.g., 1x zoom affordance 2622b) is repeatedly selected; and (2) a zoom affordance that causes device 600 to update live preview 630 such that live preview 630 is displayed only at certain zoom levels when the zoom affordance is repeatedly selected (e.g., zoom affordance 2622c). In FIG. 33B, device 600 detects an additional tap gesture 3350d at a location corresponding to 1x zoom affordance 2622b.

図33Cに示すように、タップジェスチャ3350dを検出したことに応じて、デバイス600は、第2のカメラセンサから異なる視野を有する第3のカメラセンサに切り替えることにより、ライブプレビュー630のズームレベルを、図33Bの2×ズームレベルから0.5×ズームレベルに更新する。ここで、第3のカメラセンサが超広角レンズを有するカメラに対応するため、デバイス600は、デバイスが第2のカメラセンサ(例えば、電話レンズ又は図31Aに関連して上述したような超広角レンズではないレンズ)で表示されたときに、不透明(例えば、又は黒色)オーバーレイの代わりに透明オーバーレイとともにインジケータ領域602を表示する。タップジェスチャ3350dを検出したことに応じて、デバイス600はまた、ズームアフォーダンス2622を更新する。具体的には、デバイス600は、2×ズームアフォーダンス2622cの表示を更新することにより、デバイス600は、選択されていないものとしてズームアフォーダンス2622cを表示する(例えば、図33Bの1×ズームアフォーダンス2622bに関連して上述したものと同様の技術を使用して)。更には、デバイス600はまた、0.5×ズームアフォーダンス2622aの表示を更新することにより、デバイス600は、選択されているものとして2×ズームアフォーダンス2622cを表示する(例えば、図33Bの2×ズームアフォーダンス2622cに関連して上述したものと同様の技術を使用して)。加えて、タップジェスチャ3350dを検出したことに応じて、デバイス600は、1×ズームアフォーダンス2622bの表示を維持する(例えば、1×ズームアフォーダンス2622bは、未選択のままである)。いくつかの実施形態では、タップジェスチャ3350dを検出したことに応じて、デバイス600は、ズームアフォーダンス2622のテキストを減少させる。いくつかの実施形態では、デバイス600は、デバイスがより小さいズームレベルでライブプレビュー630を表示しているため(例えば、図33Aの2×ズームレベルから図33Bの0.5×ズームレベルへ)、テキストを減少させる。いくつかの実施形態では、ズームレベルが0.5×であるときに表示される縮小されたテキストは、ズームレベルが1×であるときに表示されるテキストよりも小さい。いくつかの実施形態では、タップジェスチャ3350dを検出したことに応じて、デバイス600は、新しいズームレベルを示す(例えば、1×ズームアフォーダンス2622bのテキストを「0.5×」に変更する)ように、1×ズームアフォーダンス2622bの表示を更新し、かつ選択されているものとして1×ズームアフォーダンス2622bを表示し続ける。いくつかの実施形態では、新しいズームレベルを示すために、デバイスが1×ズームアフォーダンス2622bの表示を更新すると、デバイス600は、未選択である(又は選択されている)ものとして0.5×ズームアフォーダンス2622aを表示する。図33Cでは、デバイス600は、1×ズームアフォーダンス2622bに対応する位置での追加のタップジェスチャ3350eを検出する。 As shown in FIG. 33C, in response to detecting the tap gesture 3350d, the device 600 updates the zoom level of the live preview 630 from the 2× zoom level of FIG. 33B to the 0.5× zoom level by switching from the second camera sensor to a third camera sensor having a different field of view. Here, because the third camera sensor corresponds to a camera having an ultra-wide lens, the device 600 displays the indicator region 602 with a transparent overlay instead of an opaque (e.g., or black) overlay when the device is displayed with the second camera sensor (e.g., a phone lens or a lens that is not an ultra-wide lens as described above in connection with FIG. 31A). In response to detecting the tap gesture 3350d, the device 600 also updates the zoom affordance 2622. Specifically, the device 600 updates the display of the 2× zoom affordance 2622c such that the device 600 displays the zoom affordance 2622c as not selected (e.g., using a technique similar to that described above in connection with the 1× zoom affordance 2622b of FIG. 33B). Moreover, the device 600 also updates the display of the 0.5× zoom affordance 2622a such that the device 600 displays the 2× zoom affordance 2622c as selected (e.g., using a technique similar to that described above in connection with the 2× zoom affordance 2622c of FIG. 33B ). Additionally, in response to detecting the tap gesture 3350d, the device 600 maintains the display of the 1× zoom affordance 2622b (e.g., the 1× zoom affordance 2622b remains unselected). In some embodiments, in response to detecting the tap gesture 3350d, the device 600 reduces the text of the zoom affordance 2622. In some embodiments, the device 600 reduces the text because the device is displaying the live preview 630 at a smaller zoom level (e.g., from the 2× zoom level of FIG. 33A to the 0.5× zoom level of FIG. 33B ). In some embodiments, the reduced text displayed when the zoom level is 0.5× is smaller than the text displayed when the zoom level is 1×. In some embodiments, in response to detecting the tap gesture 3350d, the device 600 updates the display of the 1x zoom affordance 2622b to indicate the new zoom level (e.g., changes the text of the 1x zoom affordance 2622b to "0.5x") and continues to display the 1x zoom affordance 2622b as selected. In some embodiments, once the device updates the display of the 1x zoom affordance 2622b to indicate the new zoom level, the device 600 displays the 0.5x zoom affordance 2622a as unselected (or selected). In FIG. 33C, the device 600 detects an additional tap gesture 3350e at a location corresponding to the 1x zoom affordance 2622b.

図33Dに示すように、タップジェスチャ3350eを検出したことに応じて、デバイス600は、第3のカメラセンサから異なる視野を有する第1のカメラセンサに切り替えることにより、ライブプレビュー630のズームレベルを、図33Cの0.5×ズームレベルから1×ズームレベルに更新する。タップジェスチャ3350eを検出したことに応じて、デバイス600はまた、ズームアフォーダンス2622を更新する。具体的には、デバイス600は、0.5×ズームアフォーダンス2622aの表示を更新することにより、デバイス600は、選択されていないものとして0.5×ズームアフォーダンス2622aを表示する(例えば、図33Bの1×ズームアフォーダンス2622bに関連して上述したものと同様の技術を使用して)。更には、デバイス600はまた、1×ズームアフォーダンス2622bの表示を更新することにより、デバイス600は、選択されているものとして1×ズームアフォーダンス2622bを表示する(例えば、図33Bの2×ズームアフォーダンス2622cに関連して上述したものと同様の技術を使用して)。加えて、タップジェスチャ3350eを検出したことに応じて、デバイス600は、2×ズームアフォーダンス2622cの表示を維持する(例えば、2×ズームアフォーダンス2622cは、未選択のままである)。いくつかの実施形態では、タップジェスチャ3350eを検出したことに応じて、デバイス600は、ズームアフォーダンス2622のテキストを増加させる。いくつかの実施形態では、デバイス600は、デバイスがより大きいズームレベルでライブプレビュー630を表示しているため(例えば、図33Aの0.5×ズームレベルから図33Bの1×ズームレベルへ)、テキストを増加させる。図33Dでは、デバイス600は、2×ズームアフォーダンス2622cに対応する位置でのタップジェスチャ3350fを検出する。 As shown in FIG. 33D, in response to detecting the tap gesture 3350e, the device 600 updates the zoom level of the live preview 630 from the 0.5× zoom level of FIG. 33C to the 1× zoom level by switching from the third camera sensor to the first camera sensor having a different field of view. In response to detecting the tap gesture 3350e, the device 600 also updates the zoom affordance 2622. Specifically, the device 600 updates the display of the 0.5× zoom affordance 2622a such that the device 600 displays the 0.5× zoom affordance 2622a as not selected (e.g., using a technique similar to that described above in connection with the 1× zoom affordance 2622b of FIG. 33B). Furthermore, the device 600 also updates the display of the 1× zoom affordance 2622b such that the device 600 displays the 1× zoom affordance 2622b as selected (e.g., using a technique similar to that described above in connection with the 2× zoom affordance 2622c of FIG. 33B). Additionally, in response to detecting tap gesture 3350e, device 600 maintains display of 2x zoom affordance 2622c (e.g., 2x zoom affordance 2622c remains unselected). In some embodiments, in response to detecting tap gesture 3350e, device 600 increases the text of zoom affordance 2622. In some embodiments, device 600 increases the text because the device is displaying live preview 630 at a larger zoom level (e.g., from the 0.5x zoom level in FIG. 33A to the 1x zoom level in FIG. 33B). In FIG. 33D, device 600 detects tap gesture 3350f at a location corresponding to 2x zoom affordance 2622c.

図33Eに示すように、タップジェスチャ3350fを検出したことに応じて、デバイス600は、第3のカメラセンサから異なる視野を有する第1のカメラセンサに切り替えることにより、ライブプレビュー630のズームレベルを、図33Dの1×ズームレベルから2×ズームレベルに更新する。タップジェスチャ3350fを検出したことに応じて、デバイス600はまた、ズームアフォーダンス2622を更新する。具体的には、デバイス600は、(例えば、図33Bに関連して上述したようなものと同様の技術を使用して)選択されているものとして1×ズームアフォーダンス2622b及び2×ズームアフォーダンス2622cの表示を更新する。加えて、タップジェスチャ3350fを検出したことに応じて、デバイス600は、0.5×ズームアフォーダンス2622aの表示を維持する(例えば、0.5×ズームアフォーダンス2622aは、未選択のままである)。図33Eでは、デバイス600は、2×ズームアフォーダンス2622cに対応する位置での追加のタップジェスチャ3350gを検出する。 As shown in FIG. 33E, in response to detecting the tap gesture 3350f, the device 600 updates the zoom level of the live preview 630 from the 1× zoom level of FIG. 33D to a 2× zoom level by switching from the third camera sensor to a first camera sensor having a different field of view. In response to detecting the tap gesture 3350f, the device 600 also updates the zoom affordances 2622. Specifically, the device 600 updates the display of the 1× zoom affordance 2622b and the 2× zoom affordance 2622c as selected (e.g., using a technique similar to that described above in connection with FIG. 33B). In addition, in response to detecting the tap gesture 3350f, the device 600 maintains the display of the 0.5× zoom affordance 2622a (e.g., the 0.5× zoom affordance 2622a remains unselected). In FIG. 33E, the device 600 detects an additional tap gesture 3350g at a location corresponding to the 2x zoom affordance 2622c.

図33Fに示すように、タップジェスチャ3350gを検出したことに応じて、デバイス600は、ズームアフォーダンス2622及びライブプレビュー630のズームレベルを更新することをやめる。図33Eにおいて、ライブプレビュー630は、2×ズームレベルで表示され続ける。ここで、1×ズームアフォーダンス2622b上のタップジェスチャの検出とは異なり(例えば、図35B~図35Dに記載される)、デバイス600は、2×ズームアフォーダンス2622c上の追加のタップに応じて、複数のズームレベルでライブプレビュー630を表示しない。したがって、デバイス600が、2×ズームアフォーダンス2622cがズームレベルを循環させることができないズームアフォーダンスのタイプであると判定するので、デバイス600は、ジェスチャ3350gを検出したことに応じて、ライブプレビュー630のズームレベルを更新することをやめる。しかしながら、デバイス600が、0.5×ズームアフォーダンス2622cがズームレベルを循環させることができるズームアフォーダンスのタイプである(例えば、1×ズームアフォーダンス2622bなど)と判定したので、デバイス600は、ジェスチャ3350gを検出したことに応じて、ライブプレビュー630のズームレベルを更新した。 As shown in FIG. 33F, in response to detecting the tap gesture 3350g, the device 600 ceases updating the zoom level of the zoom affordance 2622 and the live preview 630. In FIG. 33E, the live preview 630 continues to be displayed at the 2× zoom level. Now, unlike detecting a tap gesture on the 1× zoom affordance 2622b (e.g., as described in FIGS. 35B-35D), the device 600 does not display the live preview 630 at multiple zoom levels in response to an additional tap on the 2× zoom affordance 2622c. Thus, because the device 600 determines that the 2× zoom affordance 2622c is a type of zoom affordance that cannot cycle through zoom levels, the device 600 ceases updating the zoom level of the live preview 630 in response to detecting the gesture 3350g. However, because the device 600 determined that the 0.5x zoom affordance 2622c is a type of zoom affordance that can cycle through zoom levels (e.g., like the 1x zoom affordance 2622b), the device 600 updated the zoom level of the live preview 630 in response to detecting the gesture 3350g.

図33F~図33Oは、より多くのズームアフォーダンスのうちの1つの上のスワイプジェスチャ又はプレスホールドジェスチャに応じて、調整可能なズームコントロールを表示し、かつ調整可能なズームコントロールに向けられたジェスチャを検出したことに応じて、ライブプレビューのズームレベルを変更するデバイス600を示す。図33Fでは、デバイス600は、2×ズームアフォーダンス2622cに対応する位置での上向きスワイプジェスチャ3550h(例えば、コントロール領域606からインジケータ領域602に向かう上スワイプジェスチャ)を検出する。代わりに、デバイス600デバイスは、2×ズームアフォーダンス2622cに対応する位置でのプレスアンドホールドジェスチャを検出する。 33F-33O show a device 600 that displays an adjustable zoom control in response to a swipe gesture or press-and-hold gesture on one of more zoom affordances, and changes the zoom level of the live preview in response to detecting a gesture directed toward the adjustable zoom control. In FIG. 33F, the device 600 detects an upward swipe gesture 3550h (e.g., an up swipe gesture from the control region 606 toward the indicator region 602) at a location corresponding to the 2x zoom affordance 2622c. Instead, the device 600 detects a press-and-hold gesture at a location corresponding to the 2x zoom affordance 2622c.

図33Gに示すように、上向きスワイプジェスチャ3350h(又はプレスアンドホールドジェスチャ)を検出したことに応じて、デバイス600は、調整可能なズームコントロール3328を表示し、かつズームアフォーダンス2622を表示することを停止する。調整可能なズームコントロール3328は、図33Gにおいて、ズームアフォーダンス2622が図33Fに以前に表示された位置を覆う。いくつかの実施形態では、デバイス600は、カメラディスプレイ領域604の底部から、図33Gに表示されるカメラディスプレイ領域604内の位置にスライドする、調整可能なズームコントロール3328のアニメーションを表示することにより、調整可能なズームコントロール3328は表示する。 As shown in FIG. 33G, in response to detecting an upward swipe gesture 3350h (or a press-and-hold gesture), the device 600 displays the adjustable zoom control 3328 and stops displaying the zoom affordance 2622. The adjustable zoom control 3328 covers in FIG. 33G the location where the zoom affordance 2622 was previously displayed in FIG. 33F. In some embodiments, the device 600 displays the adjustable zoom control 3328 by displaying an animation of the adjustable zoom control 3328 sliding from the bottom of the camera display area 604 to the position within the camera display area 604 displayed in FIG. 33G.

図33Gに示すように、調整可能なズームコントロール3328は、仮想的に回転可能な車輪又はダイヤルを模倣する回転可能なユーザインタフェースである。調整可能なズームコントロール3328は、ズームインジケーション3328a1及び複数のティックマークを含み、各ティックマークは、異なるズームレベルに対応する。調整可能なズームコントロール3328上の各ティックマークは、一部と等しい距離ではない。図3328に示すように、調整可能なズームコントロール3328は、各々が第1の距離だけ離れて表示される第1の1組のティックマーク(例えば、1×ズームインジケータ3328bの下のティックマーク)及び各々が第2の距離だけ離れて表示される第2の1組のティックマーク(例えば、1×ズームインジケータ3328bの上のティックマーク)を含む。調整可能なズームコントロール3328は、1×ズームインジケータ3328b、2×ズームインジケータ3328c、及び3×レベルインジケータ3328dを更に含み、これは、1×ズームレベル、2×ズームレベル、及び3×ズームレベルにそれぞれ対応する、調整可能なズームコントロール3328上にティックマーク(又は位置)が配置される。 As shown in FIG. 33G, adjustable zoom control 3328 is a rotatable user interface that mimics a virtually rotatable wheel or dial. Adjustable zoom control 3328 includes zoom indication 3328a1 and a number of tick marks, each corresponding to a different zoom level. Each tick mark on adjustable zoom control 3328 is not at an equal distance apart. As shown in FIG. 3328, adjustable zoom control 3328 includes a first set of tick marks (e.g., the tick marks below 1× zoom indicator 3328b) each displayed a first distance apart and a second set of tick marks (e.g., the tick marks above 1× zoom indicator 3328b) each displayed a second distance apart. The adjustable zoom control 3328 further includes a 1x zoom indicator 3328b, a 2x zoom indicator 3328c, and a 3x level indicator 3328d, which are tick marks (or positions) located on the adjustable zoom control 3328 that correspond to the 1x zoom level, the 2x zoom level, and the 3x zoom level, respectively.

図33Gに示すように、上向きスワイプジェスチャ3350h(又はプレスアンドホールドジェスチャ)を検出したことに応じて、デバイス600は、2×ズームインジケータ3328cで標識されたティックマークに対応する、調整可能なズームコントロール3328上の位置にズームインジケーション3328a1を表示する。ここで、デバイス600は、実質的に調整可能なズームコントロール3328の中心にある位置で、2×ズームインジケータ3328cと位置合わせされたズームインジケーション3328a1を表示する。換言すれば、調整可能なズームコントロール3328が最初に表示されると、デバイス600は、ライブプレビュー630の現在のズームレベル(例えば、2×ズームレベル)に対応する調整可能なズームコントロール上の位置(例えば、中央位置)にズームインジケーション3328a1を表示する。更には、デバイス600は、選択されているものとして2×ズームインジケータ3328cを表示することによって、2×ズームレベルが選択されることを表示する。いくつかの実施形態では、調整可能なズームコントロール3328が最初に表示されると(又は調整可能なズームコントロール3328が表示された後の第1の時点で)、デバイス600は、ズームアフォーダンス2622のそれぞれに対応するズームインジケータを同時に表示する。図33Gでは、デバイス600は、ズームコントロール3328に対応する位置での右向きスワイプジェスチャ3350iを検出する。 33G, in response to detecting an upward swipe gesture 3350h (or a press and hold gesture), the device 600 displays a zoom indication 3328a1 at a location on the adjustable zoom control 3328 that corresponds to the tick mark labeled with the 2x zoom indicator 3328c. Here, the device 600 displays the zoom indication 3328a1 aligned with the 2x zoom indicator 3328c at a location that is substantially centered on the adjustable zoom control 3328. In other words, when the adjustable zoom control 3328 is initially displayed, the device 600 displays the zoom indication 3328a1 at a location on the adjustable zoom control that corresponds to the current zoom level (e.g., the 2x zoom level) of the live preview 630 (e.g., the center position). Furthermore, the device 600 indicates that the 2x zoom level is selected by displaying the 2x zoom indicator 3328c as selected. In some embodiments, when the adjustable zoom control 3328 is first displayed (or at the first time after the adjustable zoom control 3328 is displayed), the device 600 simultaneously displays zoom indicators corresponding to each of the zoom affordances 2622. In FIG. 33G, the device 600 detects a right swipe gesture 3350i at a location corresponding to the zoom control 3328.

図33Gに示すように、右向きスワイプジェスチャ3350iを検出したことに応じて、デバイス600は、右向きスワイプジェスチャ3350iの大きさに基づいて、調整可能なズームコントロール3328を時計回りに回転させる。デバイス600が調整可能なズームコントロール3328を回転させると、デバイス600は、調整可能なズームコントロール3328上のティックマークを、それらが以前に表示された位置に対して時計回りである位置に動かす。更に、右向きスワイプジェスチャ3350iを検出したことに応じて、デバイス600は、2×ズームインジケータ3328cを、1.7×ズームインジケータ3328eに置き換え、かつ実質的に調整可能なズームコントロール3328の中心の位置にズームインジケーション3328a1を維持する。それにより、図33Gにおいて、デバイス600は、1.7×ズームインジケータ3328eと位置合わせされているようにズームインジケーション3328a1を表示し、デバイス600は、選択されているものとして1.7×ズームインジケータ3328eを表示する。図33Hでは、デバイス600は、ズームコントロール3328に対応する第2の位置での右向きスワイプジェスチャ3350iのリフトオフを検出する。 33G, in response to detecting the right swipe gesture 3350i, the device 600 rotates the adjustable zoom control 3328 clockwise based on the magnitude of the right swipe gesture 3350i. As the device 600 rotates the adjustable zoom control 3328, the device 600 moves the tick marks on the adjustable zoom control 3328 to a position that is clockwise relative to the position where they were previously displayed. Further, in response to detecting the right swipe gesture 3350i, the device 600 replaces the 2x zoom indicator 3328c with a 1.7x zoom indicator 3328e and maintains the zoom indication 3328a1 at a substantially centered position of the adjustable zoom control 3328. Thereby, in FIG. 33G, the device 600 displays the zoom indication 3328a1 as aligned with the 1.7× zoom indicator 3328e, and the device 600 displays the 1.7× zoom indicator 3328e as selected. In FIG. 33H, the device 600 detects lift-off of the right swipe gesture 3350i at a second position corresponding to the zoom control 3328.

図33Iに示すように、右向きスワイプジェスチャ3350iのリフトオフを検出した後の第1の時間において、デバイス600は、調整可能なズームコントロール3328を表示することを停止し、かつ0.5×ズームアフォーダンス2622a及び2×ズームアフォーダンス2622cを、図33Fにそれらが以前に表示された位置で再表示する。しかしながら、デバイス600は、1×ズームアフォーダンス2622bを表示することを停止し、かつ1.7×ズームアフォーダンス2622iを、図33Fにおいて1×ズームアフォーダンス2622bの以前に表示された位置に表示する。これは、少なくとも調整可能なズームコントロールが1.7×ズームレベルに設定されているためであり、1.7×ズームレベルは、ズームアフォーダンスを置き換えるためのズームレベルの範囲の間(例えば、1×と2×との間などの所定の範囲)にある。1.7×ズームアフォーダンス2622jはまた、選択されているものとして表示される(図33Bにおいて2×ズームアフォーダンス2622c関連して上述したように)。ズームアフォーダンスを表示することに加えて、デバイス600はまた、ライブプレビュー630のズームレベルを、1.7×ズームレベルに更新する。いくつかの実施形態では、デバイス600は、右向きスワイプジェスチャ3350iを検出したことに応じて、かつ右向きスワイプジェスチャ3350iのリフトオフを検出する前に、ライブプレビュー630のズームレベルを更新する。図33Iでは、デバイス600は、0.5×ズームアフォーダンス2622aに対応する位置でのタップジェスチャ3350jを検出する。 As shown in FIG. 33I, at a first time after detecting lift-off of the right swipe gesture 3350i, the device 600 stops displaying the adjustable zoom control 3328 and re-displays the 0.5× zoom affordance 2622a and the 2× zoom affordance 2622c in the positions where they were previously displayed in FIG. 33F. However, the device 600 stops displaying the 1× zoom affordance 2622b and displays the 1.7× zoom affordance 2622i in the position where the 1× zoom affordance 2622b was previously displayed in FIG. 33F. This is because at least the adjustable zoom control is set to the 1.7× zoom level, which is between the range of zoom levels for replacing the zoom affordances (e.g., a predetermined range, such as between 1× and 2×). The 1.7× zoom affordance 2622j is also displayed as selected (as described above in connection with the 2× zoom affordance 2622c in FIG. 33B). In addition to displaying the zoom affordance, device 600 also updates the zoom level of live preview 630 to the 1.7x zoom level. In some embodiments, device 600 updates the zoom level of live preview 630 in response to detecting right swipe gesture 3350i and before detecting lift-off of right swipe gesture 3350i. In FIG. 33I, device 600 detects tap gesture 3350j at a location corresponding to 0.5x zoom affordance 2622a.

図33Jに示すように、タップジェスチャ3350jを検出したことに応じて、デバイス600は、ライブプレビュー630のズームレベルを0.5×ズームレベルに更新する。更に、タップジェスチャ3350jを検出したことに応じて、デバイス600は、ライブプレビュー630がデフォルトズームレベル(例えば、ズームアフォーダンス2622のうちの1つに対応するズームレベル)で表示されるため、1.7×ズームアフォーダンス2622jの表示を、2×ズームアフォーダンス2622hで置き換える。図33Jに示すように、デバイス600はまた、図33Cにおいてライブプレビュー630が0.5×ズームレベルで表示されたとき、カメラユーザインタフェースを表示することに関連して上述したものと同様の技術を使用して、カメラユーザインタフェースを更新する。図33Jでは、デバイス600は、0.5×ズームアフォーダンス2622aに対応する位置での上向きスワイプジェスチャ3350kを検出する。あるいは、デバイス600デバイスは、0.5×ズームアフォーダンス2622aに対応する位置でのプレスアンドホールドジェスチャを検出する。 As shown in FIG. 33J, in response to detecting the tap gesture 3350j, the device 600 updates the zoom level of the live preview 630 to a 0.5× zoom level. Further, in response to detecting the tap gesture 3350j, the device 600 replaces the display of the 1.7× zoom affordance 2622j with the 2× zoom affordance 2622h because the live preview 630 is displayed at a default zoom level (e.g., a zoom level corresponding to one of the zoom affordances 2622). As shown in FIG. 33J, the device 600 also updates the camera user interface using techniques similar to those described above in connection with displaying the camera user interface when the live preview 630 is displayed at the 0.5× zoom level in FIG. 33C. In FIG. 33J, the device 600 detects an upward swipe gesture 3350k at a location corresponding to the 0.5× zoom affordance 2622a. Alternatively, the device 600 device detects a press and hold gesture at a position corresponding to the 0.5x zoom affordance 2622a.

図33Kに示すように、上向きスワイプジェスチャ3350k(又はプレスアンドホールドジェスチャ)を検出したことに応じて、デバイス600は、調整可能なズームコントロール3328の中心の位置にズームインジケーション3328a1を表示する。上向きスワイプジェスチャ3350kが検出される直前に、ライブプレビュー630が0.5×ズームレベルで表示されたため、デバイス600は、0.5×ズームインジケータ3328aと位置合わせされたズームインジケーション3328a1を表示する。更には、デバイス600は、カメラユーザインタフェース及びデバイス600がカメラユーザインタフェースを表示することに関連して使用された0.5×ズームレベルが選択されるときの調整可能なズームコントロール3328及び2×ズームレベルが図33Gにおいて選択されたときの調整可能なズームコントロール3328を表示するのと同様の技術を使用する。図33Kでは、デバイス600は、ズームコントロール3328に対応する位置での左向きスワイプジェスチャ3350lを検出する。 As shown in FIG. 33K, in response to detecting an upward swipe gesture 3350k (or a press and hold gesture), the device 600 displays a zoom indication 3328a1 at the center of the adjustable zoom control 3328. Because the live preview 630 was displayed at the 0.5× zoom level immediately before the upward swipe gesture 3350k was detected, the device 600 displays the zoom indication 3328a1 aligned with the 0.5× zoom indicator 3328a. Furthermore, the device 600 uses a similar technique to display the adjustable zoom control 3328 when the 0.5× zoom level is selected and the adjustable zoom control 3328 when the 2× zoom level is selected in FIG. 33G used in connection with the camera user interface and the device 600 displaying the camera user interface. In FIG. 33K, the device 600 detects a leftward swipe gesture 3350l at a location corresponding to the zoom control 3328.

図33Lに示すように、ズームコントロール3328に対応する位置で左向きスワイプジェスチャ3350lを検出したことに応じて、デバイスは、左向きスワイプジェスチャ3350lの大きさに基づいて、調整可能なズームコントロール3328を反時計回りに回転させる。調整可能なズームコントロール3328を回転させた後、デバイス600は、調整可能なズームコントロール3328上の中心位置で、1×ズームインジケータ3328bと位置合わせされているようにズームインジケーション3328a1を表示する。更には、デバイス600は、デバイス600が、図33Hにおいて右向きスワイプジェスチャ3350iを検出したことに応じて、カメラユーザインタフェースを表示することに関連して使用された、左向きスワイプジェスチャ3350lを検出したことに応じて、カメラユーザインタフェースを表示するのと同様の技術を使用する。図33Lでは、デバイス600は、左向きスワイプジェスチャ3350lのリフトオフを検出し、かつ左向きスワイプジェスチャ3350lのリフトオフを検出した後の第1の時間(例えば、デバイス600が調整可能なズームコントロール3328を表示することを停止する時間に対応する時間)の前に、デバイス600は、ズームコントロール3328の外側及びカメラディスプレイ領域604内の位置に対応する位置でのタップジェスチャ3350mを検出する。 As shown in FIG. 33L, in response to detecting a left swipe gesture 3350l at a position corresponding to the zoom control 3328, the device rotates the adjustable zoom control 3328 counterclockwise based on the magnitude of the left swipe gesture 3350l. After rotating the adjustable zoom control 3328, the device 600 displays a zoom indication 3328a1 at a center position on the adjustable zoom control 3328 and aligned with the 1× zoom indicator 3328b. Furthermore, the device 600 uses a technique for displaying a camera user interface in response to detecting a left swipe gesture 3350l similar to that used in connection with displaying a camera user interface in response to the device 600 detecting a right swipe gesture 3350i in FIG. 33H. In FIG. 33L, the device 600 detects lift-off of the left swipe gesture 3350l, and before a first time after detecting the lift-off of the left swipe gesture 3350l (e.g., a time corresponding to the time the device 600 stops displaying the adjustable zoom control 3328), the device 600 detects a tap gesture 3350m at a location corresponding to a location outside the zoom control 3328 and within the camera display area 604.

図33Mに示すように、左向きスワイプジェスチャ3350lのリフトオフを検出した後の第1の時間の前に、タップジェスチャ3350mを検出したことに応じて、デバイス600は、調整可能なズームコントロール3328を表示することを停止し、かつ複数のズームアフォーダンス2622を再表示する。更には、デバイス600はまた、上述したものと同様の技術を使用して、1×ズームレベルでライブプレビュー630を表示する。図33Iとは対照的に、図33Mは、デバイス600がどのように調整可能なズームコントロール628を表示することを停止し、かつジェスチャのリフトオフを検出した後の第1の時間まで待機する前に、調整可能なズームコントロール628上に設定されたズームレベルでライブプレビュー630を表示するかの例を示す。図33Mでは、デバイスは、0.5×ズームアフォーダンス2622aに対応する位置での上向きスワイプジェスチャ3350nを検出する。あるいは、デバイス600デバイスは、0.5×ズームアフォーダンス2622aに対応する位置でのプレスアンドホールドジェスチャを検出する。 As shown in FIG. 33M, in response to detecting a tap gesture 3350m before a first time after detecting lift-off of a left swipe gesture 3350l, the device 600 stops displaying the adjustable zoom control 3328 and redisplays the plurality of zoom affordances 2622. Furthermore, the device 600 also displays a live preview 630 at a 1× zoom level using a technique similar to that described above. In contrast to FIG. 33I, FIG. 33M shows an example of how the device 600 stops displaying the adjustable zoom control 628 and displays a live preview 630 at a zoom level set on the adjustable zoom control 628 before waiting until a first time after detecting lift-off of the gesture. In FIG. 33M, the device detects an upward swipe gesture 3350n at a position corresponding to a 0.5× zoom affordance 2622a. Alternatively, the device 600 device detects a press-and-hold gesture at a position corresponding to a 0.5× zoom affordance 2622a.

図33Nに示すように、0.5×ズームアフォーダンス2622aに対応する位置での上向きスワイプジェスチャ3350n(又はプレスアンドホールドジェスチャ)を検出したことに応じて、デバイス600は、調整可能なズームコントロール3328上の中心位置で、1×ズームインジケータ3328bと位置合わせされているようにズームインジケーション3328a1を表示し、かつズームアフォーダンス2622を表示することを停止する。ここで、図33Nでは、デバイス600は、上向きスワイプジェスチャ3350nが検出される直前に、ライブプレビュー630が1×ズームレベルで表示されたため(例えば、カメラユーザインタフェース及び/又はライブプレビュー630の現在表示されているズームレベル)、ズームレベルではなく1×ズームインジケータ3328bと位置合わせされているようにズームインジケーション3328a1を表示する。図33Nでは、デバイス600は、ズームコントロール3328の外側及びカメラディスプレイ領域604内の位置に対応する位置でのタップジェスチャ3350oを検出する。 33N, in response to detecting an upward swipe gesture 3350n (or a press and hold gesture) at a location corresponding to the 0.5x zoom affordance 2622a, the device 600 displays a zoom indication 3328a1 aligned with the 1x zoom indicator 3328b at a center location on the adjustable zoom control 3328 and stops displaying the zoom affordance 2622. Now, in FIG. 33N, the device 600 displays the zoom indication 3328a1 aligned with the 1x zoom indicator 3328b instead of the zoom level because the live preview 630 was displayed at a 1x zoom level (e.g., the currently displayed zoom level of the camera user interface and/or the live preview 630) immediately before the upward swipe gesture 3350n was detected. In FIG. 33N, the device 600 detects a tap gesture 3350o at a location corresponding to a location outside the zoom control 3328 and within the camera display area 604.

図33Oに示すように、タップジェスチャ3350oを検出した後に、デバイス600は、調整可能なズームコントロール3328を表示することを停止し、かつズームアフォーダンス2622を再表示する。図33Oでは、デバイス600は、カメラディスプレイ領域604に対応する位置でのデピンチジェスチャ3350pを検出する。 As shown in FIG. 33O, after detecting the tap gesture 3350o, the device 600 stops displaying the adjustable zoom control 3328 and redisplays the zoom affordance 2622. In FIG. 33O, the device 600 detects a de-pinch gesture 3350p at a location corresponding to the camera display area 604.

図33Pに示すように、デピンチジェスチャ3350pを検出したことに応じて、デバイス600は、デピンチジェスチャ3350pの大きさに基づいて、2.2×ズームレベルでライブプレビュー630を表示する。加えて、デピンチジェスチャ3350pを検出したことに応じて、デバイス600は、2×ズームアフォーダンス2622cの表示を、2.2×ズームアフォーダンス2622gの表示に置き換え、ここで、2.2×ズームアフォーダンス2622gが、選択されているものとして表示されて、ライブプレビュー630が2.2×ズームレベルで表示されることを示す。ここで、デバイス600は、2.2×ズームレベルがズームアフォーダンスを置き換えるためのズームレベルを上回る(例えば、2×を上回る)であるため、2×ズームアフォーダンス2622cを、2.2×ズームアフォーダンス2622gに置き換える。図31Bに示すように、デピンチジェスチャ3150aを検出したことに応じて、デバイス600は、更に、選択されているものとして2.2×ズームアフォーダンス2622gを表示して、ライブプレビュー630が2.2×ズームレベルで表示されることを示す。図33Pでは、デバイス600は、カメラディスプレイ領域604に対応する位置でのピンチジェスチャ3350qを検出する。 33P, in response to detecting the de-pinch gesture 3350p, the device 600 displays the live preview 630 at a 2.2x zoom level based on the magnitude of the de-pinch gesture 3350p. Additionally, in response to detecting the de-pinch gesture 3350p, the device 600 replaces the display of the 2x zoom affordance 2622c with a display of the 2.2x zoom affordance 2622g, where the 2.2x zoom affordance 2622g is displayed as selected to indicate that the live preview 630 is displayed at the 2.2x zoom level. Here, the device 600 replaces the 2x zoom affordance 2622c with the 2.2x zoom affordance 2622g because the 2.2x zoom level is greater than the zoom level for replacing the zoom affordance (e.g., greater than 2x). As shown in FIG. 31B, in response to detecting the de-pinch gesture 3150a, the device 600 further displays the 2.2× zoom affordance 2622g as being selected to indicate that the live preview 630 will be displayed at a 2.2× zoom level. In FIG. 33P, the device 600 detects a pinch gesture 3350q at a location corresponding to the camera display area 604.

図33Qに示すように、ピンチジェスチャ3350qを検出したことに応じて、デバイス600は、ピンチジェスチャ3550qの大きさに基づいて、0.9×ズームレベルでライブプレビュー630を表示する。加えて、ピンチジェスチャ3350qを検出したことに応じて、デバイス600は、0.5×ズームアフォーダンス2622aの表示を、0.9×ズームアフォーダンス2622dの表示に置き換える。ここで、デバイス600は、0.9×ズームレベルがズームアフォーダンスを置き換えるための閾値ズームレベル(例えば、1×)を下回るため、0.5×ズームアフォーダンス2622aを、0.9×ズームアフォーダンス2622dに置き換える。ズームレベルが2×ズームレベルをもはや上回らないため、デバイス600はまた、2.2×ズームアフォーダンス2622gを、2×ズームアフォーダンス2622cに置き換える。ピンチジェスチャ3350qを検出したことに応じて、デバイス600は、更に、選択されているものとして0.9×ズームアフォーダンス2622dを表示して、ライブプレビュー630が0.9×ズームレベルで表示されることを示す。 33Q, in response to detecting pinch gesture 3350q, device 600 displays live preview 630 at a 0.9x zoom level based on the magnitude of pinch gesture 3550q. Additionally, in response to detecting pinch gesture 3350q, device 600 replaces the display of 0.5x zoom affordance 2622a with the display of 0.9x zoom affordance 2622d. Here, device 600 replaces 0.5x zoom affordance 2622a with 0.9x zoom affordance 2622d because the 0.9x zoom level is below a threshold zoom level (e.g., 1x) for replacing zoom affordances. Device 600 also replaces 2.2x zoom affordance 2622g with 2x zoom affordance 2622c because the zoom level is no longer above the 2x zoom level. In response to detecting the pinch gesture 3350q, the device 600 further displays the 0.9x zoom affordance 2622d as being selected to indicate that the live preview 630 will be displayed at the 0.9x zoom level.

図34A~図34Bは、いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための方法を示すフロー図である。方法3400は、表示デバイス(例えば、タッチ感知ディスプレイ)を備えたデバイス(例えば、100、300、500、600)で実行される。方法3400のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 34A-34B are flow diagrams illustrating a method for changing a zoom level using an electronic device, according to some embodiments. Method 3400 is performed on a device (e.g., 100, 300, 500, 600) with a display device (e.g., a touch-sensitive display). Some operations of method 3400 are optionally combined, the order of some operations is optionally changed, and some operations are optionally omitted.

いくつかの実施形態では、電子デバイス(例えば、600)は、コンピュータシステムである。コンピュータシステムは、任意選択的に、ディスプレイ生成構成要素と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the electronic device (e.g., 600) is a computer system. The computer system is optionally in communication (e.g., wired communication, wireless communication) with a display generation component and with one or more input devices. The display generation component is configured to provide visual output, such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. The one or more input devices are configured to receive input, such as a touch-sensitive surface that receives user input. In some embodiments, the one or more input devices are integrated with the computer system. In some embodiments, the one or more input devices are separate from the computer system. Thus, the computer system can transmit data (e.g., image data or video data) via a wired or wireless connection to an integrated or external display generation component to visually generate content (e.g., using a display device) and can receive wired or wireless connection input from one or more input devices.

後述するように、方法3400は、ユーザインタフェースのズームレベルを変更するための直感的な仕方を提供する。この方法は、ユーザインタフェースのズームレベルを変更する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にズームレベルを変更することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, method 3400 provides an intuitive way to change the zoom level of a user interface. The method reduces the cognitive burden on a user when changing the zoom level of a user interface, thereby creating a more efficient human-machine interface. For battery-operated computing devices, enabling a user to change zoom levels more quickly and efficiently conserves power and extends the time between battery charges.

後述するように、方法3400は、キャプチャされたメディアを編集するための直感的な仕方を提供する。この方法は、メディアを編集する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアを編集することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, the method 3400 provides an intuitive way to edit captured media. The method reduces the cognitive burden on the user when editing media, thereby creating a more efficient human-machine interface. For battery-operated computing devices, enabling users to edit media more quickly and efficiently conserves power and extends the time between battery charges.

電子デバイス(例えば、600)は、表示デバイス(例えば、タッチ感知ディスプレイ)及び1つ以上のカメラ(例えば、電子デバイスの同じ側又は異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を含む。電子デバイスは、表示デバイスを介して、第1のズームレベル(例えば、.5×、1×、2×)で表示された1つ以上のカメラの視野の少なくとも一部分の第1の表現(例えば、630)を含むカメラユーザインタフェースを表示する(3402)。カメラユーザインタフェースは、複数のズームアフォーダンス(例えば、2622)(例えば、選択可能ユーザインタフェースオブジェクト)を含む。複数のズームアフォーダンスは、第1のズームアフォーダンス(例えば、2622b)(例えば、選択可能ユーザインタフェースオブジェクト)及び第2のズームアフォーダンス(例えば、2622)(例えば、選択可能ユーザインタフェースオブジェクト)を含む。いくつかの実施形態では、ズームアフォーダンスは、1つ以上のカメラの視野の表現の少なくとも一部分上に重ね合わされて表示される。異なるズームレベルに対応する複数のズームアフォーダンスを表示することにより、ユーザが表示表現のズームレベルを変更するために必要とされる入力の数を低減する。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 An electronic device (e.g., 600) includes a display device (e.g., a touch-sensitive display) and one or more cameras (e.g., one or more cameras (e.g., dual camera, triple camera, quad camera, etc.) on the same or different sides (e.g., front camera, rear camera) of the electronic device). The electronic device displays (3402) a camera user interface including a first representation (e.g., 630) of at least a portion of the field of view of the one or more cameras displayed at a first zoom level (e.g., .5x, 1x, 2x) via the display device. The camera user interface includes a plurality of zoom affordances (e.g., 2622) (e.g., selectable user interface objects). The plurality of zoom affordances include a first zoom affordance (e.g., 2622b) (e.g., selectable user interface object) and a second zoom affordance (e.g., 2622) (e.g., selectable user interface object). In some embodiments, the zoom affordances are displayed superimposed on at least a portion of the representation of the field of view of the one or more cameras. Displaying multiple zoom affordances corresponding to different zoom levels reduces the number of inputs required for a user to change the zoom level of a displayed representation. Providing additional controls without cluttering the UI with additional controls displayed enhances usability of the device, makes the user-device interface more efficient (e.g., by helping the user provide appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

複数のズームアフォーダンスを表示している間に、電子デバイスは、複数のズームアフォーダンスのうちの1つに向けられた第1のジェスチャ(例えば、3350c~3350g)(例えば、タップ)を受信する(3404)(例えば、検出する)。 While displaying the multiple zoom affordances, the electronic device receives (3404) (e.g., detects) a first gesture (e.g., 3350c-3350g) (e.g., a tap) directed at one of the multiple zoom affordances.

第1のジェスチャを受信したことに応じて(3406)、かつ第1のジェスチャが第1のズームアフォーダンス(例えば、2622b)(例えば、特定のズームレベル(例えば、第2のズームレベル)に対応するアフォーダンス)に向けられたジェスチャ(例えば、3350c)であるとの判定に従って(3410)、電子デバイスは、第2のズームレベル(例えば、.5×、1×、2×)で、1つ以上のカメラの視野の少なくとも一部分の第2の表現(例えば、630)を表示する(3412)(例えば、第1のズームレベルで表示するように、カメラユーザインタフェースを更新する)。特定のズームアフォーダンスが選択されると表現の表示を特定のズームレベルに動的に更新することによって、特定のズームアフォーダンスに対する更新された表現のズームレベルの変化についてのフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In response to receiving a first gesture (3406) and in accordance with a determination (3410) that the first gesture is a gesture (e.g., 3350c) directed at a first zoom affordance (e.g., 2622b) (e.g., an affordance corresponding to a particular zoom level (e.g., a second zoom level)), the electronic device displays (3412) a second representation (e.g., 630) of at least a portion of the field of view of the one or more cameras at a second zoom level (e.g., .5x, 1x, 2x) (e.g., updating the camera user interface to display at the first zoom level). By dynamically updating the display of the representation to the particular zoom level upon selection of the particular zoom affordance, feedback is provided to the user as to the change in zoom level of the updated representation for the particular zoom affordance. Providing improved visual feedback to the user improves usability of the device and makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

第1のジェスチャを受信したことに応じて(3410)、かつ第1のジェスチャが第2のズームアフォーダンス(例えば、特定のズームレベル(例えば、第3のズームレベル)に対応するアフォーダンス)に向けられたジェスチャ(例えば、3350f)であるとの判定に従って(3416)、電子デバイスは、第3のズームレベル(例えば、.5×、1×、2×)で、1つ以上のカメラの視野の少なくとも一部分の第3の表現(例えば、630)を表示する(3418)(例えば、第2のズームレベルで表示するように、カメラユーザインタフェースを更新する)。いくつかの実施形態では、第3のズームレベルは、第1のズームレベル及び第2のズームレベルとは異なる。特定のズームアフォーダンスが選択されると表現の表示を特定のズームレベルに動的に更新することによって、特定のズームアフォーダンスに対する更新された表現のズームレベルの変化についてのフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In response to receiving the first gesture (3410), and in accordance with a determination (3416) that the first gesture is a gesture (e.g., 3350f) directed at a second zoom affordance (e.g., an affordance corresponding to a particular zoom level (e.g., a third zoom level)), the electronic device displays (3418) a third representation (e.g., 630) of at least a portion of the field of view of the one or more cameras at a third zoom level (e.g., .5x, 1x, 2x) (e.g., updating the camera user interface to display at the second zoom level). In some embodiments, the third zoom level is different from the first zoom level and the second zoom level. By dynamically updating the display of the representation to the particular zoom level upon selection of the particular zoom affordance, feedback is provided to the user about the change in zoom level of the updated representation for the particular zoom affordance. Providing improved visual feedback to the user improves usability of the device and makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のジェスチャが第1のズームアフォーダンスに向けられたジェスチャであるとの判定に従って(3410)、電子デバイスは、第2のズームアフォーダンス(例えば、3350cに応じて、図35Bの2622c)の視覚特性を維持し(例えば、視覚特性(例えば、色、テキスト、太さ、不透明度、ハイライト)を変更しない)、第1のズームアフォーダンス(例えば、3350cに応じて、図35Bの2622b)の視覚特性を変更する(3414)(例えば、第1のズームアフォーダンスの現在の視覚特性を、第1のズームアフォーダンスの新しい視覚特性に更新する、置き換える)(例えば、視覚特性(例えば、色、テキスト、太さ、不透明度、ハイライト)を変更する)。他のズームアフォーダンスの視覚特性を維持している間にズームアフォーダンスの視覚特性を更新することにより、選択されたズームアフォーダンスの現在の状態についてのフィードバックをユーザに提供し、並びにズームアフォーダンスが選択され、及び電子デバイスが、ズームアフォーダンスに対応し、かつ他のズームアフォーダンスに対応していないズームレベルで表現を現在表示していることを示す、視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, pursuant to a determination that the first gesture is a gesture directed toward the first zoom affordance (3410), the electronic device maintains the visual characteristics of the second zoom affordance (e.g., 2622c of FIG. 35B in response to 3350c) (e.g., does not change the visual characteristics (e.g., color, text, thickness, opacity, highlight)) and changes (3414) the visual characteristics of the first zoom affordance (e.g., 2622b of FIG. 35B in response to 3350c) (e.g., updates, replaces the current visual characteristics of the first zoom affordance with new visual characteristics of the first zoom affordance) (e.g., changes the visual characteristics (e.g., color, text, thickness, opacity, highlight)). Updating the visual characteristics of the zoom affordance while maintaining the visual characteristics of the other zoom affordances provides feedback to the user about the current state of the selected zoom affordance, and provides visual feedback to the user indicating that the zoom affordance has been selected and that the electronic device is currently displaying the representation at a zoom level that corresponds to the zoom affordance and that does not correspond to the other zoom affordances. Providing the user with improved visual feedback improves usability of the device and provides a more efficient user-device interface (e.g., by assisting the user in providing appropriate inputs and reducing user errors when operating/interacting with the device), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のジェスチャが第2のズームアフォーダンス(例えば、特定のズームレベル(例えば、第3のズームレベル)に対応するアフォーダンス)に向けられたジェスチャであるとの判定に従って(3416)、電子デバイスは、第1のズームアフォーダンス(例えば、3350fに応じて、図35Eの2622b)の視覚特性を維持し(例えば、視覚特性(例えば、色、テキスト、太さ、不透明度、ハイライト)を変更しない)、第2のズームアフォーダンス(例えば、3350fに応じて、図35Eの2622c)の視覚特性を変更する(3420)(例えば、第2のズームアフォーダンスの現在の視覚特性を、第2のズームアフォーダンスの新しい視覚特性に更新する、置き換える)(例えば、視覚特性(例えば、色、テキスト、太さ、不透明度、ハイライト)を変更する)。いくつかの実施形態では、第1のズームアフォーダンスの視覚特性及び第2のズームアフォーダンスの視覚特性は、視覚特性のタイプ(例えば、例えば、色、テキスト、太さ、不透明度、ハイライト)である。いくつかの実施形態では、視覚特性は、以前に選択されたズームアフォーダンスから新しいズームアフォーダンスに動かされる(例えば、選択された1×を示すズームアフォーダンス及び未選択の0.5を示すズームアフォーダンス、並びに第1のジェスチャを検出したことに応じて、1を示す1×を示したズームアフォーダンス及び.5×を示す5を示したズームアフォーダンス(例えば、「x」は、アフォーダンス間を動く)。いくつかの実施形態では、テキストのサイズは、選択されたアフォーダンスのズームレベルで変更する(例えば、0.5×アフォーダンスが選択されるときのテキストのサイズは、1×アフォーダンスが選択されるときのテキストのサイズよりも小さい)(例えば、ズームレベルがより大きいと、より大きなテキストを有する)。他のズームアフォーダンスの視覚特性を維持している間にズームアフォーダンスの視覚特性を更新することにより、選択されたズームアフォーダンスの現在の状態についてのフィードバックをユーザに提供し、並びにズームアフォーダンスが選択され、及び電子デバイスが、ズームアフォーダンスに対応し、かつ他のズームアフォーダンスに対応していないズームレベルで表現を現在表示していることを示す、視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, pursuant to a determination (3416) that the first gesture is a gesture directed toward a second zoom affordance (e.g., an affordance corresponding to a particular zoom level (e.g., a third zoom level)), the electronic device maintains the visual characteristics of the first zoom affordance (e.g., 2622b of FIG. 35E in response to 3350f) (e.g., does not change the visual characteristics (e.g., color, text, thickness, opacity, highlight)) and changes (3420) the visual characteristics of the second zoom affordance (e.g., 2622c of FIG. 35E in response to 3350f) (e.g., updates, replaces the current visual characteristics of the second zoom affordance with new visual characteristics of the second zoom affordance) (e.g., changes the visual characteristics (e.g., color, text, thickness, opacity, highlight)). In some embodiments, the visual characteristics of the first zoom affordance and the visual characteristics of the second zoom affordance are types of visual characteristics (e.g., color, text, thickness, opacity, highlight). In some embodiments, the visual characteristics are moved from the previously selected zoom affordance to the new zoom affordance (e.g., a zoom affordance indicating 1× selected and a zoom affordance indicating 0.5 unselected, and a zoom affordance indicating 1× indicating 1 and a zoom affordance indicating 5 indicating .5× in response to detecting the first gesture (e.g., the “x” moves between the affordances). In some embodiments, the size of the text changes with the zoom level of the selected affordance (e.g., the size of the text when the 0.5× affordance is selected is smaller than the size of the text when the 1× affordance is selected) (e.g., larger zoom levels have larger text). The visual characteristics of the zoom affordances are moved from the previously selected zoom affordance to the new zoom affordance while maintaining the visual characteristics of the other zoom affordances. Updating the visual characteristics of the zoom affordance provides the user with feedback about the current state of the selected zoom affordance, and provides visual feedback to the user indicating that a zoom affordance has been selected and that the electronic device is currently displaying the representation at a zoom level that corresponds to the zoom affordance and that does not correspond to other zoom affordances. Providing the user with improved visual feedback improves usability of the device and provides a more efficient user-device interface (e.g., by assisting the user in providing appropriate inputs and reducing user errors when operating/interacting with the device), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のズームアフォーダンスの視覚特性を変更することの一部として、第1のサイズから第2のサイズに第1のズームアフォーダンス(例えば、3350cに応答して、図35Bの2622b)のサイズを変更する(例えば、増加させる)ことのうちの1つ以上を含む。いくつかの実施形態では、第1のズームアフォーダンスの第2のサイズは、第2のズームアフォーダンスの現在のサイズ(例えば、3350cに応じて、図35Bの2622c)(例えば、第2のズームアフォーダンスが現在表示されているサイズ)とは異なり、第1のズームアフォーダンスの色を第1の色から第2の色へと変更している。いくつかの実施形態では、第1のズームアフォーダンスの第2の色は、第2のズームアフォーダンスの現在の色とは異なる(例えば、第2のズームアフォーダンスが現在表示されている色)。いくつかの実施形態では、第1のズームアフォーダンスの第1のサイズは、第2のズームアフォーダンスの現在のサイズと同じサイズである。いくつかの実施形態では、電子デバイスは、第1のサイズから第1のサイズとは異なる第2のサイズへと第1のズームアフォーダンスのサイズを増大する。他のズームアフォーダンスの視覚特性とは異なるようにズームアフォーダンスの視覚特性を更新することにより、選択されたズームアフォーダンスの現在の状態についてのフィードバックをユーザに提供し、並びにズームアフォーダンスが選択され、及び電子デバイスが、ズームアフォーダンスに対応し、かつ他のズームアフォーダンスに対応していないズームレベルで表現を現在表示していることを示す、視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, part of changing the visual characteristics of the first zoom affordance includes one or more of: changing (e.g., increasing) a size of the first zoom affordance (e.g., 2622b of FIG. 35B in response to 3350c) from a first size to a second size. In some embodiments, the second size of the first zoom affordance is different from the current size of the second zoom affordance (e.g., 2622c of FIG. 35B in response to 3350c) (e.g., the size at which the second zoom affordance is currently displayed), and changing a color of the first zoom affordance from a first color to a second color. In some embodiments, the second color of the first zoom affordance is different from the current color of the second zoom affordance (e.g., the color at which the second zoom affordance is currently displayed). In some embodiments, the first size of the first zoom affordance is the same size as the current size of the second zoom affordance. In some embodiments, the electronic device increases the size of the first zoom affordance from a first size to a second size different from the first size. Updating the visual characteristics of the zoom affordance to be different from the visual characteristics of the other zoom affordances provides feedback to the user about the current state of the selected zoom affordance, and provides visual feedback to the user indicating that the zoom affordance has been selected and that the electronic device is currently displaying the representation at a zoom level that corresponds to the zoom affordance and does not correspond to the other zoom affordances. Providing the user with improved visual feedback improves usability of the device and provides a more efficient user-device interface (e.g., by helping the user provide appropriate inputs and reducing user errors when operating/interacting with the device), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、電子デバイスは、第1のズームアフォーダンスの色を第1の色から第2の色に変更する。いくつかの実施形態では、第1のズームアフォーダンスの第2の色は、第2のズームアフォーダンスの現在の色とは異なる(例えば、第2のズームアフォーダンスが現在表示されている色)。いくつかの実施形態では、第1のズームアフォーダンスの第1の色は、第2のズームアフォーダンスの現在の色と同じ色である。いくつかの実施形態では、電子デバイスは、第1の色から第1の色とは異なる第2の色へと第1のズームアフォーダンスの色を変更する。他のズームアフォーダンスの視覚特性とは異なるようにズームアフォーダンスの視覚特性を更新することにより、選択されたズームアフォーダンスの現在の状態についてのフィードバックをユーザに提供し、並びにズームアフォーダンスが選択され、及び電子デバイスが、ズームアフォーダンスに対応し、かつ他のズームアフォーダンスに対応していないズームレベルで表現を現在表示していることを示す、視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the electronic device changes the color of the first zoom affordance from a first color to a second color. In some embodiments, the second color of the first zoom affordance is different from the current color of the second zoom affordance (e.g., the color at which the second zoom affordance is currently displayed). In some embodiments, the first color of the first zoom affordance is the same color as the current color of the second zoom affordance. In some embodiments, the electronic device changes the color of the first zoom affordance from the first color to a second color that is different from the first color. Updating the visual characteristics of the zoom affordance to be different from the visual characteristics of the other zoom affordances provides feedback to the user about the current state of the selected zoom affordance, as well as provides visual feedback to the user indicating that the zoom affordance has been selected and that the electronic device is currently displaying the representation at a zoom level that corresponds to the zoom affordance and that does not correspond to the other zoom affordances. Providing improved visual feedback to the user improves usability of the device and makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第2のズームレベル(例えば、.5×、1×、2×)で、1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示している(例えば、第1のズームレベルで表示されるようにカメラユーザインタフェースを更新する)間に、電子デバイスは、第1のズームアフォーダンスに向けられた第2のジェスチャを受信する。いくつかの実施形態では、第1のズームアフォーダンスに向けられた第2のジェスチャ(例えば、3350d、3550g)を受信したことに応じて、かつ第1のズームアフォーダンスが第1のそれぞれの基準(例えば、2622b)を満たすとの判定に従って、電子デバイスは、第4のズームレベル(例えば、.5×、1×、2×)で、1つ以上のカメラの視野の少なくとも一部分の第4の表現を表示する(例えば、第1のズームレベルで表示されるように、カメラユーザインタフェースを更新する)。いくつかの実施形態では、第1のそれぞれの基準は、ズームアフォーダンスがズームレベルを循環させることができるアフォーダンスのタイプであるときに満たされる1つ以上の基準を含み、ズームアフォーダンスは、複数のズームアフォーダンスの特定の位置(例えば、中心位置)に表示され、ズームアフォーダンスは、カメラユーザインタフェース上の特定の位置(例えば、中心位置)上に表示される。特定のアフォーダンス上の複数の入力を受信したことに応じて、表現を異なるズームレベルに更新することにより、ユーザインタフェースを雑然とさせることなく、あるズームアフォーダンスが電子デバイスのズームレベル間で変更できるように、デバイスの追加のコントロールを提供する。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, while displaying a second representation of at least a portion of the field of view of the one or more cameras at a second zoom level (e.g., .5x, 1x, 2x) (e.g., updating the camera user interface to be displayed at the first zoom level), the electronic device receives a second gesture directed at the first zoom affordance. In some embodiments, in response to receiving a second gesture directed at the first zoom affordance (e.g., 3350d, 3550g) and in accordance with a determination that the first zoom affordance satisfies the first respective criterion (e.g., 2622b), the electronic device displays a fourth representation of at least a portion of the field of view of the one or more cameras at a fourth zoom level (e.g., .5x, 1x, 2x) (e.g., updating the camera user interface to be displayed at the first zoom level). In some embodiments, the first respective criterion includes one or more criteria that are met when the zoom affordance is a type of affordance that can cycle through zoom levels, the zoom affordance is displayed at a particular location (e.g., a center location) of the plurality of zoom affordances, and the zoom affordance is displayed at a particular location (e.g., a center location) on the camera user interface. By updating the representation to different zoom levels in response to receiving multiple inputs on the particular affordance, additional controls on the device are provided to allow a zoom affordance to change between zoom levels of the electronic device without cluttering the user interface. Providing additional controls without cluttering the UI with additional controls displayed enhances the usability of the device and makes the user-device interface more efficient (e.g., by helping the user make appropriate inputs and reducing user errors when operating/interacting with the device), as well as reducing the device's power usage and improving battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のズームアフォーダンスに向けられた第2のジェスチャ(例えば、3350d、3550g)を受信したことに応じて、かつ第1のズームアフォーダンスが第2のそれぞれの基準(例えば、2622c)を満たすとの判定に従って、電子デバイスは、第4のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第4の表現を表示することをやめ、かつ第2のズームレベル(例えば、以前のズームレベル)で、1つ以上のカメラの視野の一部分の第2の表現の表示を維持する(例えば、ズームレベルを変更しない)。いくつかの実施形態では、第2のそれぞれの基準は、ズームアフォーダンスがズームレベルを循環させることができないアフォーダンスのタイプであるときに満たされる1つ以上の基準を含み、ズームアフォーダンスは、複数のズームアフォーダンスの特定の位置(例えば、中心位置でない、中心位置の左又は右、最左端又は最右端のズームアフォーダンス)に表示され、ズームアフォーダンスは、カメラユーザインタフェース上の特定の位置(例えば、中心の左又は右)上に表示される。特定のアフォーダンス上で複数の入力を受信したことに応じて、表現を異なるズームレベルに更新することをやめることにより、アフォーダンスが複数のズームレベルに進むために使用されることができず、かつあるズームレベルのみに関連付けられていることをユーザが迅速に判定する視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, in response to receiving a second gesture (e.g., 3350d, 3550g) directed at the first zoom affordance and in accordance with a determination that the first zoom affordance satisfies the second respective criterion (e.g., 2622c), the electronic device ceases displaying the fourth representation of at least a portion of the field of view of the one or more cameras at the fourth zoom level and maintains displaying the second representation of the portion of the field of view of the one or more cameras at the second zoom level (e.g., the previous zoom level) (e.g., does not change the zoom level). In some embodiments, the second respective criterion includes one or more criteria that are met when the zoom affordance is a type of affordance that cannot cycle through zoom levels, the zoom affordance is displayed at a particular location of the plurality of zoom affordances (e.g., not at a center location, left or right of the center location, leftmost or rightmost zoom affordance), and the zoom affordance is displayed on a particular location (e.g., left or right of center) on the camera user interface. Refusing to update the representation to different zoom levels in response to receiving multiple inputs on a particular affordance provides visual feedback for the user to quickly determine that the affordance cannot be used to go to multiple zoom levels and is associated with only one zoom level. Providing improved visual feedback to the user improves usability of the device, makes the user-device interface more efficient (e.g., by helping the user provide appropriate inputs and reducing user errors when operating/interacting with the device), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のジェスチャは、第1のタイプのジェスチャ(例えば、タップ)である。いくつかの実施形態では、電子デバイスは、第1のズームアフォーダンスに向けられた第3のジェスチャ(例えば、3350h)を受信する。いくつかの実施形態では、第3のジェスチャは、ジェスチャの第1のタイプ(例えば、タップ)とは異なる第2のタイプのジェスチャ(例えば、プレスアンドホールドジェスチャ又は上スワイプジェスチャ)である。いくつかの実施形態では、第1のズームアフォーダンスに向けられた第3のジェスチャを受信したことに応じて、電子デバイスは、第1の現在表示されている表現のズームレベルを変更するためのコントロール(例えば、3328)(例えば、スクロールホイール、スライダ)を表示する。いくつかの実施形態では、第1の現在表示されている表現のズームレベルを変更するコントロールは、第1の現在表示されている表現の現在のズームレベルの第1のインジケーション(例えば、図33Iの3328a1)を含む。いくつかの実施形態では、コントロールは、視覚表現(例えば、コントロール上の第1及び第2のズームレベル(又は複数のアフォーダンス内の各アフォーダンスに対応する他のズームレベル)のテキストインジケーション((例えば、.5×、1×、2×)))を有する。アイコンに向けられたタップジェスチャに関連付けられた動作を実行することないが、ユーザがアフォーダンスに向かうスワイプ又は長いプレスジェスチャを提供すると、表現のズームレベルを変更するコントロールを表示することにより、ユーザが意図せずに動作を実行することを回避するのを支援すること、及び同時に、ユーザが選択されたズームアフォーダンスに対応しないズームレベルで表現を表示できないことをユーザが同時に認識できるようにすることによって、デバイスの更なるコントロールをユーザに提供する。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the first gesture is a first type of gesture (e.g., a tap). In some embodiments, the electronic device receives a third gesture (e.g., 3350h) directed at the first zoom affordance. In some embodiments, the third gesture is a second type of gesture (e.g., a press and hold gesture or a swipe up gesture) that is different from the first type of gesture (e.g., a tap). In some embodiments, in response to receiving the third gesture directed at the first zoom affordance, the electronic device displays a control (e.g., 3328) (e.g., a scroll wheel, a slider) for changing a zoom level of the first currently displayed representation. In some embodiments, the control for changing the zoom level of the first currently displayed representation includes a first indication (e.g., 3328a1 of FIG. 33I) of a current zoom level of the first currently displayed representation. In some embodiments, the control has a visual representation (e.g., a textual indication (e.g., .5x, 1x, 2x) of the first and second zoom levels on the control (or other zoom levels corresponding to each affordance in the plurality of affordances). While not performing the action associated with a tap gesture directed at the icon, displaying a control to change the zoom level of the representation when the user provides a swipe or long press gesture toward the affordance provides the user with additional control of the device by helping the user avoid performing the action unintentionally and at the same time allowing the user to recognize that the representation cannot be displayed at a zoom level that does not correspond to the selected zoom affordance. Providing the additional controls without cluttering the UI with additional controls displayed enhances the usability of the device and makes the user-device interface more efficient (e.g., by helping the user make appropriate inputs and reducing user errors when operating/interacting with the device), plus reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1の現在表示されている表現のズームレベルを変更するコントロールを表示している間に、電子デバイスは、ズームレベルを変更するコントロールに向けられた第4のジェスチャ(例えば、3350i)(例えば、調整可能なコントロールに向けられたスワイプ又はドラッグジェスチャ)を受信する。いくつかの実施形態では、ズームレベルを変更するコントロールに向けられた第4のジェスチャを受信したことに応じて、電子デバイスは、ズームレベルを変更するコントロール上に第5のズームレベルの第2のインジケーション(例えば、図33Hの3328a1)(例えば、特定のズームレベルが選択されるインジケーション)を表示し、かつ第5のズームレベルで、1つ以上のカメラの視野の第4の表現(例えば、630)を表示する。いくつかの実施形態では、第1のインジケーションは、表示を停止される。いくつかの実施形態では、第1のインジケーションは、現在表示されている表現の現在のズームレベルの位置から第5のズームレベルへ動く。いくつかの実施形態では、第4の表現を、以前に表示表現の表示に置き換える。 In some embodiments, while displaying a control to change the zoom level of the first currently displayed representation, the electronic device receives a fourth gesture (e.g., 3350i) directed at the control to change the zoom level (e.g., a swipe or drag gesture directed at an adjustable control). In some embodiments, in response to receiving the fourth gesture directed at the control to change the zoom level, the electronic device displays a second indication (e.g., 3328a1 of FIG. 33H) of a fifth zoom level on the control to change the zoom level (e.g., an indication that a particular zoom level is selected) and displays a fourth representation (e.g., 630) of the field of view of the one or more cameras at the fifth zoom level. In some embodiments, the first indication is stopped from displaying. In some embodiments, the first indication moves from a position at the current zoom level of the currently displayed representation to the fifth zoom level. In some embodiments, the fourth representation replaces the display of the previously displayed representation.

いくつかの実施形態では、第1の現在表示されている表現のズームレベルの第1のインジケーション(例えば、3328a1)は、第1の現在表示されている表現のズームレベルを変更するコントロール上の選択されたズームレベルに対応する位置(例えば、中央位置)に表示される。いくつかの実施形態では、ズームレベルを変更するコントロールに向けられたジェスチャが受信されるとき、新しいズームレベルは、選択されたズームレベルに対応する位置に表示され、かつ現在(例えば、以前に)選択されたズームレベルのズームレベルは、現在表示されている表現のズームレベルを変更するコントロール上の別の位置に表示される。現在表示されている表現のズームレベルを変更するコントロールを、現在表示されている表現のズームレベルで更新することであって、ズームレベルは、ズームコントロール上の所定の位置に表示される、更新することにより、ユーザは、現在表示されている表現のズームレベルを迅速に判定することができ、かつ現在表示されている表現の現在のズームレベルを示す、視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, a first indication (e.g., 3328a1) of the zoom level of the first currently displayed representation is displayed in a position (e.g., a center position) on the control that changes the zoom level of the first currently displayed representation corresponding to the selected zoom level. In some embodiments, when a gesture directed at the control that changes the zoom level is received, the new zoom level is displayed in a position corresponding to the selected zoom level, and the zoom level of the currently (e.g., previously) selected zoom level is displayed in another position on the control that changes the zoom level of the currently displayed representation. Updating the control that changes the zoom level of the currently displayed representation with the zoom level of the currently displayed representation, where the zoom level is displayed in a predetermined position on the zoom control, allows the user to quickly determine the zoom level of the currently displayed representation and provides visual feedback to the user that indicates the current zoom level of the currently displayed representation. Providing improved visual feedback to the user improves usability of the device and makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1の現在表示されている表現のズームレベルを変更するためのコントロール(例えば、3328)は、回転可能なユーザインタフェース要素(例えば、仮想的に回転可能な車輪又はダイヤル)である。 In some embodiments, the control (e.g., 3328) for changing the zoom level of the first currently displayed representation is a rotatable user interface element (e.g., a virtually rotatable wheel or dial).

いくつかの実施形態では、電子デバイスは、第1の現在表示されている表現のズームレベルを変更するコントロール(例えば、3228)(例えば、スクロールホイール、スライダ)を表示し、複数のズームアフォーダンス(例えば、2622)の表示を、第1の現在表示されている表現のズームレベルを変更するコントロールの表示に置き換えること(例えば、又は表示を停止すること)を含む。ズームレベルアフォーダンスを、ズームアフォーダンスを変更するコントロールに置き換えることによって、ユーザが意図せずに動作を実行することを回避するのを支援すること、及び同時に、追加のズームアフォーダンスでUIを雑然とさせることなく、ズームアフォーダンスを使用することができず、及び拡張されたコントロールを提供する(例えば、ズームアフォーダンスよりも大きいズームレベルに変化することができる)ことをユーザが認識できるようにすることによって、デバイスのより多くのコントロールをユーザに提供する。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the electronic device includes displaying a control (e.g., 3228) (e.g., a scroll wheel, slider) that changes the zoom level of the first currently displayed representation, and replacing (e.g., or ceasing to display) the display of the plurality of zoom affordances (e.g., 2622) with the display of the control that changes the zoom level of the first currently displayed representation. Replacing the zoom level affordance with the control that changes the zoom affordance provides the user with more control of the device by helping the user avoid performing an action unintentionally, and at the same time allowing the user to recognize that the zoom affordance cannot be used and providing extended control (e.g., can change to a zoom level greater than the zoom affordance) without cluttering the UI with additional zoom affordances. Providing additional control without cluttering the UI with additional controls displayed enhances the usability of the device and makes the user-device interface more efficient (e.g., by helping the user make appropriate inputs and reducing user errors when operating/interacting with the device), plus reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第3のジェスチャ(例えば、3350h)は、第1の方向の移動を含む(例えば、第1の方向に向けられる)。いくつかの実施形態では、第4のジェスチャ(例えば、3350i)は、第1の方向(例えば、第2の方向は、第1の方向に対して相対的に直角な、反対側でない、及び/又は平行ではない)とは異なる第2の方向の移動を含む(例えば、第2の方向に向けられる)。 In some embodiments, the third gesture (e.g., 3350h) includes a movement in a first direction (e.g., directed in a first direction). In some embodiments, the fourth gesture (e.g., 3350i) includes a movement in a second direction (e.g., directed in a second direction) that is different from the first direction (e.g., the second direction is not perpendicular, opposite, and/or parallel to the first direction).

いくつかの実施形態では、ズームレベルを変更するコントロールに向けられた第4のジェスチャ(例えば、3350i)を受信した後に、電子デバイスは、第4のジェスチャのリフトオフを検出する。いくつかの実施形態では、第4のジェスチャのリフトオフを検出した後に、かつ所定の時間枠内でズームレベルを変更するコントロールに向けられたジェスチャがないとの判定に従って、電子デバイスは、ズームレベルを変更するコントロールを表示することを停止する。いくつかの実施形態では、所定の時間枠内でズームレベルを変更するコントロールに向けられたジェスチャがないとの判定に従って、電子デバイスは、ズームレベルを変更するコントロールを表示することをやめる又は停止する。ズームアフォーダンスを変更するコントロールを、ズームレベルアフォーダンスに置き換えることによって、ユーザが意図せずに動作を実行することを回避するのを支援すること、及び同時に、追加のズームアフォーダンスでUIを雑然とさせることなく、ズームアフォーダンスを使用することができ、かつ表現の追加の表示を提供することをユーザが認識できるようにすることによって、デバイスのより多くのコントロールをユーザができる。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, after receiving a fourth gesture (e.g., 3350i) directed to a control that changes the zoom level, the electronic device detects lift-off of the fourth gesture. In some embodiments, after detecting lift-off of the fourth gesture and in accordance with a determination that there is no gesture directed to a control that changes the zoom level within a predetermined time frame, the electronic device stops displaying the control that changes the zoom level. In some embodiments, in accordance with a determination that there is no gesture directed to a control that changes the zoom level within a predetermined time frame, the electronic device ceases or stops displaying the control that changes the zoom level. Replacing the control that changes the zoom affordance with the zoom level affordance helps the user avoid unintentionally performing the action, and at the same time allows the user more control over the device by allowing the user to recognize that the zoom affordance can be used and provides additional visibility of the representation without cluttering the UI with additional zoom affordances. Providing additional controls without cluttering the UI with additional controls displayed enhances usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1の現在表示されている表現のズームレベルを変更するコントロールを表示することの一部として、電子デバイスは、調整可能なコントロール上に複数の視覚インジケータ(例えば、図3Lの3228a~c)(例えば、複数のインジケータの第1の視覚インジケータは、調整可能なコントロール上の第1の位置に表示され、複数の視覚インジケータの第2の視覚インジケータは、調整可能なコントロール上の第1の位置とは異なる調整可能なコントロール上の第2の位置に表示される)を同時に表示する。いくつかの実施形態では、複数のズームアフォーダンスに対応する複数のズームレベル(例えば、2622)のそれぞれのズームレベル(例えば、複数のズームアフォーダンス(例えば、第1のズームアフォーダンス及び第2のズームアフォーダンス)のそれぞれに対応する各ズームレベル(例えば、第1のズームアフォーダンスの第2のズームレベル、第2のズームアフォーダンスの第3のズームレベル)は、複数の視覚インジケータの異なる対応する視覚インジケータによって表される(例えば、第1のズームアフォーダンスは、第1のインジケータによって表される、第2のズームアフォーダンスは、第2のインジケータによって表される)。いくつかの実施形態では、複数の視覚インジケータのそれぞれは、他の視覚インジケータ(例えば、固有のテキスト(例えば、0.5×、1×、2×)、色、サイズ)とは異なる固有の視覚特性を有する。ズームレベルを調整するコントロール上にズームアフォーダンスのズームレベルを表示することにより、ズームアフォーダンスに関連する現在のズームレベルについてのフィードバックをユーザに提供し、かつズームレベルがズームアフォーダンスとともに変化されると、表現のうちのより多くが表示されるように、コントロールを使用することなく、ユーザが現在表示されている表現のズームレベルを変更することができることを示す、視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, as part of displaying a control to change the zoom level of the first currently displayed representation, the electronic device simultaneously displays multiple visual indicators (e.g., 3228a-c in FIG. 3L) on the adjustable control (e.g., a first visual indicator of the multiple indicators is displayed at a first position on the adjustable control and a second visual indicator of the multiple visual indicators is displayed at a second position on the adjustable control that is different from the first position on the adjustable control). In some embodiments, each zoom level of a plurality of zoom levels (e.g., 2622) corresponding to a plurality of zoom affordances (e.g., each zoom level corresponding to each of the plurality of zoom affordances (e.g., a first zoom affordance and a second zoom affordance) (e.g., a second zoom level of the first zoom affordance, a third zoom level of the second zoom affordance) is represented by a different corresponding visual indicator of the plurality of visual indicators (e.g., the first zoom affordance is represented by a first indicator, the second zoom affordance is represented by a second indicator). In some embodiments, each of the plurality of visual indicators has unique visual characteristics that are different from the other visual indicators (e.g., unique text (e.g., 0.5x, 1x, 2x), color, size). On the control that adjusts the zoom levels, Displaying the zoom level of the zoom affordance in provides the user with feedback about the current zoom level associated with the zoom affordance, and provides visual feedback to the user indicating that the user can change the zoom level of the currently displayed representation without using a control as the zoom level is changed with the zoom affordance so that more of the representation is displayed. Providing the user with improved visual feedback improves usability of the device and makes the user-device interface more efficient (e.g., by helping the user provide appropriate inputs and reducing user errors when operating/interacting with the device), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のジェスチャを受信したことに応じて、かつ第1のジェスチャが複数のズームアフォーダンス(例えば、3350b)のうちの少なくとも1つに向けられておらず、かつ第1の表現の第1の部分に向けられているとの判定に従って、電子デバイスは、第1のジェスチャの位置に焦点を合わせるように電子デバイスを構成する(かつ任意選択的に、第1のジェスチャの位置での1つ以上のカメラの視野の特性に基づいて、露出又はホワイトバランスなどの1つ以上の他のカメラ設定を設定する)。 In some embodiments, in response to receiving a first gesture and following a determination that the first gesture is not directed toward at least one of the multiple zoom affordances (e.g., 3350b) and is directed toward a first portion of the first representation, the electronic device configures the electronic device to focus at a location of the first gesture (and optionally sets one or more other camera settings, such as exposure or white balance, based on characteristics of the field of view of the one or more cameras at the location of the first gesture).

いくつかの実施形態では、第1のジェスチャを受信したことに応じて、かつ第1のジェスチャが複数のズームアフォーダンスのうちの少なくとも1つに向けられておらず、かつ第1の表現(例えば、3350a)の第2の部分に向けられているとの判定に従って、電子デバイスは、第1のジェスチャの位置に焦点を合わせるように電子デバイスを構成することをやめる(かつ任意選択的に、第1のジェスチャの位置での1つ以上のカメラの視野の特性に基づいて、露出又はホワイトバランスなどの1つ以上の他のカメラ設定を設定することをやめる)。いくつかの実施形態では、第2の部分は、第2の領域内に表示される。いくつかの実施形態では、第2の領域は、第1の領域と視覚的に区別される(例えば、暗色外観を有する)(例えば、1つ以上のカメラの視野の第2の部分上に半透明オーバーレイを有する)。いくつかの実施形態では、第2の領域は、第1の領域と比較して、暗色外観を有する。いくつかの実施形態では、第2の領域は、カメラユーザインタフェース内の第1の領域の上方及び/又は下方に位置する。 In some embodiments, in response to receiving the first gesture and in accordance with a determination that the first gesture is not directed toward at least one of the plurality of zoom affordances and is directed toward a second portion of the first representation (e.g., 3350a), the electronic device ceases configuring the electronic device to focus at the location of the first gesture (and optionally ceases setting one or more other camera settings, such as exposure or white balance, based on characteristics of the field of view of the one or more cameras at the location of the first gesture). In some embodiments, the second portion is displayed within a second region. In some embodiments, the second region is visually distinct (e.g., has a dark appearance) from the first region (e.g., has a semi-transparent overlay over the second portion of the field of view of the one or more cameras). In some embodiments, the second region has a dark appearance compared to the first region. In some embodiments, the second region is located above and/or below the first region in the camera user interface.

いくつかの実施形態では、1つ以上のカメラの視野の少なくとも一部分の第2の表現は、1つ以上のカメラの第1のカメラの視野の少なくとも一部分の表現である(例えば、図31の3180b)(例えば、第1のタイプのカメラ(例えば、異なる幅の異なるレンズを有するカメラ(例えば、超広角、広角、望遠写真カメラ))。いくつかの実施形態では、1つ以上のカメラの視野の少なくとも一部分の第3の表現は、1つ以上のカメラの第2のカメラの視野の少なくとも一部分の表現である(例えば、図31の3180c)(例えば、第2のタイプのカメラ(例えば、異なる幅の異なるレンズを有するカメラ(例えば、超広角、広角、望遠写真カメラ))。いくつかの実施形態では、第1のカメラは、第2のカメラとは異なる(例えば、第1のタイプのカメラは、第2のタイプのカメラとは異なる;第1のカメラのレンズは、キャプチャする(例えば、又は第2のカメラのレンズとは異なる幅の少なくとも1つの画像をキャプチャできる(例えば、キャプチャするように構成された))。 In some embodiments, the second representation of at least a portion of the field of view of the one or more cameras is a representation of at least a portion of the field of view of a first camera of the one or more cameras (e.g., 3180b in FIG. 31) (e.g., a first type of camera (e.g., a camera having different lenses of different widths (e.g., ultra-wide, wide, telephoto camera)). In some embodiments, the third representation of at least a portion of the field of view of the one or more cameras is a representation of at least a portion of the field of view of a second camera of the one or more cameras (e.g., 3180c in FIG. 31) (e.g., a second type of camera (e.g., a camera having different lenses of different widths (e.g., ultra-wide, wide, telephoto camera)). In some embodiments, the first camera is different from the second camera (e.g., the first type of camera is different from the second type of camera; the lens of the first camera captures (e.g., or is configured to capture) at least one image of a different width than the lens of the second camera).

いくつかの実施形態では、第2のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示することの一部として、電子デバイスは、第2のズームレベルが第6のズームレベル(例えば、0.5×ズームレベル)であるとの判定に従って(及び/又は1つ以上のカメラの視野の一部分が第1のタイプのカメラの視野の一部分であるとの判定に従って(例えば、第2のタイプのカメラよりも広いレンズ(例えば、超広角レンズ)を有するカメラ))、第2の表現の一部分(例えば、領域604)を第1の視覚外観(例えば、半透明の、第2の視覚外観よりも不透明度が低い)で表示し、第2のズームレベルが第6のズームレベルとは異なる第7のズームレベルであるとの判定に従って(及び/又は1つ以上のカメラの視野の一部分が第1のタイプのカメラとは異なる第2のタイプのカメラの視野の一部分であるとの判定に従って(例えば、第2のタイプのカメラよりも広いレンズ(例えば、超広角レンズ)を有するカメラ)(例えば、第1のタイプのカメラよりも狭いレンズ(例えば、望遠写真)を有するカメラ))、第2の表現の一部分(例えば、領域602及び606)を第1の視覚外観とは異なる第2の視覚外観(例えば、グレーアウト、ブラックアウト、第1の視覚外観よりも高い不透明度)で表示する。いくつかの実施形態では、電子デバイスは、第2のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示し、図29A~図29Pで上述された方法/技術及び図30A~図30Cで論じられた方法3000のうちの1つ以上に基づいて、第2の表現を表示することを含む)。 In some embodiments, as part of displaying the second representation of at least a portion of the field of view of the one or more cameras at the second zoom level, the electronic device displays a portion of the second representation (e.g., region 604) in a first visual appearance (e.g., translucent, less opaque than the second visual appearance) in accordance with a determination that the second zoom level is a sixth zoom level (e.g., a 0.5x zoom level) (and/or in accordance with a determination that the portion of the field of view of the one or more cameras is a portion of a field of view of a first type of camera (e.g., a camera having a wider lens (e.g., an ultra-wide angle lens) than the second type of camera)), and pursuant to determining that the zoom level is at a seventh zoom level different from the sixth zoom level (and/or pursuant to determining that the portion of the field of view of the one or more cameras is a portion of a field of view of a second type of camera different from the first type of camera (e.g., a camera having a wider lens (e.g., an ultra-wide lens) than the second type of camera (e.g., a camera having a narrower lens (e.g., a telephoto) than the first type of camera)), displaying the portion of the second representation (e.g., regions 602 and 606) in a second visual appearance different from the first visual appearance (e.g., grayed out, blacked out, more opaque than the first visual appearance). In some embodiments, the electronic device displays the second representation of at least the portion of the field of view of the one or more cameras at the second zoom level, and includes displaying the second representation based on one or more of the methods/techniques described above in FIGS. 29A-29P and the method 3000 discussed in FIGS. 30A-30C).

いくつかの実施形態では、複数のズームアフォーダンスは、第3のズームアフォーダンス(例えば、特定のズームレベル(例えば、第9のズームレベル)に対応するアフォーダンス)を含む。いくつかの実施形態では、第1、第2、及び第3のズームアフォーダンスは、異なるズームレベルに対応する(例えば、第1、第2、及び第3のズームアフォーダンスの選択により、異なる表現を表示させ、各表現は、異なるズームレベルを有する)。いくつかの実施形態では、電子デバイスは、第2の現在表示されている表現のズームレベルを変更する要求を受信する。いくつかの実施形態では、電子デバイスは、ピンチ又はデピンチジェスチャを検出することにより、現在表示されている表現のズームレベルを変更する要求を受信し、かつ調整可能なズームコントロールの選択を検出する。いくつかの実施形態では、第2の現在表示されている表現のズームレベルを第8のズームレベルに変更する要求(例えば、3350i、3350p、3350q)を受信したことに応じて、電子デバイスは、第8のズームレベルが第1のズーム値範囲(例えば、例えば、0.5×~1×(例えば、1×未満)などの範囲)内にあるとの判定に従って、第1のズームアフォーダンス(例えば、2622b)の表示を、第8のズームレベルに対応する第4のズームアフォーダンス(例えば、2622j)の表示に(例えば、第1のズームアフォーダンスの位置で)置き換え、第8のズームレベルが第2のズーム値範囲(例えば、1×を上回る及び2×未満の値などの第2のズーム値範囲)内にあるとの判定に従って、第2のズームアフォーダンス(例えば、2622c)の表示を、第8のズームレベルに対応する第4のズームアフォーダンス(例えば、2622g)の表示に(例えば、第2のズームアフォーダンスの位置で)置き換え、第8のズームレベルが第3のズーム値範囲(例えば、2×を上回る)内にあるとの判定に従って、第3のズームアフォーダンス(例えば、2622a)の表示を、第8のズームレベルに対応する第4のズームアフォーダンス(例えば、2622d)の表示に(例えば、第3のズームアフォーダンスの位置で)置き換える。いくつかの実施形態では、第8のズームレベルが第1のズーム値範囲(例えば、例えば、0.5×~1×(例えば、1×などの閾値を下回る)などの範囲)内にないとの判定に従って、電子デバイスは、第2又は第3のズームアフォーダンスでないズームアフォーダンスの位置に、第1のズームアフォーダンスを表示する(又は第1のズームアフォーダンスの表示を維持する。いくつかの実施形態では、第2及び第3のズームアフォーダンスを維持する。いくつかの実施形態では、第8のズームレベルが第2のズーム値範囲(例えば、1×~2×)内にないとの判定に従って、電子デバイスは、第1又は第3のズームアフォーダンスでないズームアフォーダンスの位置に、第2のズームアフォーダンスを表示する(又は第2のズームアフォーダンスの表示を維持する)。いくつかの実施形態では、第1及び第3のズームアフォーダンスを維持する。いくつかの実施形態では、第8のズームレベルが第3のズーム値範囲(例えば、例えば、2×以上)内にないとの判定に従って、電子デバイスは、第1又は第2のズームアフォーダンスでないズームアフォーダンスの位置に、第1のズームアフォーダンスを表示する(又は第1のズームアフォーダンスの表示を維持する)。いくつかの実施形態では、第1、第2、第3、及び第4のズームアフォーダンスは、互いに視覚的に異なる(例えば、テキストが異なる(例えば、0.5×、1×、1.7×、2×))。いくつかの実施形態では、第2又は第3のズームアフォーダンスを維持する。所定の条件が満たされているときにのみ、ズームアフォーダンスを、ズームアフォーダンスに置き換えることを適用することにより、ユーザは、デバイスが現在のズームレベルで表現を表示するために使用されている、カメラに対応するズームレベルを迅速に認識することができ、各アフォーダンスは、異なるカメラに対応する。デバイス600は、特定のズームレベルでメディアをキャプチャするために現在使用されており、ユーザは、ユーザが必要であればこれらのズームレベルに容易に切り替えることができるように、現在表示されている表現の現在のズームレベルの範囲内にない所定のズームレベルを迅速に認識することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the plurality of zoom affordances includes a third zoom affordance (e.g., an affordance corresponding to a particular zoom level (e.g., a ninth zoom level)). In some embodiments, the first, second, and third zoom affordances correspond to different zoom levels (e.g., selection of the first, second, and third zoom affordances causes different representations to be displayed, each representation having a different zoom level). In some embodiments, the electronic device receives a request to change the zoom level of a second currently displayed representation. In some embodiments, the electronic device receives a request to change the zoom level of a currently displayed representation by detecting a pinch or de-pinch gesture and detecting a selection of an adjustable zoom control. In some embodiments, in response to receiving a request (e.g., 3350i, 3350p, 3350q) to change the zoom level of the second currently displayed representation to an eighth zoom level, the electronic device, pursuant to a determination that the eighth zoom level is within a first zoom value range (e.g., a range such as, for example, 0.5× to 1× (e.g., less than 1×)), replaces the display of the first zoom affordance (e.g., 2622b) with a display of a fourth zoom affordance (e.g., 2622j) corresponding to the eighth zoom level (e.g., at the location of the first zoom affordance) and determines that the eighth zoom level is within a second zoom value range (e.g., 1× to 2×). In accordance with a determination that the eighth zoom level is within a second zoom value range (e.g., values greater than 2x and less than 2x), the display of the second zoom affordance (e.g., 2622c) is replaced with a display of a fourth zoom affordance (e.g., 2622g) corresponding to the eighth zoom level (e.g., at the position of the second zoom affordance), and in accordance with a determination that the eighth zoom level is within a third zoom value range (e.g., greater than 2x), the display of the third zoom affordance (e.g., 2622a) is replaced with a display of a fourth zoom affordance (e.g., 2622d) corresponding to the eighth zoom level (e.g., at the position of the third zoom affordance). In some embodiments, pursuant to a determination that the eighth zoom level is not within the first zoom value range (e.g., a range such as, for example, 0.5× to 1× (e.g., below a threshold such as 1×)), the electronic device displays the first zoom affordance (or maintains the display of the first zoom affordance) at a location of a zoom affordance that is not the second or third zoom affordance, in some embodiments, maintaining the second and third zoom affordances. In some embodiments, pursuant to a determination that the eighth zoom level is not within the second zoom value range (e.g., 1× to 2×), the electronic device displays the first zoom affordance (or maintains the display of the first zoom affordance) at a location of a zoom affordance that is not the first or third zoom affordance. In some embodiments, the electronic device displays a second zoom affordance (or maintains the display of the second zoom affordance) at the location of the eighth zoom affordance. In some embodiments, the electronic device maintains the first and third zoom affordances. In some embodiments, pursuant to determining that the eighth zoom level is not within the third zoom value range (e.g., e.g., 2× or greater), the electronic device displays the first zoom affordance (or maintains the display of the first zoom affordance) at the location of a zoom affordance that is not the first or second zoom affordance. In some embodiments, the first, second, third, and fourth zoom affordances are visually distinct from one another (e.g., For example, the text is different (e.g., 0.5x, 1x, 1.7x, 2x). In some embodiments, the second or third zoom affordance is maintained. By applying the replacement of the zoom affordance with the zoom affordance only when certain conditions are met, the user can quickly recognize the zoom levels corresponding to the cameras that the device is being used to display the representation at the current zoom level, each affordance corresponding to a different camera. The device 600 is currently being used to capture media at a particular zoom level, and the user can quickly recognize the predefined zoom levels that are not within the current zoom level of the currently displayed representation so that the user can easily switch to these zoom levels if desired. By performing an optimized action when a set of conditions are met without requiring further user input, the device's usability is improved, the user-device interface is made more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and in addition, power usage is reduced and the device's battery life is improved by allowing the user to use the device more quickly and efficiently.

方法3400に関して上述された処理(例えば、図34A~図34B)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2500、2700、2800、3000、3200、3600、3800、4000、及び4200は、方法3400を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法3200は、任意選択的に、方法3400に関連して上述したように、1つ以上の入力に応じて、カメラユーザインタフェースのズームレベルを変更することを採用する。簡潔にするために、これらの詳細は、以下で繰り返さない。 It should be noted that the details of the processes (e.g., FIGS. 34A-34B) described above with respect to method 3400 are also applicable in a similar manner to the methods described above. For example, methods 700, 900, 1100, 1300, 1500, 1700, 1900, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3600, 3800, 4000, and 4200 optionally include one or more of the characteristics of the various methods described above with reference to method 3400. For example, method 3200 optionally employs changing the zoom level of the camera user interface in response to one or more inputs, as described above with respect to method 3400. For the sake of brevity, these details will not be repeated below.

図35A~図35Iは、いくつかの実施形態による、電子デバイスを使用してメディアキャプチャコントロールにアクセスするための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図36A~図36Bにおける処理を含む、以下で説明する処理を例示するために使用される。 FIGS. 35A-35I show example user interfaces for accessing media capture controls using an electronic device, according to some embodiments. The user interfaces in these figures are used to illustrate the processes described below, including the processes in FIGS. 36A-36B.

図35Aは、ディスプレイの上部からディスプレイの底部まで延びるライブプレビュー630を表示する電子デバイス600を示す。ライブプレビュー630は、1つ以上のカメラセンサによって検出された画像に基づく。いくつかの実施形態では、ライブプレビュー630は、デバイス600の上部及び/又は底部まで延びない。いくつかの実施形態では、デバイス600は、複数のカメラセンサを使用して画像をキャプチャし、それらを組み合わせてライブプレビュー630を表示する。いくつかの実施形態では、デバイス600は、単一のカメラセンサを使用して画像をキャプチャして、ライブプレビュー630を表示する。 FIG. 35A shows an electronic device 600 displaying a live preview 630 that extends from the top of the display to the bottom of the display. The live preview 630 is based on images detected by one or more camera sensors. In some embodiments, the live preview 630 does not extend to the top and/or bottom of the device 600. In some embodiments, the device 600 captures images using multiple camera sensors and combines them to display the live preview 630. In some embodiments, the device 600 captures images using a single camera sensor to display the live preview 630.

図35Aのカメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含み、これらは、インジケータ及びコントロールがライブプレビュー630と同時に表示され得るように、ライブプレビュー630上に重ね合わされる。カメラディスプレイ領域604は、インジケータ又はコントロールと実質的に重ね合わされない。この実施例では、ライブプレビュー630は、周囲環境内の人の肩に乗っている犬を含む。 The camera user interface of FIG. 35A includes an indicator area 602 and a control area 606 that are overlaid on the live preview 630 such that the indicators and controls may be displayed simultaneously with the live preview 630. The camera display area 604 is not substantially overlaid with the indicators or controls. In this example, the live preview 630 includes a dog sitting on a person's shoulder within the surrounding environment.

図35Aに示すように、インジケータ領域602は、ライブプレビュー630上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。インジケータ領域602は、フラッシュインジケータ602a及びモード-設定スイッチャアフォーダンス3502を含む。フラッシュインジケータ602aは、フラッシュが自動モード、オン、オフ、又は別のモード(例えば、赤目低減モード)であるかどうかを示す。以下で論じるように、モード-設定スイッチャアフォーダンス3502は、選択されると、デバイス600に、カメラモードアフォーダンス620の表示と、現在選択されているカメラモードの特定のカメラ設定アフォーダンス(例えば、626)の表示との間を切り替えさせる。 35A, indicator area 602 is superimposed on live preview 630 and optionally includes a colored (e.g., gray, semi-transparent) overlay. Indicator area 602 includes a flash indicator 602a and a mode-settings switcher affordance 3502. Flash indicator 602a indicates whether the flash is in auto mode, on, off, or another mode (e.g., red-eye reduction mode). As discussed below, mode-settings switcher affordance 3502, when selected, causes device 600 to switch between displaying camera mode affordance 620 and a particular camera setting affordance (e.g., 626) for the currently selected camera mode.

図35Aに示すように、カメラディスプレイ領域604は、ライブプレビュー630及びズームアフォーダンス2622を含み、ズームアフォーダンス2622は、0.5×ズームアフォーダンス2622a、1×ズームアフォーダンス2622b、及び2×ズームアフォーダンス2622cを含む。この実施例では、0.5×ズームアフォーダンス2622aが選択され、これは、0.5×ズームレベルでライブプレビュー630が表されることを示す。 35A, the camera display area 604 includes a live preview 630 and a zoom affordance 2622, which includes a 0.5x zoom affordance 2622a, a 1x zoom affordance 2622b, and a 2x zoom affordance 2622c. In this example, the 0.5x zoom affordance 2622a is selected, indicating that the live preview 630 is presented at a 0.5x zoom level.

図35Aに示すように、コントロール領域606は、ライブプレビュー630上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。コントロール領域606は、カメラモードアフォーダンス620、メディアコレクション624の一部分、シャッターアフォーダンス610、及びカメラスイッチャアフォーダンス612を含む。カメラモードアフォーダンス620は、どのカメラモードが現在選択されているかを示し、ユーザがカメラモードを変更することを可能にする。図35Aにおいて、カメラモードアフォーダンス620a~620d及び620fが表示され、「Photo」カメラモードは、テキストを太字にすること、及び/又はコントロール領域606の中央に写真カメラモードアフォーダンス620cをセンタリングすることによって、カメラが動作している現在のモードであるとして示される。カメラモードが現在選択されている(又は電子デバイスがカメラモードで動作している)とき、電子デバイスは、特定のカメラモードのカメラ設定を使用して、(例えば、シャッターアフォーダンス610上の入力を検出したことに応じて)メディアをキャプチャするように構成される。図35Aでは、デバイス600は、カメラディスプレイ領域604に対応する位置での上向きスワイプジェスチャ3550a(例えば、コントロール領域606からインジケータ領域602に向かう上スワイプジェスチャ)を検出する。あるいは、図35Aで、デバイス600は、インジケータ領域602内に配置されている、モード-設定スイッチャアフォーダンス3502に対応する位置でのタップジェスチャ3550bを検出する。 As shown in FIG. 35A, the control area 606 is superimposed on the live preview 630 and optionally includes a colored (e.g., gray, semi-transparent) overlay. The control area 606 includes a camera mode affordance 620, a portion of a media collection 624, a shutter affordance 610, and a camera switcher affordance 612. The camera mode affordance 620 indicates which camera mode is currently selected and allows the user to change the camera mode. In FIG. 35A, camera mode affordances 620a-620d and 620f are displayed, and the "Photo" camera mode is indicated as being the current mode in which the camera is operating by bolding the text and/or centering the photo camera mode affordance 620c in the center of the control area 606. When a camera mode is currently selected (or the electronic device is operating in a camera mode), the electronic device is configured to capture media (e.g., in response to detecting an input on the shutter affordance 610) using the camera settings of the particular camera mode. In FIG. 35A, the device 600 detects an upward swipe gesture 3550a (e.g., an up swipe gesture from the control region 606 toward the indicator region 602) at a location corresponding to the camera display region 604. Alternatively, in FIG. 35A, the device 600 detects a tap gesture 3550b at a location corresponding to the mode-setting switcher affordance 3502, which is located within the indicator region 602.

図35Bに示すように、上向きスワイプジェスチャ3550a又はタップジェスチャ3550b(例えば、モード-設定スイッチャアフォーダンス3502に対応する位置でのタップジェスチャ)を検出したことに応じて、デバイス600は、カメラディスプレイ領域604を上にシフトし、これは、ズームアフォーダンス2622を上にシフトすることを含む。デバイス600は、カメラディスプレイ領域604のサイズ及びアスペクト比を維持している間に、カメラディスプレイ領域604を上にシフトする。それにより、デバイス600がカメラディスプレイ領域604を上にシフトするとき、デバイス600は、インジケータ領域602の高さの高さを低減し、かつコントロール領域606の高さを増加させる。インジケータ領域602の高さの低減に加えて、デバイス600は、フラッシュインジケータ602aの中心がモード-設定スイッチャアフォーダンス3502の中心とより位置合わせされるように、フラッシュインジケータ602aをシフトする。これを行うことにより、デバイス600は、カメラモードアフォーダンス620とカメラ設定アフォーダンス626との間で表示を切り替えている間に、インジケータ領域602内のインジケータの表示を維持する。更には、デバイス600は、上向き矢印(例えば、カメラユーザインタフェースが上にシフトされ得るインジケーション、又はモード-設定スイッチャアフォーダンス3502上の入力に応じて、カメラ設定アフォーダンス626が表示され得るインジケーション)を含むことから、下向き矢印(例えば、カメラユーザインタフェースが下にシフトされ得るインジケーション、又はモード-設定スイッチャアフォーダンス3502上の入力を検出したことに応じて、カメラモードアフォーダンスが表示され得るインジケーション)を表示するように、モード-設定スイッチャアフォーダンス3502を更新する。 As shown in FIG. 35B , in response to detecting an upward swipe gesture 3550a or a tap gesture 3550b (e.g., a tap gesture at a location corresponding to the mode-setting switcher affordance 3502), the device 600 shifts the camera display area 604 up, which includes shifting the zoom affordance 2622 up. The device 600 shifts the camera display area 604 up while maintaining the size and aspect ratio of the camera display area 604. Thus, as the device 600 shifts the camera display area 604 up, the device 600 reduces the height of the indicator area 602 and increases the height of the control area 606. In addition to reducing the height of the indicator area 602, the device 600 shifts the flash indicator 602a such that the center of the flash indicator 602a is more aligned with the center of the mode-setting switcher affordance 3502. By doing this, device 600 maintains the display of the indicator in indicator region 602 while switching the display between camera mode affordance 620 and camera settings affordance 626. Additionally, device 600 updates mode-settings switcher affordance 3502 from including an up arrow (e.g., an indication that the camera user interface may be shifted up or that camera settings affordance 626 may be displayed in response to an input on mode-settings switcher affordance 3502) to display a down arrow (e.g., an indication that the camera user interface may be shifted down or that a camera mode affordance may be displayed in response to detecting an input on mode-settings switcher affordance 3502).

コントロール領域606の高さを増加させることに加えて、デバイス600は、カメラモードアフォーダンス620を、第1の1組のカメラ設定アフォーダンスを含むカメラ設定アフォーダンス626に置き換える。第1の1組のカメラ設定アフォーダンスは、左から右へ、フラッシュモードコントロールアフォーダンス626a、低光モード動作コントロールアフォーダンス626g、アスペクト比コントロールアフォーダンス626c、アニメーション化された画像コントロールアフォーダンス626b、フィルタコントロールアフォーダンス626e、及びタイマーコントロールアフォーダンス626dを含む。デバイスが写真モードでメディアをキャプチャするように現在構成されているため、第1の1組のカメラ設定アフォーダンスが示される。いくつかの実施形態では、デバイスが写真モードではないカメラモードでメディアをキャプチャするように現在構成されているとき、第1の1組のカメラ設定アフォーダンスとは異なる第2の1組のカメラ設定アフォーダンスが示される。 In addition to increasing the height of the control area 606, the device 600 replaces the camera mode affordance 620 with a camera settings affordance 626 that includes a first set of camera settings affordances. The first set of camera settings affordances includes, from left to right, a flash mode control affordance 626a, a low light mode operation control affordance 626g, an aspect ratio control affordance 626c, an animated image control affordance 626b, a filter control affordance 626e, and a timer control affordance 626d. The first set of camera settings affordances are shown because the device is currently configured to capture media in photo mode. In some embodiments, when the device is currently configured to capture media in a camera mode that is not photo mode, a second set of camera settings affordances that is different from the first set of camera settings affordances is shown.

図35Bに示すように、上向きスワイプジェスチャ3550a又はタップジェスチャ3550bを検出したことに応じて、デバイス600はまた、1つ以上のカメラの視野を上にシフトする(ライブプレビュー630によって示された1つ以上のカメラの視野が維持され、かつシフトされない、図8A~図8Bに関連して上述した例とは異なる)。それにより、デバイス600は、図35Aに表示されたいくらかの視覚部分を図35Bのディスプレイから外れるようにシフトする。例えば、図35Aのインジケータ領域602に表示されたちょう結び3540の一部分は、図35Bのインジケータ領域602に表示される。加えて、デバイス600は、図35Aに表示されなかったいくらかの視覚部分を図35Bのディスプレイ上にシフトする。例えば、図35Aのコントロール領域606に表示されたアームパッチ3538(例えば、ハート)の一部分は、図35Bのコントロール領域606に表示される。図35Bでは、デバイス600は、デバイスが、超広角レンズを有するカメラを使用して、メディアをキャプチャするように構成されるため、いくらかの新たに表示される視覚部分をディスプレイ上に、及びいくらかの以前に表示された視覚部分をディスプレイから外れるようにシフトし、これは、0.5×ズームレベルで表示されているライブプレビュー630によって明らかである(例えば、図31A~図31Bに関連する上記の考察を参照)。いくつかの実施形態では、デバイスが、超広角レンズを有するカメラを使用してメディアをキャプチャするように構成されていない(例えば、デバイス600は、望遠写真レンズを使用してメディアをキャプチャするように構成される)とき、デバイス600は、デバイス600が2×ズームでメディアをキャプチャするように構成されるとき(例えば、ライブプレビュー630が図35Iのように2×ズームレベルで表示されるとき)など、いくらかの視覚部分をディスプレイ上に、及び/又はいくらかの視覚部分をディスプレイから外れるようにシフトしない。 As shown in FIG. 35B, in response to detecting the upward swipe gesture 3550a or the tap gesture 3550b, the device 600 also shifts the field of view of one or more cameras up (unlike the example described above in connection with FIGS. 8A-8B, in which the field of view of one or more cameras shown by the live preview 630 is maintained and not shifted). The device 600 thereby shifts some visual portions displayed in FIG. 35A out of the display in FIG. 35B. For example, a portion of the bow 3540 displayed in the indicator area 602 of FIG. 35A is displayed in the indicator area 602 of FIG. 35B. In addition, the device 600 shifts some visual portions that were not displayed in FIG. 35A onto the display in FIG. 35B. For example, a portion of the arm patch 3538 (e.g., a heart) displayed in the control area 606 of FIG. 35A is displayed in the control area 606 of FIG. 35B. In FIG. 35B, device 600 shifts some newly displayed visual portions onto the display and some previously displayed visual portions off the display because the device is configured to capture media using a camera with an ultra-wide angle lens, as evidenced by live preview 630 being displayed at a 0.5× zoom level (e.g., see the discussion above in connection with FIGS. 31A-31B). In some embodiments, when the device is not configured to capture media using a camera with an ultra-wide angle lens (e.g., device 600 is configured to capture media using a telephoto lens), device 600 does not shift some visual portions onto the display and/or off the display, such as when device 600 is configured to capture media at 2× zoom (e.g., when live preview 630 is displayed at a 2× zoom level as in FIG. 35I).

更には、図35Bに示すように、上向きスワイプジェスチャ3550aを検出した後の第1の時点で、デバイス600は、上向きスワイプジェスチャ3550a又はタップジェスチャ3550bの完了を検出する。いくつかの実施形態では、デバイス600は、上向きスワイプジェスチャ3550aのリフトオフ(例えば、デバイス600のタッチ感知面を使用する、上向きスワイプジェスチャ3550aのタッチ接触のリフトオフ)を検出する前に、上向きスワイプジェスチャ3550aの完了を検出する。いくつかの実施形態では、上向きスワイプジェスチャ3550aの完了は、上向きスワイプジェスチャ3550aのタッチ接触が、カメラディスプレイ領域604上の位置に対応する第1の位置からカメラディスプレイ領域604上の位置に対応する第2の位置までの閾値距離を動くと検出された後に発生し得る。 35B, at a first time after detecting the upward swipe gesture 3550a, the device 600 detects the completion of the upward swipe gesture 3550a or the tap gesture 3550b. In some embodiments, the device 600 detects the completion of the upward swipe gesture 3550a before detecting the lift-off of the upward swipe gesture 3550a (e.g., lift-off of the touch contact of the upward swipe gesture 3550a using the touch-sensitive surface of the device 600). In some embodiments, the completion of the upward swipe gesture 3550a may occur after the touch contact of the upward swipe gesture 3550a is detected to move a threshold distance from a first position corresponding to a position on the camera display area 604 to a second position corresponding to a position on the camera display area 604.

図35Bに示すように、デバイス600が上向きスワイプジェスチャ3550a又はタップジェスチャ3550bの完了を検出するとき、デバイス600は、デバイス600がカメラモードアフォーダンス620を、選択されたカメラモードについてのカメラ設定アフォーダンスに置き換えている(又は置き換えた)ことを示す、触知出力3560aを提供する。図35Bでは、デバイス600は、上向きスワイプジェスチャ3550aのリフトオフを検出する。 As shown in FIG. 35B, when device 600 detects completion of upward swipe gesture 3550a or tap gesture 3550b, device 600 provides tactile output 3560a indicating that device 600 is replacing (or has replaced) camera mode affordance 620 with the camera settings affordance for the selected camera mode. In FIG. 35B, device 600 detects lift-off of upward swipe gesture 3550a.

図35Cに示すように、上向きスワイプジェスチャ3550aのリフトオフを検出した後に、デバイス600は、触知出力をもはや提供しない。図35Cでは、デバイス600は、カメラディスプレイ領域604に対応する位置での左向きスワイプジェスチャ3550c(例えば、左から右にカメラディスプレイ領域604を横切って動くスワイプジェスチャ)を検出する。 As shown in FIG. 35C, after detecting lift-off of the upward swipe gesture 3550a, the device 600 no longer provides a tactile output. In FIG. 35C, the device 600 detects a leftward swipe gesture 3550c (e.g., a swipe gesture moving from left to right across the camera display area 604) at a location corresponding to the camera display area 604.

図35Dに示すように、左向きスワイプジェスチャ3550cを検出したことに応じて、デバイス600は、第1の1組のカメラ設定アフォーダンス(例えば、カメラ設定アフォーダンス626a、626g、626c、626e、及び626d)を、左から右へ、フラッシュモードコントロールアフォーダンス626a、f値コントロールアフォーダンス626f、フィルタコントロールアフォーダンス626e、及びタイマーコントロールアフォーダンス626dを含む、第2の1組のカメラ設定アフォーダンスに置き換える。図35Dに示すように、第1の1組のカメラ設定アフォーダンスを第2の1組のカメラ設定アフォーダンスに置き換えるとき、デバイス600は、アニメーションを表示し、デバイス600は、カメラディスプレイ領域604を着色された(例えば、灰色、半透明)オーバーレイと重ね合わせ、ライブプレビュー630及び/若しくはディスプレイを暗くし、かつ/又はディスプレイ(ライブプレビュー630を含む)をぼかす。更には、図35Dでは、デバイス600は、第2の1組のカメラ設定アフォーダンス内にない第1の1組のカメラ設定アフォーダンスからの1つ以上のカメラ設定アフォーダンス(例えば、図35Cに示されたカメラ設定アフォーダンス626g、626c、626b)を暗色化、ぼかし、及び/又は収縮し得る。デバイス600は、第1の1組のカメラ設定アフォーダンス内になかった第2の1組のカメラ設定アフォーダンス(例えば、f値コントロールアフォーダンス626f)内にある、1つ以上のアフォーダンスを表示する(例えば、フェードイン又は成長する)。 As shown in FIG. 35D, in response to detecting a left swipe gesture 3550c, the device 600 replaces the first set of camera settings affordances (e.g., camera settings affordances 626a, 626g, 626c, 626e, and 626d) with a second set of camera settings affordances including, from left to right, a flash mode control affordance 626a, an f-stop control affordance 626f, a filter control affordance 626e, and a timer control affordance 626d. As shown in FIG. 35D, when replacing the first set of camera settings affordances with the second set of camera settings affordances, the device 600 displays an animation, the device 600 overlays the camera display area 604 with a colored (e.g., gray, semi-transparent) overlay, darkens the live preview 630 and/or the display, and/or blurs the display (including the live preview 630). Further, in FIG. 35D, device 600 may darken, blur, and/or shrink one or more camera setting affordances from the first set of camera setting affordances that are not within the second set of camera setting affordances (e.g., camera setting affordances 626g, 626c, 626b shown in FIG. 35C). Device 600 displays (e.g., fades in or grows) one or more affordances within the second set of camera setting affordances that were not within the first set of camera setting affordances (e.g., f-stop control affordance 626f).

図35Eに示すように、左向きスワイプジェスチャ3550cを検出したことに応じて、デバイス600は、第2の1組のカメラ設定アフォーダンスを動かし、これにより、第2の1組のカメラ設定アフォーダンスは、ディスプレイの比較的中心に配置される。第2の1組のカメラ設定アフォーダンスが、より少ない数のアフォーダンスを含むため、フラッシュモードコントロールアフォーダンス626a及びタイマーコントロールアフォーダンス626dは、例えば、図35Cに各々がそれぞれ表示された位置よりもディスプレイの中心に近い位置に表示される。図35Eでは、左向きスワイプジェスチャ3550cを検出したことに応じて、デバイス600は、ポートレートカメラモードで、したがって、ポートレートメディアをキャプチャする設定に対応する(又はポートレートカメラモードに従う)第2の1組のカメラ設定アフォーダンスでメディアをキャプチャするように構成される。いくつかの実施形態では、デバイス600が別のモード(例えば、ビデオモード)でメディアをキャプチャするように構成されるとき、高ダイナミックレンジイメージングカメラ設定アフォーダンスなどの、1つ以上の追加のアフォーダンスが表示される。 As shown in FIG. 35E, in response to detecting the left swipe gesture 3550c, the device 600 moves the second set of camera setting affordances so that the second set of camera setting affordances is relatively centered on the display. Because the second set of camera setting affordances includes a smaller number of affordances, the flash mode control affordance 626a and the timer control affordance 626d are displayed, for example, closer to the center of the display than the positions at which each was displayed in FIG. 35C. In FIG. 35E, in response to detecting the left swipe gesture 3550c, the device 600 is configured to capture media in a portrait camera mode and thus with a second set of camera setting affordances corresponding to (or in accordance with) a portrait camera mode setting for capturing portrait media. In some embodiments, when the device 600 is configured to capture media in another mode (e.g., video mode), one or more additional affordances, such as a high dynamic range imaging camera setting affordance, are displayed.

図35Aに戻ると、写真カメラモードアフォーダンス620cは、中心に置かれ、かつ選択され、ポートレートモードアフォーダンス620dは、選択されず、かつ写真カメラモードアフォーダンス620cの右側に隣接して表示される。それにより、図8E~図8Hにおいて左スワイプジェスチャ850gに関連して上述されたように、図35Aにおけるデバイス600上の左向きスワイプジェスチャ(例えば、ジェスチャ3550cに類似)は、デバイス600に、中心に置かれ、かつ選択されたようなポートレートモードアフォーダンス620d及び未選択であり、かつポートレートモードアフォーダンス620dの左に表示されたような写真カメラモードアフォーダンス620cを表示させる。更には、図8E~図8Hにおいて左スワイプジェスチャ850gに関連して上述されたように、左向きスワイプジェスチャ(例えば、ジェスチャ3550cに類似)は、デバイス600を、ポートレートカメラモードで構成させる。それゆえ、デバイス600は、デバイス600がカメラモードアフォーダンス620(例えば、図8E~図8H)又はカメラ設定アフォーダンス626(例えば、35C~35E)を現在表示しているかどうかにかかわらず、左向き又は右向きスワイプジェスチャに応じて、メディアをキャプチャするように構成されるカメラモードに切り替える。更には、デバイス600が、左向き又は右向きスワイプジェスチャに応じて、メディアをキャプチャするように構成されるカメラモードに切り替えるとき、アフォーダンスのタイプ(例えば、カメラモードアフォーダンス620又はカメラ設定アフォーダンス626)は、ディスプレイ上に表示され続ける。換言すれば、左向き又は右向きスワイプジェスチャを検出する直前に、デバイス600がカメラモードアフォーダンス620を表示する場合、デバイス600は、左向き若しくは右向きスワイプジェスチャに応じて、カメラモードアフォーダンス620を、カメラ設定アフォーダンス626に置き換えず、又は逆もまた同様である。更には、同じ大きさの左又は右ジェスチャは、カメラモードアフォーダンス620が選択された現在のカメラモードアフォーダンス(例えば、写真モードアフォーダンス620c)で表示されるとき、又は選択されたモード(例えば、写真モード)に対応するカメラ設定アフォーダンス626(例えば、カメラ設定アフォーダンス626a、626g、626c、626e、及び626d)が表示されるときに、デバイス600が左又は右ジェスチャを受信するかどうかと同じ新しいモード(例えば、ポートレートモード)でメディアをキャプチャするようにデバイスを構成する。 Returning to FIG. 35A, photo camera mode affordance 620c is centered and selected, and portrait mode affordance 620d is unselected and displayed adjacent to the right of photo camera mode affordance 620c. As such, as described above in connection with left swipe gesture 850g in FIG. 8E-8H, a leftward swipe gesture (e.g., similar to gesture 3550c) on device 600 in FIG. 35A causes device 600 to display portrait mode affordance 620d as centered and selected, and photo camera mode affordance 620c as unselected and displayed to the left of portrait mode affordance 620d. Furthermore, as described above in connection with left swipe gesture 850g in FIG. 8E-8H, a leftward swipe gesture (e.g., similar to gesture 3550c) causes device 600 to be configured in portrait camera mode. Thus, device 600 switches to a camera mode configured to capture media in response to a leftward or rightward swipe gesture, regardless of whether device 600 is currently displaying camera mode affordance 620 (e.g., FIGS. 8E-8H) or camera settings affordance 626 (e.g., 35C-35E). Furthermore, when device 600 switches to a camera mode configured to capture media in response to a leftward or rightward swipe gesture, the type of affordance (e.g., camera mode affordance 620 or camera settings affordance 626) continues to be displayed on the display. In other words, if device 600 displays camera mode affordance 620 immediately before detecting a leftward or rightward swipe gesture, device 600 does not replace camera mode affordance 620 with camera settings affordance 626 in response to a leftward or rightward swipe gesture, or vice versa. Furthermore, a left or right gesture of the same magnitude configures the device to capture media in the same new mode (e.g., portrait mode) whether the device 600 receives a left or right gesture when the camera mode affordance 620 is displayed with the current camera mode affordance selected (e.g., photo mode affordance 620c) or when the camera settings affordance 626 (e.g., camera settings affordances 626a, 626g, 626c, 626e, and 626d) corresponding to the selected mode (e.g., photo mode) is displayed.

図35Eに示すように、左向きスワイプジェスチャ3550cを検出したことに応じて、デバイス600は、インジケータ領域602内の訂正された1組のインジケータ、更新されたライブプレビュー630、及び更新されたコントロール領域606を表示する。訂正された1組のインジケータは、以前に表示されたフラッシュインジケータ602a及び新たに表示されたf値インジケータ602eを含む。更には、現在選択されている、ズームアフォーダンス2622aは、ズームアフォーダンス2622b及び2622cがカメラディスプレイ領域604内で表示を停止される間、左にシフトされた。更には、デバイス600は、カメラディスプレイ領域604内のズームアフォーダンス2622aの右に、照明効果コントロール628(アクティブ化されると、照明効果を変更することができる)を表示する。図35Eの更新されたライブプレビュー630は、図35Cのライブプレビュー630と比較して、異なる視覚効果を提供する。例えば、35Eの更新されたライブプレビュー630は、ボケ効果及び/又は照明効果を提供するのに対し、図35Cのライブプレビュー630は、ボケ効果及び/又は照明効果を提供しない。いくつかの実施形態では、カメラモード(写真モード対ポートレートモード)の変更により、ライブプレビュー630内のオブジェクトのズームは変化する。いくつかの実施形態では、カメラモード(写真モード対ポートレートモード)の変更にかかわらず、ライブプレビュー630内のオブジェクトのズームは変化しない。図35Eでは、デバイス600は、カメラディスプレイ領域604に対応する位置での下向きスワイプジェスチャ3550d(例えば、インジケータ領域602からコントロール領域606に向かう下スワイプジェスチャ)を検出する。あるいは、図35Eで、デバイス600は、インジケータ領域602内に配置されている、モード-設定スイッチャアフォーダンス3502に対応する位置でのタップジェスチャ3550eを検出する。 As shown in FIG. 35E, in response to detecting the left swipe gesture 3550c, the device 600 displays a corrected set of indicators in the indicator region 602, an updated live preview 630, and an updated control region 606. The corrected set of indicators includes the previously displayed flash indicator 602a and the newly displayed f-stop indicator 602e. Furthermore, the currently selected zoom affordance 2622a has been shifted to the left while the zoom affordances 2622b and 2622c are deactivated in the camera display region 604. Furthermore, the device 600 displays a lighting effects control 628 (which, when activated, can change the lighting effects) to the right of the zoom affordance 2622a in the camera display region 604. The updated live preview 630 in FIG. 35E provides different visual effects compared to the live preview 630 in FIG. 35C. For example, the updated live preview 630 of FIG. 35E provides bokeh and/or lighting effects, whereas the live preview 630 of FIG. 35C does not provide bokeh and/or lighting effects. In some embodiments, the zoom of an object in the live preview 630 changes due to a change in camera mode (photo mode vs. portrait mode). In some embodiments, the zoom of an object in the live preview 630 does not change regardless of a change in camera mode (photo mode vs. portrait mode). In FIG. 35E, the device 600 detects a downward swipe gesture 3550d (e.g., a downward swipe gesture from the indicator region 602 towards the control region 606) at a location corresponding to the camera display region 604. Alternatively, in FIG. 35E, the device 600 detects a tap gesture 3550e at a location corresponding to the mode-setting switcher affordance 3502, which is located within the indicator region 602.

図35Fに示すように、下向きスワイプジェスチャ3550d又はタップジェスチャ3550eを検出したことに応じて、デバイス600は、図35Bに示されたカメラユーザインタフェースの上シフトを反転してシフトする。具体的には、デバイス600は、カメラディスプレイ領域604のサイズ及びアスペクト比を維持している間に、カメラディスプレイ領域604を下にシフトする。それにより、デバイス600がカメラディスプレイ領域604を下にシフトするとき、デバイス600は、インジケータ領域602の高さを増加させ、図35Aに示される元のそれらの元の高さに戻るようにコントロール領域606の高さを減少させる。インジケータ領域602の高さを増加させることに加えて、デバイス600は、下向き矢印(例えば、カメラユーザインタフェースが下にシフトされ得るインジケーション、又はモード-設定スイッチャアフォーダンス3502上の入力を検出したことに応じて、カメラモードアフォーダンスが表示され得るインジケーション)を含むことから、上向き矢印(例えば、カメラユーザインタフェースが上にシフトされ得るインジケーション、又はモード-設定スイッチャアフォーダンス3502上の入力に応じて、カメラ設定アフォーダンス626が表示され得るインジケーション)を表示するように、モード-設定スイッチャアフォーダンス3502を更新する。コントロール領域606の高さを減少させることに加えて、デバイス600は、カメラ設定アフォーダンス626を、カメラモードアフォーダンス620に置き換える。デバイス600がポートレートカメラモードでメディアをキャプチャするように構成されるため、デバイス600は、左にシフトされたポートレートカメラモードアフォーダンス620dを表示し、ここで、ポートレートカメラモード620dが、選択され、かつ中心に置かれるように表示され、及び写真カメラモード620c(例えば、図35Aに以前に選択された)が、ポートレートカメラモード620dの右に、選択されずに表示される。 As shown in FIG. 35F, in response to detecting a downward swipe gesture 3550d or a tap gesture 3550e, the device 600 inverts and shifts the upward shift of the camera user interface shown in FIG. 35B. Specifically, the device 600 shifts the camera display area 604 downward while maintaining the size and aspect ratio of the camera display area 604. As a result, when the device 600 shifts the camera display area 604 downward, the device 600 increases the height of the indicator area 602 and decreases the height of the control area 606 back to their original heights shown in FIG. 35A. In addition to increasing the height of indicator region 602, device 600 updates mode-setting switcher affordance 3502 from including a down arrow (e.g., an indication that the camera user interface may be shifted down, or that a camera mode affordance may be displayed in response to detecting an input on mode-setting switcher affordance 3502) to display an up arrow (e.g., an indication that the camera user interface may be shifted up, or that a camera settings affordance 626 may be displayed in response to detecting an input on mode-setting switcher affordance 3502). In addition to decreasing the height of control region 606, device 600 replaces camera settings affordance 626 with camera mode affordance 620. Because device 600 is configured to capture media in portrait camera mode, device 600 displays portrait camera mode affordance 620d shifted to the left, where portrait camera mode 620d appears selected and centered, and photo camera mode 620c (e.g., previously selected in FIG. 35A ) appears unselected to the right of portrait camera mode 620d.

図35Fに示すように、下向きスワイプジェスチャ3550d又はタップジェスチャ3550eを検出したことに応じて、デバイス600はまた、1つ以上のカメラの視野を下にシフトする。それにより、デバイス600は、図35Eに表示されたいくらかの視覚部分を図35Bのディスプレイから外れるように/ディスプレイ上にシフトする。例えば、図35Eに表示されなかったインジケータ領域602内のちょう結び3540の一部分は、図35Fに表示され、図35Eに表示されたパッチ3538の一部分は、図35Fに表示されない。同様に、図35Bに関連して上述したように、デバイスが超広角レンズを有するカメラを使用してメディアをキャプチャするように構成されているため、デバイス600は、いくらかの視覚部分をディスプレイ上に、及びいくらかの視覚部分をディスプレイ上に/から外れるようにシフトする。 As shown in FIG. 35F, in response to detecting the downward swipe gesture 3550d or the tap gesture 3550e, the device 600 also shifts the field of view of one or more cameras downward. Thereby, the device 600 shifts some visual portions displayed in FIG. 35E off/onto the display of FIG. 35B. For example, a portion of the bow 3540 in the indicator region 602 that was not displayed in FIG. 35E is displayed in FIG. 35F, and a portion of the patch 3538 displayed in FIG. 35E is not displayed in FIG. 35F. Similarly, as described above in connection with FIG. 35B, the device 600 shifts some visual portions on and some visual portions on/off the display because the device is configured to capture media using a camera with an ultra-wide angle lens.

更には、図35Fに示すように、下向きスワイプジェスチャ3550dを検出した後の第1の時点で、デバイス600は、下向きスワイプジェスチャ3550d又はタップジェスチャ3550eの完了を検出する。いくつかの実施形態では、デバイス600は、下向きスワイプジェスチャ3550dのリフトオフ(例えば、デバイス600のタッチ感知面を使用する、下向きスワイプジェスチャ3550dのタッチ接触のリフトオフ)を検出する前に、下向きスワイプジェスチャ3550dの完了を検出する。いくつかの実施形態では、下向きスワイプジェスチャ3550dの完了は、下向きスワイプジェスチャ3550dのタッチ接触が、カメラディスプレイ領域604上の位置に対応する第1の位置からカメラディスプレイ領域604上の位置に対応する第2の位置までの閾値距離を動くと検出された後に発生し得る。 35F, at a first time after detecting the downward swipe gesture 3550d, the device 600 detects the completion of the downward swipe gesture 3550d or the tap gesture 3550e. In some embodiments, the device 600 detects the completion of the downward swipe gesture 3550d before detecting the lift-off of the downward swipe gesture 3550d (e.g., the lift-off of the touch contact of the downward swipe gesture 3550d using the touch-sensitive surface of the device 600). In some embodiments, the completion of the downward swipe gesture 3550d may occur after the touch contact of the downward swipe gesture 3550d is detected to move a threshold distance from a first position corresponding to a position on the camera display area 604 to a second position corresponding to a position on the camera display area 604.

図35Fに示すように、デバイス600が下向きスワイプジェスチャ3550d又はタップジェスチャ3550eの完了を検出するとき、デバイス600は、デバイス600がカメラ設定アフォーダンス626を、カメラモードアフォーダンス620に置き換えている(又は置き換えた)ことを示す、触知出力3560bを提供する。図35Fでは、デバイス600は、下向きスワイプジェスチャ3550dのリフトオフを検出する。 As shown in FIG. 35F, when device 600 detects completion of downward swipe gesture 3550d or tap gesture 3550e, device 600 provides tactile output 3560b indicating that device 600 is replacing (or has replaced) camera setting affordance 626 with camera mode affordance 620. In FIG. 35F, device 600 detects lift-off of downward swipe gesture 3550d.

図35Gに示すように、下向きスワイプジェスチャ3550dのリフトオフを検出した後に、デバイス600は、触知出力をもはや提供しない。図35Gでは、デバイス600は、0.5×ズームアフォーダンス2622aに対応する位置でのタップジェスチャ3550gを検出する。 As shown in FIG. 35G, after detecting lift-off of the downward swipe gesture 3550d, the device 600 no longer provides a tactile output. In FIG. 35G, the device 600 detects a tap gesture 3550g at a location corresponding to the 0.5× zoom affordance 2622a.

図35Hに示すように、タップジェスチャ3550gを検出したことに応じて、デバイス600は、(例えば、第1のカメラセンサから異なる視野を有する第2のカメラセンサにカメラセンサを切り替えることにより)2×ズームレベルにライブプレビュー630のズームを更新し、かつ2×の現在のズームを示すように、ズームアフォーダンス2622を更新する。デバイス600は、図8N~図8Pのジェスチャ850o、850p、及び850qに関連して記載されたものと同様の技術を使用して、タップジェスチャ3550gに応答する。図35Hでは、デバイス600は、カメラディスプレイ領域604に対応する位置での右向きスワイプジェスチャ3550h(例えば、左から右にカメラディスプレイ領域604を横切って動くスワイプジェスチャ)を検出する。 As shown in FIG. 35H, in response to detecting tap gesture 3550g, device 600 updates the zoom of live preview 630 to a 2× zoom level (e.g., by switching the camera sensor from the first camera sensor to a second camera sensor having a different field of view) and updates zoom affordance 2622 to indicate a current zoom of 2×. Device 600 responds to tap gesture 3550g using techniques similar to those described in connection with gestures 850o, 850p, and 850q in FIG. 8N-8P. In FIG. 35H, device 600 detects rightward swipe gesture 3550h (e.g., a swipe gesture moving from left to right across camera display area 604) at a location corresponding to camera display area 604.

図35Iに示すように、右向きスワイプジェスチャ3550hを検出したことに応じて、デバイス600は、右向きスワイプジェスチャ3550hの大きさに基づいて、カメラモードアフォーダンス620を右にシフトする。ここで、デバイス600は、写真モードアフォーダンス620cが未選択で、かつビデオモードアフォーダンス620bの右に留まる間に、ビデオモードアフォーダンス620bが選択され、かつ中心に置かれるように、右向きスワイプジェスチャ3550hがカメラモードアフォーダンス620を右にシフトするのに十分な大きさを有することを検出する。それにより、写真モードアフォーダンス620cは、右向きスワイプジェスチャ3550hの大きさのため、選択されないようにスキップされる。それにより、デバイス600は、ビデオメディアをキャプチャするように(又はビデオモードに従って)構成され、デバイスがポートレートメディアの代わりに、ビデオメディアをキャプチャするように構成されるため、デバイス600は、照明効果コントロール628を表示することを停止する。更には、右向きスワイプジェスチャ3550hを検出したことに応じて、デバイス600は、ズームアフォーダンス2622(例えば、アフォーダンス2622a、2622b、及び2622c)を再表示し、ここで、ライブプレビュー630が0.5×ズームレベルで表示されるため、0.5×ズームアフォーダンス2622aが選択される。 35I, in response to detecting the right swipe gesture 3550h, the device 600 shifts the camera mode affordance 620 to the right based on the magnitude of the right swipe gesture 3550h. Here, the device 600 detects that the right swipe gesture 3550h has sufficient magnitude to shift the camera mode affordance 620 to the right such that the video mode affordance 620b is selected and centered while the photo mode affordance 620c remains unselected and to the right of the video mode affordance 620b. The photo mode affordance 620c is thereby skipped from being selected due to the magnitude of the right swipe gesture 3550h. The device 600 is thereby configured to capture video media (or according to a video mode), and the device 600 stops displaying the lighting effects control 628 because the device is configured to capture video media instead of portrait media. Further, in response to detecting the right swipe gesture 3550h, the device 600 redisplays the zoom affordances 2622 (e.g., affordances 2622a, 2622b, and 2622c), where the 0.5x zoom affordance 2622a is selected because the live preview 630 is displayed at the 0.5x zoom level.

図36A~図36Bは、いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。方法3600は、表示デバイス(例えば、タッチ感知ディスプレイ)を備えたデバイス(例えば、100、300、500、600)で実行される。方法3600のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 36A-36B are flow diagrams illustrating a method for editing media captured using an electronic device, according to some embodiments. Method 3600 is performed on a device (e.g., 100, 300, 500, 600) with a display device (e.g., a touch-sensitive display). Some operations of method 3600 are optionally combined, the order of some operations is optionally changed, and some operations are optionally omitted.

いくつかの実施形態では、電子デバイス(例えば、600)は、コンピュータシステムである。コンピュータシステムは、任意選択的に、ディスプレイ生成構成要素と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the electronic device (e.g., 600) is a computer system. The computer system is optionally in communication (e.g., wired communication, wireless communication) with a display generation component and with one or more input devices. The display generation component is configured to provide visual output, such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. The one or more input devices are configured to receive input, such as a touch-sensitive surface that receives user input. In some embodiments, the one or more input devices are integrated with the computer system. In some embodiments, the one or more input devices are separate from the computer system. Thus, the computer system can transmit data (e.g., image data or video data) via a wired or wireless connection to an integrated or external display generation component to visually generate content (e.g., using a display device) and can receive wired or wireless connection input from one or more input devices.

後述するように、方法3600は、電子デバイスを使用してメディアキャプチャコントロールにアクセスするための直感的な仕方を提供する。この方法は、メディアコントロールにアクセスする際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアコントロールにアクセスすることを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, the method 3600 provides an intuitive way to access media capture controls using an electronic device. The method reduces the cognitive burden on a user in accessing media controls, thereby creating a more efficient human-machine interface. For battery-operated computing devices, enabling a user to access media controls more quickly and efficiently conserves power and extends the time between battery charges.

電子デバイス(例えば、600)は、表示デバイス及び1つ以上のカメラ(例えば、電子デバイスの同じ側又は異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を含む。電子デバイスは、表示デバイスを介して、カメラユーザインタフェースを表示する(3602)。カメラユーザインタフェースは、カメラディスプレイ領域(例えば、602)を含む(例えば、同時に表示する)。カメラディスプレイ領域は、1つ以上のカメラの視野の表現及びカメラコントロール領域(例えば、606)を含む。カメラユーザインタフェースはまた、カメラコントロール領域を含み、カメラコントロール領域は、第1の位置(例えば、画像キャプチャアフォーダンス(例えば、アクティブ化されると、電子デバイスに、カメラディスプレイ領域内に表示されたコンテンツの画像をキャプチャさせるシャッターアフォーダンス)の上の位置)に1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンス(例えば、620)(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、異なるカメラモード(例えば、スローモーション、ビデオ、写真、ポートレート、正方形、パノラマなど)を選択するアフォーダンス)を含む。いくつかの実施形態では、複数のカメラモード(例えば、ビデオ、写真、ポートレート、スローモーション、パノラマモードのうちの2つ以上の)は、カメラ(例えば、カメラセンサ)がメディアをキャプチャするように動作している(キャプチャ後に自動的に実行される後処理を含む)モード(例えば、ポートレートモード)の複数の値(例えば、各設定の光のレベル)を有する対応する複数の設定(例えば、ポートレートカメラモードについて:スタジオ照明設定、輪郭照明設定、舞台照明設定)を有する。このようにして、例えば、カメラモードは、メディアをキャプチャするときにカメラがどのように動作するかに影響を及ぼさない又は複数の設定(例えば、複数の値(例えば、非アクティブ、アクティブ、自動)を有する1つの設定を有するフラッシュモード)を含まないモードとは異なる。いくつかの実施形態では、カメラモードにより、ユーザは、異なるタイプのメディア(例えば、写真又はビデオ)をキャプチャすることを可能にし、各モードの設定を最適化して、特定の特性(例えば、形状(例えば、正方形、矩形)、速さ(例えば、スローモーション、時間経過)、オーディオ、ビデオ)を有する特定のモードに対応する特定のタイプのメディアを(例えば、後処理を介して)キャプチャすることができる。例えば、静止写真モードで動作するように電子デバイスが構成されているときに、電子デバイスの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定、1つ以上のフィルタ設定)を有する第1のタイプ(例えば、矩形の写真)のメディアをキャプチャし、正方形モードで動作するように電子デバイスが構成されているときに、電子デバイスの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定及び1つ以上のフィルタ)を有する第2のタイプ(例えば、正方形の写真)のメディアをキャプチャし、スローモーションモードで動作するように電子デバイスが構成されているときに、電子デバイスの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定、一秒当たりのフレームキャプチャ速度)を有する第3のタイプ(例えば、スローモーションビデオ)のメディアをキャプチャし、ポートレートモードで動作するように電子デバイスが構成されているときに、電子デバイスの1つ以上のカメラは、特定の設定(例えば、特定のタイプの光(例えば、舞台光、スタジオ光、輪郭光)の量、f値、ぼかし)を有する第5のタイプ(例えば、ポートレート写真(例えば、ぼかしをかけた背景を有する写真))のメディアをキャプチャし、パノラマモードで動作するように電子デバイスが構成されているときに、電子デバイスの1つ以上のカメラは、特定の設定(例えば、ズーム、移動しながらキャプチャするための視野の量)を有する第4のタイプ(例えば、パノラマ写真(例えば、広い写真)のメディアをキャプチャする。いくつかの実施形態では、モード間の切り替え時、視野の表現の表示は、モードによってキャプチャされるメディアのタイプに対応するように変化する(例えば、電子デバイスが静止写真モードで動作している間、この表現は、矩形モードであり、電子デバイスが正方形モードで動作している間、この表現は、正方形である)。いくつかの実施形態では、第1の複数のカメラモードアフォーダンスを表示している間に、電子デバイスは、第1のモードでメディアをキャプチャするように構成される。 The electronic device (e.g., 600) includes a display device and one or more cameras (e.g., one or more cameras (e.g., dual camera, triple camera, quad camera, etc.) on the same or different sides (e.g., front camera, rear camera) of the electronic device). The electronic device displays a camera user interface via the display device (3602). The camera user interface includes (e.g., simultaneously displays) a camera display area (e.g., 602). The camera display area includes a representation of the field of view of the one or more cameras and a camera control area (e.g., 606). The camera user interface also includes a camera control area, which includes a first plurality of camera mode affordances (e.g., 620) (e.g., selectable user interface objects) (e.g., affordances for selecting different camera modes (e.g., slow motion, video, photo, portrait, square, panorama, etc.)) in a first position (e.g., a position above an image capture affordance (e.g., a shutter affordance that, when activated, causes the electronic device to capture an image of content displayed in the camera display area). In some embodiments, a plurality of camera modes (e.g., two or more of video, photo, portrait, slow motion, panorama modes) have corresponding multiple settings (e.g., for portrait camera mode: studio lighting setting, contour lighting setting, stage lighting setting) with multiple values (e.g., light levels for each setting) for the mode (e.g., portrait mode) in which the camera (e.g., camera sensor) is operating to capture media (including post-processing that is automatically performed after capture). In this manner, for example, a camera mode differs from a mode that does not affect how the camera operates when capturing media or does not include multiple settings (e.g., a flash mode having one setting with multiple values (e.g., inactive, active, auto)). In some embodiments, the camera modes allow a user to capture different types of media (e.g., photo or video) and optimize the settings of each mode to capture (e.g., via post-processing) a particular type of media that corresponds to the particular mode with particular characteristics (e.g., shape (e.g., square, rectangular), speed (e.g., slow motion, time lapse), audio, video). For example, when the electronic device is configured to operate in a still photography mode, one or more cameras of the electronic device may, when activated, capture media of a first type (e.g., rectangular photos) having particular settings (e.g., flash settings, one or more filter settings); when the electronic device is configured to operate in a square mode, one or more cameras of the electronic device may, when activated, capture media of a second type (e.g., square photos) having particular settings (e.g., flash settings and one or more filters); when the electronic device is configured to operate in a slow motion mode, one or more cameras of the electronic device may, when activated, capture media of a third type (e.g., slow motion video) having particular settings (e.g., flash settings, frames per second capture rate); and when the electronic device is configured to operate in a portrait mode, one or more cameras of the electronic device may, when activated, capture media of a third type (e.g., slow motion video) having particular settings (e.g., flash settings, frames per second capture rate). For example, when the electronic device is configured to operate in a panoramic mode, one or more cameras of the electronic device capture media of a fourth type (e.g., panoramic (e.g., wide) photo) with specific settings (e.g., zoom, amount of field of view for moving capture). In some embodiments, when switching between modes, the display of the representation of the field of view changes to correspond to the type of media captured by the mode (e.g., while the electronic device is operating in a still photo mode, the representation is rectangular, while the electronic device is operating in a square mode, the representation is square). In some embodiments, while displaying the first plurality of camera mode affordances, the electronic device is configured to capture media in the first mode.

1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンス(例えば、図35Aの620)を表示している間に、電子デバイスは、カメラユーザインタフェースに向けられた(例えば、その上、又はそれに対応する位置での)第1のジェスチャ(例えば、3350a及び/又は3350b)(例えば、タッチジェスチャ(例えば、上向きスワイプ又は下向き)、アフォーダンス(例えば、3502)上のタップジェスチャ)を検出する(3604)。 While displaying a first plurality of camera mode affordances (e.g., 620 in FIG. 35A) indicating different operational modes of one or more cameras, the electronic device detects (3604) a first gesture (e.g., 3350a and/or 3350b) directed at (e.g., on or at a location corresponding to) the camera user interface (e.g., a touch gesture (e.g., swipe up or down), a tap gesture on the affordance (e.g., 3502)).

カメラユーザインタフェースに向けられた第1のジェスチャを検出したことに応じて(3606)、電子デバイスは、第1の位置に第1の1組のカメラ設定(例えば、カメラ動作を制御する設定)アフォーダンス(例えば、図35Bの626)(例えば、1つ以上の選択可能ユーザインタフェースオブジェクト)(例えば、選択されたカメラモードのカメラ設定(例えば、フラッシュ、タイマー、フィルタ効果、f値、アスペクト比、ライブフォトなど)を選択又は変更するアフォーダンス)を表示し(3608)、第1の位置にカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)表示することを停止する(3610)。いくつかの実施形態では、第1の1組のカメラ設定アフォーダンスは、第1のカメラモード(例えば、620c)の画像キャプチャを調整する設定(例えば、画像キャプチャの動作を調整するコントロール)である(例えば、カメラモードアフォーダンスを、カメラ設定アフォーダンスに置き換える)(例えば、第1の1組のカメラ設定アフォーダンスは、選択されると、電子デバイスに、第1のカメラモードの第1の画像キャプチャ設定(例えば、特性)を調整させる、第1のアフォーダンスを含む)。ジェスチャに応じて、カメラモードでメディアをキャプチャする選択されたカメラアフォーダンスに対応するカメラ設定アフォーダンスを表示することにより、カメラモードに関連付けられたカメラ設定についてのフィードバックをユーザに提供し、かつ1つ以上の動作がカメラ設定アフォーダンスを選択するように実行されると、ユーザがカメラ設定に基づいてカメラモードを容易に構成するのを支援することにより、デバイスのより多くのコントロールをユーザに提供する。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In response to detecting a first gesture directed toward the camera user interface (3606), the electronic device displays (3608) a first set of camera settings (e.g., settings controlling camera operation) affordances (e.g., 626 in FIG. 35B) (e.g., one or more selectable user interface objects) (e.g., affordances to select or change camera settings for a selected camera mode (e.g., flash, timer, filter effects, f-stop, aspect ratio, live photo, etc.)) at the first location and ceases displaying (3610) a first plurality of camera mode affordances (e.g., selectable user interface objects) indicating different operational modes of the camera at the first location. In some embodiments, the first set of camera settings affordances are settings (e.g., controls that adjust operation of image capture) that adjust image capture for a first camera mode (e.g., 620c) (e.g., replaces camera mode affordances with camera settings affordances) (e.g., the first set of camera settings affordances includes a first affordance that, when selected, causes the electronic device to adjust a first image capture setting (e.g., characteristic) of the first camera mode). In response to a gesture, displaying a camera settings affordance corresponding to the selected camera affordance for capturing media in the camera mode provides the user with feedback about the camera settings associated with the camera mode, and provides the user with more control of the device by helping the user easily configure the camera mode based on the camera settings when one or more actions are performed to select the camera settings affordance. Providing additional controls without cluttering the UI with additional controls displayed enhances usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

第1の位置に第1の1組のカメラ設定アフォーダンス(例えば、図35Cの626)を表示している間に、かつ第1のカメラモードでメディア(例えば、1つ以上の画像、ビデオ)をキャプチャするように電子デバイスが構成されている(例えば、(例えば、メディアキャプチャの開始(例えば、シャッターアフォーダンス上のタップ)により)アクティブ化されると、電子デバイスの1つ以上のカメラが、電子デバイスに、第2のカメラモードでメディアをキャプチャさせるようにする設定を調整する))間に、電子デバイスは、カメラユーザインタフェースに向けられた(例えば、その上、又はそれに対応する位置での)第2のジェスチャ(例えば、3550c)(例えば、左向きスワイプ、右向きスワイプ、及び/又は第1のジェスチャに対して相対的に直角な方向のスワイプ)を受信する(3612)。いくつかの実施形態では、第2のジェスチャは、第1のジェスチャ.とは異なる方向(例えば、直角又は平行でない)にある。 While displaying a first set of camera setting affordances (e.g., 626 in FIG. 35C) in a first location and while the electronic device is configured to capture media (e.g., one or more images, video) in a first camera mode (e.g., one or more cameras of the electronic device adjust settings that, when activated (e.g., by initiating media capture (e.g., a tap on the shutter affordance)), cause the electronic device to capture media in a second camera mode), the electronic device receives (3612) a second gesture (e.g., 3550c) (e.g., a left swipe, a right swipe, and/or a swipe in a direction perpendicular to the first gesture) directed at (e.g., on or at a location corresponding to) the camera user interface. In some embodiments, the second gesture is in a different direction (e.g., not perpendicular or parallel) to the first gesture.

カメラユーザインタフェースに向けられた第2のジェスチャを受信したことに応じて(3614)、電子デバイスは、第1のカメラモードとは異なる第2のカメラモード(例えば、620c)でメディア(例えば、1つ以上の画像、ビデオ)をキャプチャするように電子デバイスを構成し(3616)(例えば、(例えば、メディアキャプチャの開始(例えば、シャッターアフォーダンス上のタップ)により)アクティブ化されると、電子デバイスの1つ以上のカメラが、電子デバイスに、第2のカメラモードでメディアをキャプチャさせるようにする設定を調整する))(例えば、第1のカメラモード及び第2のカメラモードは互いに隣接する)(例えば、第2の1組のカメラ設定アフォーダンスは、選択されると、電子デバイスに、第2のカメラモードの第1の画像キャプチャ設定(例えば、特性)を調整させる、第2のアフォーダンスを含む)、第1の位置で1つ以上のカメラの異なる動作モードを示す複数のカメラモードアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、異なるカメラモード(例えば、スローモーション、ビデオ、写真、ポートレート、正方形、パノラマなど)を選択するアフォーダンス)を表示することなく、第1の位置で第2の1組のカメラ設定アフォーダンス(例えば、図35Eの626)(例えば、1つ以上の選択可能ユーザインタフェースオブジェクト)(例えば、選択されたカメラモードのカメラ設定(例えば、フラッシュ、タイマー、フィルタ効果、f値、アスペクト比、ライブフォトなど)を選択又は変更するアフォーダンス)を表示する(3618)。選択されたカメラアフォーダンスに対応するカメラ設定アフォーダンスの表示を、異なるモードに対応するカメラ設定アフォーダンスの表示で更新すること、及び異なるモードで動作するように電子デバイスを構成することにより、ユーザが異なるモードで動作するようにメディアを構成する必要があり、かつ異なるモードに対応するカメラ設定を設定する必要がある動作の数を低減し、1つ以上の動作がカメラ設定アフォーダンスを選択するように実行されると、ユーザがカメラ設定に基づいてカメラモードを容易に構成するのを支援することにより、デバイスのより多くのコントロールをユーザに提供する。操作を実行するのに必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In response to receiving a second gesture directed at the camera user interface (3614), the electronic device configures (3616) the electronic device to capture media (e.g., one or more images, video) in a second camera mode (e.g., 620c) different from the first camera mode (e.g., adjusting settings for one or more cameras of the electronic device that, when activated (e.g., by initiating media capture (e.g., a tap on the shutter affordance)), cause the electronic device to capture media in the second camera mode) (e.g., the first camera mode and the second camera mode are adjacent to one another) (e.g., a second set of camera settings affordances, when selected, cause the electronic device to capture a first image of the second camera mode) displaying a second set of camera setting affordances (e.g., 626 of FIG. 35E ) (e.g., one or more selectable user interface objects) (e.g., affordances to select or change camera settings for a selected camera mode (e.g., flash, timer, filter effects, f-stop, aspect ratio, live photo, etc.)) at the first position, without displaying a plurality of camera mode affordances (e.g., selectable user interface objects) indicating different operational modes of the one or more cameras at the first position (e.g., affordances to select a different camera mode (e.g., slow motion, video, photo, portrait, square, panorama, etc.)) (3618). Updating the display of the camera settings affordance corresponding to the selected camera affordance with a display of the camera settings affordance corresponding to the different modes and configuring the electronic device to operate in the different modes reduces the number of operations that the user must perform to configure the media to operate in the different modes and to set the camera settings corresponding to the different modes, and provides the user with more control of the device by helping the user easily configure the camera mode based on the camera settings when one or more operations are performed to select the camera settings affordance. Reducing the number of inputs required to perform operations enhances the usability of the device, makes the user-device interface more efficient (e.g., by helping the user make appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently. Providing additional controls without cluttering the UI with additional controls displayed enhances the usability of the device, makes the user-device interface more efficient (e.g., by helping the user make appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第2の1組のカメラ設定アフォーダンスは、第2のカメラモードの画像キャプチャを調整する設定(例えば、画像キャプチャの動作を調整するコントロール)である(3620)(例えば、図35Eの626)(例えば、第2の1組のカメラ設定アフォーダンスは、選択されると、電子デバイスに、第2のカメラモードの第2の画像キャプチャ設定(例えば、特性)を調整させる、第2のアフォーダンスを含む)。 In some embodiments, the second set of camera settings affordances are settings (e.g., controls that adjust image capture operation) for the second camera mode (3620) (e.g., 626 in FIG. 35E) (e.g., the second set of camera settings affordances includes a second affordance that, when selected, causes the electronic device to adjust a second image capture setting (e.g., characteristic) of the second camera mode).

いくつかの実施形態では、第2の1組のカメラ設定アフォーダンス(例えば、図35Eの626)は、第1の1組のカメラ設定アフォーダンス(例えば、図35Bの626)とは異なる。いくつかの実施形態では、第1の1組のカメラ設定アフォーダンスは、第2の1組のカメラ設定アフォーダンスにあるカメラ設定アフォーダンスを含む。いくつかの実施形態では、第1の1組のカメラ設定アフォーダンスは、第2の1組のカメラ設定アフォーダンスにないカメラ設定アフォーダンスを含む。いくつかの実施形態では、第1の1組のカメラ設定アフォーダンス及び第2の1組のカメラ設定アフォーダンスは、異なる数のカメラ設定アフォーダンスを有する。いくつかの実施形態では、第2の1組のカメラ設定アフォーダンスを、第1の1組のカメラ設定アフォーダンスに置き換える。選択されたカメラアフォーダンスに対応するカメラ設定アフォーダンスの表示を、異なるモードに対応するカメラ設定アフォーダンスの表示で更新することにより、1つ以上の動作がカメラ設定アフォーダンスを選択するように実行されると、ユーザがカメラ設定に基づいてカメラモードを容易に構成するのを支援することにより、デバイスのより多くのコントロールをユーザに提供する。操作を実行するのに必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the second set of camera setting affordances (e.g., 626 in FIG. 35E) are different from the first set of camera setting affordances (e.g., 626 in FIG. 35B). In some embodiments, the first set of camera setting affordances include camera setting affordances that are in the second set of camera setting affordances. In some embodiments, the first set of camera setting affordances include camera setting affordances that are not in the second set of camera setting affordances. In some embodiments, the first set of camera setting affordances and the second set of camera setting affordances have different numbers of camera setting affordances. In some embodiments, the second set of camera setting affordances are replaced with the first set of camera setting affordances. Updating the display of the camera settings affordance corresponding to the selected camera affordance with a display of the camera settings affordance corresponding to a different mode provides the user with more control of the device by helping the user easily configure the camera mode based on the camera settings when one or more actions are performed to select the camera settings affordance. Reducing the number of inputs required to perform an action enhances the usability of the device, makes the user-device interface more efficient (e.g., by helping the user make appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently. Providing additional controls without cluttering the UI with additional controls displayed enhances the usability of the device, makes the user-device interface more efficient (e.g., by helping the user make appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1の1組のカメラ設定アフォーダンス(例えば、図35Bの626)(又は第2の1組のカメラ設定アフォーダンス)は、フラッシュ設定アフォーダンス(例えば、626a)(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、選択されると、電子デバイスに、電子デバイスが、メディアをキャプチャする要求に応じて、フラッシュ動作を使用して、メディアをキャプチャする状態に又は状態から変更させ(例えば、又は電子デバイスに、変化させるオプションを表示する)、表示されたフラッシュ設定アフォーダンスの状態(非アクティブ、アクティブ、自動、1つ以上の文字、及び/又はカメラ設定アフォーダンスに関連付けられた画像)の表示をトグル(例えば、変化)させ、及び/又はフラッシュ動作を設定するユーザインタフェースを表示させる、フラッシュ設定アフォーダンス)、画像キャプチャ設定アフォーダンス(例えば、626b)(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、選択されると、電子デバイスに、電子デバイスが、メディアをキャプチャする要求に応じて、アニメーション化された画像(例えば、動画(例えば、静止画像(単数又は複数)及び/又はビデオ))をキャプチャする状態に又は状態から変更させ(例えば、又は電子デバイスに、変化させるオプションを表示する)、表示された画像キャプチャ設定アフォーダンスの状態(非アクティブ、アクティブ、自動、1つ以上の文字、及び/又はカメラ設定アフォーダンスに関連付けられた画像)の表示をトグル(例えば、変化)させ、及び/又はアニメーション化された画像キャプチャ動作を設定するユーザインタフェースを表示させる、画像キャプチャ設定アフォーダンス(例えば、アニメーション化された画像キャプチャ設定アフォーダンス))、アスペクト比カメラ設定アフォーダンス(例えば、626c)(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、選択されると、電子デバイスに、電子デバイスが、メディアをキャプチャする要求に応じて、特定のアスペクト比を使用してメディアをキャプチャする状態に又は状態から変更させ(例えば、又は電子デバイスに、変化させるオプションを表示する)、表示されたアスペクト比カメラ設定アフォーダンスの状態(非アクティブ、アクティブ、自動、1つ以上の文字、及び/又はカメラ設定アフォーダンスに関連付けられた画像)の表示をトグル(例えば、変化)させ、及び/又はメディアをキャプチャするときに、特定のアスペクト比の使用のためのユーザインタフェースを表示させる、アスペクト比設定アフォーダンス)、フィルタ設定カメラ設定アフォーダンス(例えば、626e)(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、選択されると、電子デバイスに、電子デバイスが、メディアをキャプチャする要求に応じて、特定のフィルタを使用して、キャプチャする状態に又は状態から変更させ(例えば、又は電子デバイスに、変化させるオプションを表示する)、表示されたフィルタカメラ設定アフォーダンスの状態(非アクティブ、アクティブ、自動、1つ以上の文字、及び/又はカメラ設定アフォーダンスに関連付けられた画像)の表示をトグル(例えば、変化)させ、及び/又はメディアをキャプチャするときに、特定のフィルタの使用を設定するユーザインタフェースを表示させる、フィルタ設定アフォーダンス)、高ダイナミックレンジイメージングカメラ設定アフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、選択されると、電子デバイスに、電子デバイスが、画像メディアをキャプチャする要求に応じて、高ダイナミックレンジをキャプチャする状態に又は状態から変更させ(例えば、又は電子デバイスに、変化させるオプションを表示する)、表示された高ダイナミックレンジ設定アフォーダンスの状態(非アクティブ、アクティブ、自動、1つ以上の文字、及び/又はカメラ設定アフォーダンスに関連付けられた画像)の表示をトグル(例えば、変化)させ、及び/又はメディアをキャプチャするときに、高ダイナミックレンジイメージングを使用するユーザインタフェースを表示させる、高ダイナミックレンジ設定アフォーダンス)、及び低光カメラ設定アフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、選択されると、電子デバイスに、電子デバイスが、メディアをキャプチャする要求に応じて、低光モード動作を使用して、メディアをキャプチャする状態に又は状態から変更させ(例えば、又は電子デバイスに、変化させるオプションを表示する)、表示された低光キャプチャカメラモードアフォーダンスの状態(非アクティブ、アクティブ、自動、1つ以上の文字、及び/又はカメラ設定アフォーダンスに関連付けられた画像)の表示をトグル(例えば、変化)させ、及び/又は低光キャプチャカメラモードを設定するユーザインタフェースを表示させる、低光カメラ設定アフォーダンス)のうちの1つ以上を含む。 In some embodiments, the first set of camera settings affordances (e.g., 626 in FIG. 35B ) (or the second set of camera settings affordances) may include a flash settings affordance (e.g., 626a) (e.g., a selectable user interface object) (e.g., a flash settings affordance that, when selected, causes the electronic device to change to or from a state in which the electronic device captures media using a flash operation in response to a request to capture media (e.g., or causes the electronic device to display an option to change), toggle (e.g., change) the display of a state of the displayed flash settings affordance (inactive, active, automatic, one or more characters, and/or an image associated with the camera settings affordance), and/or display a user interface for configuring a flash operation), an image capture settings affordance (e.g., 626b) (e.g., a selectable user interface object) (e.g., a flash settings affordance that, when selected, causes the electronic device to capture an animated image (e.g., a moving image (e.g., a still image(s) and/or a video) in response to a request to capture media), or an aspect ratio camera settings affordance (e.g., 626c) (e.g., a selectable user interface object) (e.g., when selected, causes the electronic device to change to or from a state in which the electronic device captures media using a particular aspect ratio in response to a request to capture media (e.g., or the electronic device displays an option to change), toggle (e.g., change) the display of a state of the displayed image capture settings affordance (inactive, active, auto, one or more text, and/or an image associated with the camera settings affordance), and/or display a user interface for setting an animated image capture operation; a setting aspect ratio affordance that, when selected, causes the electronic device to display a user interface for the use of a particular aspect ratio when capturing media); a setting filter camera affordance (e.g., 626e) (e.g., a selectable user interface object) (e.g., a setting filter affordance that, when selected, causes the electronic device to change to or from a state in which the electronic device captures using a particular filter in response to a request to capture media (e.g., or the electronic device displays an option to change), toggle (e.g., change) the display of a state of the displayed filter camera setting affordance (inactive, active, automatic, one or more characters, and/or an image associated with the camera setting affordance), and/or display a user interface for configuring the use of a particular filter when capturing media); a setting high dynamic range imaging camera setting affordance (e.g., a selectable user interface object) (e.g., a setting filter affordance that, when selected, causes the electronic device to change to or from a state in which the electronic device captures high dynamic range in response to a request to capture image media (e.g., or the electronic device displays an option to change) a high dynamic range settings affordance that causes the child device to toggle (e.g., change) the display of a state of a displayed high dynamic range settings affordance (inactive, active, automatic, one or more characters, and/or an image associated with the camera settings affordance), and/or display a user interface that uses high dynamic range imaging when capturing media); and a low light camera settings affordance (e.g., a selectable user interface object) (e.g., a low light camera settings affordance that, when selected, causes the electronic device to change to or from a state in which the electronic device captures media using a low light mode operation in response to a request to capture media (e.g., or the electronic device to display an option to change), a state of a displayed low light capture camera mode affordance (inactive, active, automatic, one or more characters, and/or an image associated with the camera settings affordance), and/or display a user interface that sets a low light capture camera mode).

いくつかの実施形態では、電子デバイスは、第1のジェスチャ(例えば、3550a)(例えば、ドラッグジェスチャ)を検出し、カメラユーザインタフェースに向けられた第1の接触(例えば、連続的な接触)を検出することを含む。いくつかの実施形態では、第1のジェスチャを検出している間に、電子デバイスは、第1の接触のリフトオフを検出する前に、第1のジェスチャの完了(例えば、図35Bの3550a)(例えば、第1の閾値移動又は移動をドラッグ)を検出する。いくつかの実施形態では、ジェスチャの移動が第1の閾値移動を有する(例えば、第1の距離を移動した)との判定に従って、電子デバイスは、第1のジェスチャの完了を検出する。いくつかの実施形態では、第1の接触のリフトオフを検出する前に第1のジェスチャの完了を検出したことに応じて、電子デバイスは、触知出力(例えば、3560a)(例えば、1つ以上の触知出力生成器で生成された触覚(例えば、振動)出力)を提供する。 In some embodiments, the electronic device detects a first gesture (e.g., 3550a) (e.g., a drag gesture) and includes detecting a first contact (e.g., a continuous contact) directed at the camera user interface. In some embodiments, while detecting the first gesture, the electronic device detects a completion of the first gesture (e.g., 3550a of FIG. 35B) (e.g., a first threshold movement or drag movement) before detecting lift-off of the first contact. In some embodiments, the electronic device detects the completion of the first gesture in accordance with determining that the gesture movement has a first threshold movement (e.g., has moved a first distance). In some embodiments, in response to detecting the completion of the first gesture prior to detecting lift-off of the first contact, the electronic device provides a tactile output (e.g., 3560a) (e.g., a tactile (e.g., vibration) output generated by one or more tactile output generators).

いくつかの実施形態では、カメラユーザインタフェースを表示している間に、電子デバイスは、カメラユーザインタフェースに向けられた第3のジェスチャ(例えば、3550d)(例えば、左向きスワイプ、右向きスワイプ、及び/又は第2のジェスチャと同じ又は反対の方向のスワイプ)を検出する。いくつかの実施形態では、カメラユーザインタフェースに向けられた第3のジェスチャ(例えば、3550c又は3550h)を検出したことに応じて、かつ第2の1組のカメラ設定アフォーダンス(例えば、図35Cの626)(又は第1の1組のカメラ設定アフォーダンス)は、第3のジェスチャが検出されたときに表示されていたとの判定に従って、電子デバイスは、第3のカメラモードでメディア(例えば、1つ以上の画像、ビデオ)をキャプチャするように電子デバイスを構成し(例えば、(例えば、メディアキャプチャの開始(例えば、シャッターアフォーダンス上のタップ)により)アクティブ化されると、電子デバイスの1つ以上のカメラが、電子デバイスに、第2のカメラモードでメディアをキャプチャさせるようにする設定を調整する))(例えば、第1のカメラモード及び第2のカメラモードは互いに隣接する)(例えば、第2の1組のカメラ設定アフォーダンスは、選択されると、電子デバイスに、第2のカメラモードの第1の画像キャプチャ設定(例えば、特性)を調整させる、第2のアフォーダンスを含む)、1つ以上のカメラの異なる動作モードを示す複数のカメラモードアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、異なるカメラモード(例えば、スローモーション、ビデオ、写真、ポートレート、正方形、パノラマなど)を選択するアフォーダンス)を表示することなく、第1の位置に第3の1組のカメラ設定アフォーダンス(例えば、図35Eの626)(例えば、1つ以上の選択可能ユーザインタフェースオブジェクト)(例えば、選択されたカメラモードのカメラ設定(例えば、フラッシュ、タイマー、フィルタ効果、f値、アスペクト比、ライブフォトなど)を選択又は変更するアフォーダンス)を表示する。いくつかの実施形態では、カメラユーザインタフェースに向けられた第3のジェスチャを受信したことに応じて、かつ第1の1組のカメラ設定アフォーダンス又は第2の1組のカメラ設定アフォーダンスが現在表示されているとの判定に従って、電子デバイスは、第1の1組のカメラ設定アフォーダンス又は第2の1組のカメラ設定アフォーダンスを表示することを停止する。いくつかの実施形態では、カメラユーザインタフェースに向けられた第3のジェスチャ(例えば、3550c又は3550h)を検出したことに応じて、かつ第2の1組のカメラ設定アフォーダンス(例えば、図35Cの626)(又は第1の1組のカメラ設定アフォーダンス)は、第3のジェスチャが検出されたときに表示されていたとの判定に従って、電子デバイスは、第3のカメラモードでメディア(例えば、1つ以上の画像、ビデオ)をキャプチャするように電子デバイスを構成し、かつ第1の複数のカメラモードアフォーダンス(例えば、図35Hの620)がは、第3のジェスチャ(例えば、3550h)が検出されたときに表示されていたとの判定に従って、電子デバイスは、第2の1組のカメラ設定アフォーダンス(又は第1の1組のカメラ設定アフォーダンス)及び第3の1組のカメラ設定アフォーダンスを表示することなく、第1の位置に1つ以上のカメラの異なるカメラ動作モードを示す第2の複数のカメラモードアフォーダンス(例えば、図35I)を表示し、第1のカメラモード及び第3のカメラモードでメディアをキャプチャするように電子デバイスを構成する。いくつかの実施形態では、カメラユーザインタフェースに向けられた第3のジェスチャを受信したことに応じて、かつ第1の複数のカメラモードアフォーダンスが現在表示されているとの判定に従って、電子デバイスは、第1の複数のカメラモードアフォーダンスを表示することを停止する。いくつかの実施形態では、第2の複数のカメラモードアフォーダンスを表示している間に、電子デバイスは、第2のモードでメディアをキャプチャするように構成される。いくつかの実施形態では、第2の複数のカメラモードアフォーダンスを表示している間に、電子は、第3のモードでメディアをキャプチャするように構成される。いくつかの実施形態では、第2の複数のカメラモードアフォーダンスは、第1の複数のカメラモードアフォーダンスとは異なる。いくつかの実施形態では、第2の複数のカメラモードアフォーダンスは、第1の複数のカメラモードアフォーダンスにない1つ以上のアフォーダンスを含み、又は逆もまた同様である。ジェスチャに応じて、カメラモードアフォーダンスが表示されるときにカメラモードアフォーダンスを維持すること、又はカメラ設定アフォーダンスが表示されるときにカメラ設定アフォーダンスを維持することにより、入力に応じて、カメラモードアフォーダンス又はカメラ設定アフォーダンスにおける変化の視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, while displaying the camera user interface, the electronic device detects a third gesture (e.g., 3550d) directed toward the camera user interface (e.g., a left swipe, a right swipe, and/or a swipe in the same or opposite direction as the second gesture). In some embodiments, in response to detecting a third gesture (e.g., 3550c or 3550h) directed at the camera user interface, and in accordance with a determination that a second set of camera settings affordances (e.g., 626 of FIG. 35C ) (or the first set of camera settings affordances) were displayed when the third gesture was detected, the electronic device configures the electronic device to capture media (e.g., one or more images, video) in a third camera mode (e.g., adjusts settings that, when activated (e.g., by initiating media capture (e.g., a tap on the shutter affordance)), cause one or more cameras of the electronic device to capture media in a second camera mode) (e.g., the first camera mode and the second camera mode are adjacent to one another) (e.g., The second set of camera settings affordances includes a second affordance that, when selected, causes the electronic device to adjust a first image capture setting (e.g., characteristic) of the second camera mode), and displays a third set of camera settings affordances (e.g., 626 in FIG. 35E ) (e.g., one or more selectable user interface objects) (e.g., affordances to select or change camera settings for the selected camera mode (e.g., flash, timer, filter effects, f-stop, aspect ratio, live photo, etc.)) in the first location without displaying a plurality of camera mode affordances (e.g., selectable user interface objects) indicating different operational modes of the one or more cameras (e.g., affordances to select a different camera mode (e.g., slow motion, video, photo, portrait, square, panorama, etc.)). In some embodiments, in response to receiving a third gesture directed at the camera user interface and in accordance with a determination that the first set of camera setting affordances or the second set of camera setting affordances are currently displayed, the electronic device stops displaying the first set of camera setting affordances or the second set of camera setting affordances. In some embodiments, in response to detecting a third gesture directed at the camera user interface (e.g., 3550c or 3550h) and in accordance with a determination that the second set of camera setting affordances (e.g., 626 of FIG. 35C) (or the first set of camera setting affordances) were displayed when the third gesture was detected, the electronic device configures the electronic device to capture media (e.g., one or more images, video) in a third camera mode and disables the first plurality of camera mode affordances (e.g., In accordance with a determination that the first camera mode affordance (e.g., 620 of FIG. 35H ) was being displayed when the third gesture (e.g., 3550h) was detected, the electronic device displays a second plurality of camera mode affordances (e.g., FIG. 35I ) indicating different camera operating modes of the one or more cameras at the first position without displaying the second set of camera setting affordances (or the first set of camera setting affordances) and the third set of camera setting affordances, and configures the electronic device to capture media in the first camera mode and the third camera mode. In some embodiments, in response to receiving a third gesture directed at the camera user interface and in accordance with a determination that the first plurality of camera mode affordances are currently being displayed, the electronic device stops displaying the first plurality of camera mode affordances. In some embodiments, while displaying the second plurality of camera mode affordances, the electronic device is configured to capture media in the second mode. In some embodiments, while displaying the second plurality of camera mode affordances, the electronic device is configured to capture media in the third mode. In some embodiments, the second plurality of camera mode affordances are different from the first plurality of camera mode affordances. In some embodiments, the second plurality of camera mode affordances includes one or more affordances that are not in the first plurality of camera mode affordances, or vice versa. In response to the gesture, maintaining the camera mode affordance when the camera mode affordance is displayed, or maintaining the camera settings affordance when the camera settings affordance is displayed, provides the user with visual feedback of a change in the camera mode affordance or the camera settings affordance in response to the input. Providing the user with improved visual feedback improves device usability and provides a more efficient user-device interface (e.g., by helping the user make appropriate inputs and reducing user errors when operating/interacting with the device), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、電子デバイスは、第1の位置に第3の1組のカメラ設定アフォーダンス(例えば、図35Eの626)を表示し、第1の1組のカメラ設定アフォーダンス(例えば、図35Cの626)(例えば、又は現在表示される第2の1組のカメラ設定アフォーダンス)を置き換える、第3の1組のカメラ設定アフォーダンスのアニメーション(例えば、図35C~図35E)を表示することを含む。いくつかの実施形態では、第3のジェスチャ(例えば、スワイプ)を検出すると、カメラ設定アフォーダンスが隠れる場合には、アニメーションは表示されない。いくつかの実施形態では、アニメーションは、1つ以上のコントロールのフェード又はフェードアウトを含む。いくつかの実施形態では、アニメーションは、1つ以上のコントロールを含み、1つ以上のコントロールは、近づくように又は更に離れるように動いて、追加のコントロールのための余地を作る、又は消失したコントロールによって以前に占有されていた空間を充填する。) In some embodiments, the electronic device displays a third set of camera setting affordances (e.g., 626 in FIG. 35E) in the first position and displays an animation (e.g., FIGS. 35C-35E) of the third set of camera setting affordances replacing the first set of camera setting affordances (e.g., 626 in FIG. 35C) (e.g., or the currently displayed second set of camera setting affordances). In some embodiments, upon detecting a third gesture (e.g., a swipe), no animation is displayed if the camera setting affordances are hidden. In some embodiments, the animation includes fading or fading out one or more controls. In some embodiments, the animation includes one or more controls that move closer or further away to make room for additional controls or to fill space previously occupied by the missing controls.)

いくつかの実施形態では、1つ以上のカメラの視野の表現は、1つ以上のカメラの視野の第1の部分の第1の表現である。いくつかの実施形態では、カメラユーザインタフェースに向けられた第2のジェスチャを受信したことに応じて、かつ第1のタイプのカメラ(例えば、超広角カメラ)(例えば、3180a)を介してメディアをキャプチャするように電子デバイスが構成されているとの判定に従って、電子デバイスは、1つ以上のカメラの視野の第2の部分(例えば、図35Aの630に表示された3540)の第2の表現を表示する。いくつかの実施形態では、視野の第2の部分は、1つ以上のカメラの視野の第1の部分(例えば、図35Bの630に表示される3540)の一部を含まない(例えば、1つ以上のカメラの視野の一部分の一部は、第2の表現を表示するときに、ディスプレイから外れてシフトされる)。所定の条件が満たされているときにのみ、ディスプレイのコンテンツをオン/オフをシフトすることにより、ユーザは、電子デバイスがカメラモードを表示することとカメラ設定を表示することとの間を切り替えたことを迅速に認識することができ、かつユーザは、メディアの以前に表示された部分がキャプチャされず、又は電子デバイスが特定のユーザインタフェースを表示する間に、メディアをキャプチャする要求に応じて、メディアの新たに表示された部分がキャプチャされることを認識することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the representation of the field of view of the one or more cameras is a first representation of a first portion of the field of view of the one or more cameras. In some embodiments, in response to receiving a second gesture directed at the camera user interface and in accordance with a determination that the electronic device is configured to capture media via a first type of camera (e.g., an ultra-wide camera) (e.g., 3180a), the electronic device displays a second representation of a second portion of the field of view of the one or more cameras (e.g., 3540 displayed at 630 in FIG. 35A). In some embodiments, the second portion of the field of view does not include a portion of the first portion of the field of view of the one or more cameras (e.g., 3540 displayed at 630 in FIG. 35B) (e.g., a portion of the portion of the field of view of the one or more cameras is shifted off the display when displaying the second representation). By shifting the display content on/off only when a predefined condition is met, the user can quickly recognize that the electronic device has switched between displaying a camera mode and displaying camera settings, and the user can recognize that a previously displayed portion of media will not be captured, or that a newly displayed portion of media will be captured in response to a request to capture media while the electronic device is displaying a particular user interface. Performing an optimized action when a set of conditions is met without requiring further user input improves usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves the battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、1つ以上のカメラの視野の表現は、1つ以上のカメラの視野の第3の部分の第3の表現である。いくつかの実施形態では、カメラユーザインタフェースに向けられた第2のジェスチャを受信したことに応じて、かつ第2のタイプのカメラ(例えば、超広角カメラ(例えば、第1のタイプのカメラと同一カメラタイプのカメラ))を使用してメディアをキャプチャするように電子デバイスが構成されているとの判定に従って、電子デバイスは、1つ以上のカメラの視野の第4の部分の第4の表現を表示する。いくつかの実施形態では、1つ以上のカメラの視野の第4の部分(例えば、図35Aの630に表示される3538)は、1つ以上のカメラの視野の第3の部分にない1つ以上のカメラの視野の一部分(例えば、図35Bの630に表示される3538)を含む(例えば、1つ以上のカメラの視野の部分の一部は、第2の表現を表示するときに、ディスプレイ上にシフトされる)。所定の条件が満たされているときにのみ、ディスプレイのコンテンツをオン/オフをシフトすることにより、ユーザは、電子デバイスがカメラモードを表示することとカメラ設定を表示することとの間を切り替えたことを迅速に認識することができ、かつユーザは、メディアの以前に表示された部分がキャプチャされず、又は電子デバイスが特定のユーザインタフェースを表示する間に、メディアをキャプチャする要求に応じて、メディアの新たに表示された部分がキャプチャされることを認識することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the representation of the field of view of the one or more cameras is a third representation of a third portion of the field of view of the one or more cameras. In some embodiments, in response to receiving a second gesture directed at the camera user interface and in accordance with a determination that the electronic device is configured to capture media using a second type of camera (e.g., an ultra-wide camera (e.g., a camera of the same camera type as the first type of camera)), the electronic device displays a fourth representation of a fourth portion of the field of view of the one or more cameras. In some embodiments, the fourth portion of the field of view of the one or more cameras (e.g., 3538 displayed at 630 in FIG. 35A ) includes a portion of the field of view of the one or more cameras (e.g., 3538 displayed at 630 in FIG. 35B ) that is not in the third portion of the field of view of the one or more cameras (e.g., a portion of the portion of the field of view of the one or more cameras is shifted on the display when displaying the second representation). By shifting the display content on/off only when a predefined condition is met, the user can quickly recognize that the electronic device has switched between displaying a camera mode and displaying camera settings, and the user can recognize that a previously displayed portion of media will not be captured, or that a newly displayed portion of media will be captured in response to a request to capture media while the electronic device is displaying a particular user interface. Performing an optimized action when a set of conditions is met without requiring further user input improves usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves the battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、1つ以上のカメラの視野の表現は、1つ以上のカメラの視野の第5の部分の第5の表現である。いくつかの実施形態では、第5の表現は、表示デバイス上の第2の位置に表示される。いくつかの実施形態では、カメラユーザインタフェースに向けられた第2のジェスチャを受信したことに応じて、かつ第3のタイプのカメラ(例えば、広角又は望遠写真カメラ(例えば、第3のタイプのカメラは、第1のタイプのカメラ及び第2のタイプのカメラとは異なる)を使用してメディアをキャプチャするように電子デバイスが構成されているとの判定に従って、電子デバイスは、表示デバイス上の第2の位置から表示デバイス上の第3の位置に第5の表現を動かす(例えば、1つ以上のカメラの視野の一部分が表示デバイスから外れてシフトされているように見えない)。 In some embodiments, the representation of the field of view of the one or more cameras is a fifth representation of a fifth portion of the field of view of the one or more cameras. In some embodiments, the fifth representation is displayed at a second position on the display device. In some embodiments, in response to receiving a second gesture directed at the camera user interface and in accordance with a determination that the electronic device is configured to capture media using a third type of camera (e.g., a wide-angle or telephoto camera (e.g., the third type of camera is different from the first type of camera and the second type of camera), the electronic device moves the fifth representation from the second position on the display device to a third position on the display device (e.g., such that the portion of the field of view of the one or more cameras does not appear to be shifted off the display device).

いくつかの実施形態では、第1のカメラモードは、ポートレートモード(例えば、図35Gの626c)である。いくつかの実施形態では、1つ以上のカメラの視野の表現(例えば、図35Gの630)は、第1のズームレベル(例えば、2622a)(例えば、0.5×、1×、2×)で表示される。いくつかの実施形態では、第1の複数のカメラモードアフォーダンス(例えば、620)(例えば、ポートレートモード)を表示している間に、電子デバイスは、照明効果動作を制御するアフォーダンス(例えば、628)(例えば、選択可能ユーザインタフェースオブジェクト)及びズームアフォーダンス(例えば、2622a)を表示する(例えば、同時に表示した)。ズームアフォーダンス(例えば、フォーカスセレクタがズームアフォーダンスに向けられている間のズームアフォーダンス上のタップ入力又はマウスクリック又は他のアクティブ化入力)を表示している間に、電子デバイスは、ズームアフォーダンスに向けられた第4のジェスチャ(例えば、3550g)を受信する。いくつかの実施形態では、ズームアフォーダンスに向けられた第4のジェスチャを受信したことに応じて、電子デバイスは、第2のズームレベル(例えば、2622c)(例えば、0.5×、1×、2×)で1つ以上のカメラの視野の表現(例えば、図35Hの630)を表示する。 In some embodiments, the first camera mode is a portrait mode (e.g., 626c of FIG. 35G). In some embodiments, a representation of one or more camera fields of view (e.g., 630 of FIG. 35G) is displayed at a first zoom level (e.g., 2622a) (e.g., 0.5×, 1×, 2×). In some embodiments, while displaying the first plurality of camera mode affordances (e.g., 620) (e.g., portrait mode), the electronic device displays (e.g., simultaneously displays) an affordance (e.g., 628) (e.g., a selectable user interface object) that controls a lighting effects operation and a zoom affordance (e.g., 2622a). While displaying the zoom affordance (e.g., a tap input or a mouse click or other activation input on the zoom affordance while the focus selector is directed at the zoom affordance), the electronic device receives a fourth gesture (e.g., 3550g) directed at the zoom affordance. In some embodiments, in response to receiving a fourth gesture directed at the zoom affordance, the electronic device displays a representation of the field of view of one or more cameras (e.g., 630 in FIG. 35H) at a second zoom level (e.g., 2622c) (e.g., 0.5x, 1x, 2x).

いくつかの実施形態では、第1の複数のカメラモードアフォーダンスは、選択されると、メディアをキャプチャする要求に応じて、電子デバイスに第1のカメラモードでメディアをキャプチャさせる第1のカメラモードアフォーダンス(例えば、620c)(例えば、選択可能ユーザインタフェースオブジェクト)と、選択されると、メディアをキャプチャする要求に応じて、電子デバイスに第2のカメラモードでメディアをキャプチャさせる第2のカメラモードアフォーダンス(例えば、620d)(例えば、選択可能ユーザインタフェースオブジェクト)と、を含む。いくつかの実施形態では、第1の複数のカメラモードアフォーダンスが表示されている間に、第1のカメラモードアフォーダンスが選択される(例えば、ディスプレイ上の特定の位置(例えば、中心位置)に、異なるフォント、色、テキストサイズの太字で表示される)。 In some embodiments, the first plurality of camera mode affordances include a first camera mode affordance (e.g., 620c) (e.g., a selectable user interface object) that, when selected, causes the electronic device to capture media in a first camera mode in response to a request to capture media, and a second camera mode affordance (e.g., 620d) (e.g., a selectable user interface object) that, when selected, causes the electronic device to capture media in a second camera mode in response to a request to capture media. In some embodiments, the first camera mode affordance is selected (e.g., displayed in a particular location (e.g., centered location) on the display, in bold with a different font, color, text size) while the first plurality of camera mode affordances are displayed.

いくつかの実施形態では、第1の複数のカメラモードアフォーダンスを表示している間に、第1のカメラモードアフォーダンス(例えば、620c)は、第2のカメラモードアフォーダンス(例えば、620d)に隣接して表示される。いくつかの実施形態ではカメラユーザインタフェースに向けられた第1のジェスチャを検出する前に、かつ第1の複数のカメラモードアフォーダンスを表示している間に、第1のカメラモードアフォーダンスは、第1のカメラモードがアクティブ(例えば、図35Aの620c)であるインジケーションとともに表示される(例えば、プレスされた、太字、及び/又は第1のカメラモードが非アクティブ(例えば、黒対グレーアウト)であるときとは異なる色である第1のカメラモードアフォーダンスとともに、第1のカメラモードがアクティブである視覚インジケーションとともに表示される)。いくつかの実施形態では、カメラユーザインタフェースに向けられた第1のジェスチャを検出する前に、かつ第1の複数のカメラモードアフォーダンスを表示している間に、かつ/又は電子デバイスが第1のカメラモードで動作するように構成される間に、第2のカメラモードアフォーダンスは、第2のカメラモードが非アクティブであるインジケーションとともに表示される(例えば、プレスされない、太字でない、及び/又は第2のカメラモードがアクティブ(例えば、グレーアウト対黒)であるときとは異なる色であるなどの、第2のカメラモードが非アクティブである視覚インジケーションとともに表示される)。 In some embodiments, while displaying the first plurality of camera mode affordances, the first camera mode affordance (e.g., 620c) is displayed adjacent to the second camera mode affordance (e.g., 620d). In some embodiments, prior to detecting the first gesture directed toward the camera user interface and while displaying the first plurality of camera mode affordances, the first camera mode affordance is displayed with an indication that the first camera mode is active (e.g., 620c in FIG. 35A) (e.g., with the first camera mode affordance pressed, bold, and/or a different color than when the first camera mode is inactive (e.g., black vs. grayed out)). In some embodiments, prior to detecting the first gesture directed toward the camera user interface and while displaying the first plurality of camera mode affordances and/or while the electronic device is configured to operate in the first camera mode, the second camera mode affordance is displayed with an indication that the second camera mode is inactive (e.g., displayed with a visual indication that the second camera mode is inactive, such as not being pressed, not being bold, and/or being a different color than when the second camera mode is active (e.g., grayed out vs. black)).

いくつかの実施形態では、第1の位置に第2の1組のカメラ設定アフォーダンス(例えば、図35Eの626)を表示している間に、電子デバイスは、カメラユーザインタフェースに向けられた第5のジェスチャを検出する。いくつかの実施形態では、カメラインタフェースに向けられた第5のジェスチャ(例えば、3550e及び3550d)を検出したことに応じて、電子デバイスは、1つ以上のカメラの異なるカメラ動作モードを示す第3の複数のカメラモードアフォーダンス(例えば、図35Fの620)(例えば、選択可能ユーザインタフェースオブジェクト)を表示する。いくつかの実施形態では、第3の複数のカメラモードアフォーダンスは、第2のカメラモードアフォーダンス(例えば、図35Fの620d)を含む。いくつかの実施形態では、第2のカメラモードアフォーダンス(例えば、図35Fの太字620d)は、第2のカメラモードがアクティブであるインジケーションとともに表示される(例えば、プレスされた、太字、及び/又は第2のカメラモードが非アクティブ(例えば、黒対グレーアウト)であるときとは異なる色であるなどの、第2のカメラモードがアクティブである視覚インジケーションとともに表示される)。いくつかの実施形態では、第3の複数のカメラモードアフォーダンスは、第1のカメラモードアフォーダンスを含む。いくつかの実施形態では、第3のカメラモードアフォーダンスが、第3のカメラモードがアクティブであるインジケーションとともに表示される間に、かつ/又は電子デバイスが第2のカメラモードで動作するように構成される間に、第1のカメラモードアフォーダンスは、第1のカメラモードが非アクティブであるインジケーションとともに表示される(例えば、プレスされない、太字でない、及び/又は第2のカメラモードがアクティブ(例えば、グレーアウト対黒)であるときとは異なる色であるなどの、第1のカメラモードが非アクティブである視覚インジケーションとともに表示される)。 In some embodiments, while displaying the second set of camera setting affordances (e.g., 626 of FIG. 35E) at the first position, the electronic device detects a fifth gesture directed at the camera user interface. In some embodiments, in response to detecting the fifth gesture directed at the camera interface (e.g., 3550e and 3550d), the electronic device displays a third plurality of camera mode affordances (e.g., 620 of FIG. 35F) (e.g., selectable user interface objects) indicating different camera operational modes of one or more cameras. In some embodiments, the third plurality of camera mode affordances includes a second camera mode affordance (e.g., 620d of FIG. 35F). In some embodiments, the second camera mode affordance (e.g., bold 620d in FIG. 35F) is displayed with an indication that the second camera mode is active (e.g., displayed with a visual indication that the second camera mode is active, such as pressed, bold, and/or a different color than when the second camera mode is inactive (e.g., black vs. grayed out)). In some embodiments, the third plurality of camera mode affordances includes the first camera mode affordance. In some embodiments, the first camera mode affordance is displayed with an indication that the first camera mode is inactive (e.g., displayed with a visual indication that the first camera mode is inactive, such as not pressed, not bold, and/or a different color than when the second camera mode is active (e.g., grayed out vs. black)) while the third camera mode affordance is displayed with an indication that the third camera mode is active and/or while the electronic device is configured to operate in the second camera mode.

方法3600に関して上述された処理(例えば、図36A~図36B)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2500、2700、2800、3000、3200、3400、3800、4000、及び4200は、方法3600を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法3200は、任意選択的に、方法3600に関連して上述したように、様々な技術を使用してメディアをキャプチャするカメラモードについて様々なカメラ設定にアクセスすることを採用する。簡潔にするために、これらの詳細は、以下で繰り返さない。 It should be noted that the details of the processes (e.g., FIGS. 36A-36B) described above with respect to method 3600 are also applicable in a similar manner to the methods described above. For example, methods 700, 900, 1100, 1300, 1500, 1700, 1900, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3400, 3800, 4000, and 4200 optionally include one or more of the characteristics of the various methods described above with reference to method 3600. For example, method 3200 optionally employs accessing various camera settings for camera modes that capture media using various techniques, as described above with respect to method 3600. For the sake of brevity, these details will not be repeated below.

図37A~図37AAは、いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図38A~図38Cにおける処理を含む、以下で説明する処理を例示するために使用される。 FIGS. 37A-37AA show example user interfaces for automatically adjusting media captured using an electronic device, according to some embodiments. The user interfaces in these figures are used to illustrate the processes described below, including the processes in FIGS. 38A-38C.

図37Aは、図37C~図37AAにおいて以下に説明する実施形態の理解を向上させるための例示的なシーン3780を示す。左から右へ動くシーン3780は、左部分3782及び右部分3784を含む。左部分3782は、矩形プリズム2432上に座っている人を含む。右部分3784は、人3784bの肩に座っている犬3784aを含む。更には、シーン3780は、シーン3780の幅にわたって走る水平線2438を更に含む。 Figure 37A illustrates an exemplary scene 3780 to enhance understanding of the embodiments described below in Figures 37C-37AA. The scene 3780, moving from left to right, includes a left portion 3782 and a right portion 3784. The left portion 3782 includes a person sitting on a rectangular prism 2432. The right portion 3784 includes a dog 3784a sitting on the shoulder of the person 3784b. Additionally, the scene 3780 further includes a horizontal line 2438 running across the width of the scene 3780.

図37Bは、図37C~図37AAにおいて以下に説明する実施形態の理解を向上させるための設定ユーザインタフェースを表示する電子デバイス600を示す。設定ユーザインタフェースは、設定アフォーダンス3702含む。具体的には、設定アフォーダンス3702は、追加のコンテンツ設定アフォーダンス3702aを含む。図37Bにおいて、追加のコンテンツ設定アフォーダンス3702aは、選択されていないように(例えば、オフ状態で)表示され、これは、デバイス600が追加のコンテンツをキャプチャするように構成されていないことを示す。 FIG. 37B illustrates electronic device 600 displaying a settings user interface to enhance understanding of the embodiments described below in FIGS. 37C-37AA. The settings user interface includes settings affordance 3702. Specifically, settings affordance 3702 includes additional content settings affordance 3702a. In FIG. 37B, additional content settings affordance 3702a is displayed as not selected (e.g., in an off state), indicating that device 600 is not configured to capture additional content.

図37C~図37Jは、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための画像をキャプチャするための例示的なユーザインタフェースを示す。図37K~図37Qは、メディアが表示されると(例えば、図37C及び図37Tに示すように)、デバイス600がキャプチャされたメディアを自動的に調整するように構成される場合、図37C~図37Jのうちの1つ以上においてキャプチャされた画像を自動的に調整する例示的なユーザインタフェースを示す。図37R~図37Wは、メディアが表示されると(例えば、図37Oに示すように)、デバイス600がキャプチャされたメディアを自動的に調整するように構成されていない場合、図37C~図37Jのうちの1つ以上においてキャプチャされた画像を自動的に調整する例示的なユーザインタフェースを示す。更には、図37X~図37AAは、図37K~図37Wに関連して記載されたものと同様の技術を使用して、他のメディア(例えば、ビデオメディア)を調整する例示的なユーザインタフェースを示す。図37Bでは、デバイス600は、設定ユーザインタフェースの底部部分に対応する位置での右向きスワイプジェスチャ3750bを検出する。 37C-37J show exemplary user interfaces for capturing images for automatically adjusting the captured media using an electronic device. 37K-37Q show exemplary user interfaces for automatically adjusting the captured images in one or more of 37C-37J when the device 600 is configured to automatically adjust the captured media when the media is displayed (e.g., as shown in 37C and 37T). 37R-37W show exemplary user interfaces for automatically adjusting the captured images in one or more of 37C-37J when the device 600 is not configured to automatically adjust the captured media when the media is displayed (e.g., as shown in 37O). Additionally, 37X-37AA show exemplary user interfaces for adjusting other media (e.g., video media) using techniques similar to those described in connection with 37K-37W. In 37B, the device 600 detects a right swipe gesture 3750b at a location corresponding to a bottom portion of the settings user interface.

図37Cに示すように、右向きスワイプジェスチャ3750bを検出したことに応じて、デバイス600は、設定ユーザインタフェースの表示を、カメラユーザインタフェースに置き換える。図37Cにおいて、デバイス600は、右部分3784の写真を撮る位置にある。図37Cでは、デバイス600は、右部分3784に近接した位置にあり、これにより、犬3784a及び人3784bの肩は、ライブプレビュー630を含むカメラユーザインタフェース上に表示される。ライブプレビュー630は、1つ以上のカメラセンサによって検出された画像に基づく。ライブプレビュー630は、1×ズームレベルで表示され、選択された1×ズームアフォーダンス2622bによって明らかである。ライブプレビュー630が1×ズームレベルで表示され、かつデバイス600が現在デバイス600の裏側のカメラを使用して、メディアをキャプチャするため、デバイス600は、図31Cに関連して上述したように、広い視野を有するカメラ(例えば、超広角カメラ)及び狭い視野を有するカメラ(例えば、広角カメラ)を使用して、犬3784aの画像をキャプチャしている。 As shown in FIG. 37C, in response to detecting right swipe gesture 3750b, device 600 replaces the display of the settings user interface with a camera user interface. In FIG. 37C, device 600 is in a position to take a picture of right portion 3784. In FIG. 37C, device 600 is in a position proximate right portion 3784 such that dog 3784a and shoulders of person 3784b are displayed on the camera user interface including live preview 630. Live preview 630 is based on images detected by one or more camera sensors. Live preview 630 is displayed at a 1× zoom level, evident by a selected 1× zoom affordance 2622b. Because the live preview 630 is displayed at a 1x zoom level and the device 600 is currently capturing media using the camera on the back of the device 600, the device 600 is capturing images of the dog 3784a using a camera having a wide field of view (e.g., an ultra-wide camera) and a camera having a narrow field of view (e.g., a wide-angle camera), as described above in connection with FIG. 31C.

図37Cに示すように、カメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含み、これらは、インジケータ及びコントロールがライブプレビュー630と同時に表示され得るように、ライブプレビュー630上に重ね合わされる。インジケータ領域602及びコントロール領域606にライブプレビュー630の一部分を表示するために、デバイス600は、広い視野(WFOV)を有するカメラの視野内にある環境の一部分(例えば、犬3784aの肉球の上部又は耳及び底部)を使用する。更には、カメラユーザインタフェースは、カメラディスプレイ領域604を含む。デバイス600は、狭い視野(NFOV)を有するカメラの視野内にある環境(例えば、犬3784aの体)の一部分を使用することにより、カメラディスプレイ領域604内にライブプレビュー630の一部分を表示する。 37C, the camera user interface includes an indicator area 602 and a control area 606, which are overlaid on the live preview 630 such that the indicators and controls can be displayed simultaneously with the live preview 630. To display a portion of the live preview 630 in the indicator area 602 and the control area 606, the device 600 uses a portion of the environment (e.g., the top or ears and bottom of the paws of the dog 3784a) that is within the field of view of the camera having a wide field of view (WFOV). Furthermore, the camera user interface includes a camera display area 604. The device 600 displays a portion of the live preview 630 in the camera display area 604 by using a portion of the environment (e.g., the body of the dog 3784a) that is within the field of view of the camera having a narrow field of view (NFOV).

図37Cに示すように、インジケータ領域602は、灰色オーバーレイを含み、カメラディスプレイ領域604は、灰色オーバーレイを含まない。インジケータ領域602とカメラディスプレイ領域604との間の色の遷移において、インジケータ領域602とカメラディスプレイ領域604との間に視覚境界部608が表示される。インジケータ領域602はまた、フラッシュインジケータ602aを含み、フラッシュインジケータ602aは、フラッシュが自動モード、オン、オフ、又は別のモード(例えば、赤目低減モード)であるかどうかを示す。いくつかの実施形態では、他のインジケータ(例えば、インジケータ602b~602fはまた、インジケータ領域602に含まれる。 37C, indicator region 602 includes a gray overlay and camera display region 604 does not include a gray overlay. At the color transition between indicator region 602 and camera display region 604, a visual border 608 is displayed between indicator region 602 and camera display region 604. Indicator region 602 also includes a flash indicator 602a, which indicates whether the flash is in auto mode, on, off, or another mode (e.g., red-eye reduction mode). In some embodiments, other indicators (e.g., indicators 602b-602f) are also included in indicator region 602.

図37Cに示すように、コントロール領域606はまた、灰色オーバーレイを含み、これらの領域間の色の遷移において、コントロール領域606とカメラディスプレイ領域604との間に視覚境界部608が表示される。いくつかの実施形態では、視覚境界部608は、領域602、604、及び608の間に実線又は点線として表示される。コントロール領域606は、カメラモードアフォーダンス620、メディアコレクション624の一部分、シャッターアフォーダンス610、及びカメラスイッチャアフォーダンス612を含む。カメラモードアフォーダンス620は、どのカメラモードが現在選択されているか(例えば、太字で表示された「Photo」モード)を示し、ユーザがカメラモードを変更することを可能にする。 As shown in FIG. 37C, the control area 606 also includes a gray overlay, and a visual border 608 is displayed between the control area 606 and the camera display area 604 at the color transition between these areas. In some embodiments, the visual border 608 is displayed as a solid or dotted line between the areas 602, 604, and 608. The control area 606 includes a camera mode affordance 620, a portion of a media collection 624, a shutter affordance 610, and a camera switcher affordance 612. The camera mode affordance 620 indicates which camera mode is currently selected (e.g., "Photo" mode displayed in bold) and allows the user to change the camera mode.

図37Cに示すように、デバイス600は、インジケータ領域602とカメラディスプレイ領域604との間に、(図29B~図29Iで論じられたように)視覚境界部608に沿って視覚的引裂きを含む。ここで、インジケータ領域602内に表示される犬の(例えば、犬3784a)耳の上部部分は、カメラディスプレイ領域604に表示される犬の耳の残部の左にシフトされる。いくつかの実施形態では、インジケータ領域602及びコントロール領域606内に表示されるライブプレビュー630の一部分は、デバイス600が、図37Bに関連して上述したように、追加のコンテンツ(例えば、領域602及び606内に表示されるライブプレビュー630の一部分)をキャプチャするように構成されるため、ブラックアウトされる。図37Cでは、デバイス600は、シャッターアフォーダンス610に対応する位置でのタップジェスチャ3750cを検出する。 As shown in FIG. 37C, the device 600 includes a visual tear along the visual border 608 (as discussed in FIGS. 29B-29I) between the indicator region 602 and the camera display region 604. Here, the top portion of the dog's (e.g., dog 3784a) ear displayed in the indicator region 602 is shifted to the left of the remainder of the dog's ear displayed in the camera display region 604. In some embodiments, the indicator region 602 and a portion of the live preview 630 displayed in the control region 606 are blacked out because the device 600 is configured to capture additional content (e.g., the portion of the live preview 630 displayed in regions 602 and 606) as described above in connection with FIG. 37B. In FIG. 37C, the device 600 detects a tap gesture 3750c at a location corresponding to the shutter affordance 610.

図37Dに示すように、タップジェスチャ3750cを検出したことに応じて、デバイス600は、デバイス600が追加のコンテンツ(例えば、領域602及び606内に表示されるライブプレビュー630の一部分)をキャプチャするように構成されていないため、カメラディスプレイ領域604内に表示されるライブプレビュー630の一部分に対応するメディアアイテム(例えば、写真)をキャプチャする。更に、タップジェスチャ3750cを検出したことに応じて、デバイス600は、タップジェスチャ3750cに応じて、キャプチャされたメディアアイテムの表現3724aで、メディアコレクション624を更新する。いくつかの実施形態では、ライブプレビュー630内の視覚的引裂きが閾値レベルを上回る場合、デバイス600が追加のコンテンツをキャプチャするように構成されている場合であっても、デバイス600は、タップジェスチャ3750cを検出したことに応じて、追加のコンテンツ(例えば、領域602及び606内に表示されるライブプレビュー630の一部分)を含まないメディアアイテムをキャプチャする。 37D, in response to detecting the tap gesture 3750c, the device 600 captures a media item (e.g., a photo) corresponding to the portion of the live preview 630 displayed in the camera display area 604 because the device 600 is not configured to capture additional content (e.g., the portion of the live preview 630 displayed in areas 602 and 606). Further, in response to detecting the tap gesture 3750c, the device 600 updates the media collection 624 with a representation 3724a of the captured media item in response to the tap gesture 3750c. In some embodiments, if the visual tear in the live preview 630 exceeds a threshold level, the device 600 captures a media item that does not include the additional content (e.g., the portion of the live preview 630 displayed in areas 602 and 606) in response to detecting the tap gesture 3750c, even if the device 600 is configured to capture additional content.

図37Dでは、デバイス600は、右部分3784から更に離れるように、位置を変更した。移動の変化を検出した後に、デバイス600は、図37Dに示すように、ライブプレビュー630を更新し、ここで、犬の耳は、もはや視覚境界部608を遮らず、人3784bの頭の一部分が新たに表示される。ここで、デバイス600は、視覚的引裂きがライブプレビュー630上に存在しないように、右部分3784から十分離れている。図37Dでは、デバイス600は、コントロール領域606の底部上の位置での右向きスワイプジェスチャ3750dを検出する。 In FIG. 37D, the device 600 has changed position to move further away from the right portion 3784. After detecting the change in movement, the device 600 updates the live preview 630 as shown in FIG. 37D, where the dog's ears no longer obstruct the visual boundary 608 and a portion of the person's head 3784b is newly visible. The device 600 is now far enough away from the right portion 3784 so that no visual tear is present on the live preview 630. In FIG. 37D, the device 600 detects a rightward swipe gesture 3750d at a position on the bottom of the control region 606.

図37Eに示すように、右向きスワイプジェスチャ3750dを検出したことに応じて、デバイス600は、カメラ設定ユーザインタフェースの代わりに設定ユーザインタフェースを再表示する。図37Eでは、デバイス600は、追加のコンテンツ設定アフォーダンス3702aに対応する位置でのタップジェスチャ3750eを検出する。 As shown in FIG. 37E, in response to detecting a right swipe gesture 3750d, the device 600 redisplays the settings user interface instead of the camera settings user interface. In FIG. 37E, the device 600 detects a tap gesture 3750e at a location corresponding to the additional content settings affordance 3702a.

図37Fに示すように、タップジェスチャ3750eを検出したことに応じて、デバイス600は、選択されているものとして(例えば、オン状態で)追加のコンテンツ設定アフォーダンス3702aを表示し、これは、デバイス600が追加のコンテンツをキャプチャするように構成されることを示す。タップジェスチャ3750eを検出したことに応じて、デバイス600はまた、選択されているものとして自動メディア補正設定アフォーダンス3702a1を表示し、これは、いくつかの状況では、以下で論じるようにメディアが表示されるときに、デバイス600がキャプチャされたメディアを自動的に調整するように構成されることを示す。自動メディア補正設定アフォーダンス3702a1を表示することとともに、タップジェスチャ3750eを検出したことに応じて、デバイス600は、選択されているものとして、メディアをキャプチャする要求(例えば、タップジェスチャ3750c)を検出したことに応じて、デバイス600が画像メディアの追加のコンテンツをキャプチャするように構成されることを示す、追加の画像コンテンツキャプチャ設定アフォーダンス3702a2と、メディアをキャプチャする要求を検出したことに応じて、デバイス600がビデオメディアの追加のコンテンツをキャプチャするように構成されることを示す、追加のビデオコンテンツキャプチャ設定アフォーダンス3702a3と、を表示する。いくつかの実施形態では、自動メディア補正設定アフォーダンス3702a1(又はアフォーダンス3702a2~3702a3)は、タップジェスチャ3750eを検出したことに応じて、選択されたものとして表示されず、かつデバイス600が自動メディア補正設定アフォーダンス3702a1に対応する位置での追加のタップジェスチャを検出するとき、デバイス600は、選択されるように、自動メディア補正設定アフォーダンス3702a1を更新する。いくつかの実施形態では、デバイス600が選択されていないように追加の画像コンテンツキャプチャ設定アフォーダンス3702a2を表示する場合、デバイス600は、メディアをキャプチャする要求に応じて、画像メディアの追加のコンテンツをキャプチャするように構成されていない。いくつかの実施形態では、デバイス600が選択されていないように追加のビデオコンテンツキャプチャ設定アフォーダンス3702a3を表示する場合、デバイス600は、メディアをキャプチャする要求に応じて、ビデオメディアの追加のコンテンツをキャプチャするように構成されていない。図37Fでは、デバイス600は、設定ユーザインタフェースの底部に対応する位置での右向きスワイプジェスチャ3750fを検出する。 37F, in response to detecting tap gesture 3750e, device 600 displays additional content settings affordance 3702a as selected (e.g., in an on state), indicating that device 600 is configured to capture additional content. In response to detecting tap gesture 3750e, device 600 also displays automatic media correction settings affordance 3702a1 as selected, indicating that, in some circumstances, device 600 is configured to automatically adjust captured media as the media is displayed, as discussed below. In response to detecting tap gesture 3750e along with displaying auto media correction settings affordance 3702a1, device 600 displays, in response to detecting a request to capture media (e.g., tap gesture 3750c), an additional image content capture settings affordance 3702a2 indicating that device 600 is configured to capture additional content of image media, and in response to detecting a request to capture media, an additional video content capture settings affordance 3702a3 indicating that device 600 is configured to capture additional content of video media, as selected. In some embodiments, auto media correction settings affordance 3702a1 (or affordances 3702a2-3702a3) is not displayed as selected in response to detecting tap gesture 3750e, and when device 600 detects an additional tap gesture at a location corresponding to auto media correction settings affordance 3702a1, device 600 updates auto media correction settings affordance 3702a1 to be selected. In some embodiments, when the device 600 displays the additional image content capture settings affordance 3702a2 as not selected, the device 600 is not configured to capture additional content of image media in response to a request to capture media. In some embodiments, when the device 600 displays the additional video content capture settings affordance 3702a3 as not selected, the device 600 is not configured to capture additional content of video media in response to a request to capture media. In FIG. 37F, the device 600 detects a right swipe gesture 3750f at a location corresponding to the bottom of the settings user interface.

図37Gに示すように、右向きスワイプジェスチャ3750fを検出したことに応じて、デバイス600は、図37Dに表示されたように、設定ユーザインタフェースの表示を、カメラユーザインタフェースの表示に置き換える。図37Gでは、デバイス600は、シャッターアフォーダンス610に対応する位置でのタップジェスチャ3750gを検出する。 As shown in FIG. 37G, in response to detecting right swipe gesture 3750f, device 600 replaces the display of the settings user interface with a display of the camera user interface, as displayed in FIG. 37D. In FIG. 37G, device 600 detects a tap gesture 3750g at a location corresponding to shutter affordance 610.

図37Hに示すように、タップジェスチャ3750gを検出したことに応じて、デバイス600は、図37Gのライブプレビュー630に対応する新しいメディアアイテム(例えば、写真)(例えば、視覚的引裂きを伴わずに人3784bの肩の一部分上に座っている犬3784aの画像)をキャプチャする。更に、タブジェスチャ3750gを検出したことに応じて、デバイス600は、メディアコレクション624を、新たにキャプチャされたメディアアイテムの表現3724bで更新する。 As shown in FIG. 37H, in response to detecting the tap gesture 3750g, the device 600 captures a new media item (e.g., a photo) that corresponds to the live preview 630 of FIG. 37G (e.g., an image of a dog 3784a sitting on a portion of the shoulder of a person 3784b without visual tearing). Further, in response to detecting the tab gesture 3750g, the device 600 updates the media collection 624 with a representation 3724b of the newly captured media item.

図37Hでは、デバイス600は、右にシフトしている。右にシフトした後、デバイス600は、デバイス600の1つ以上のカメラのうちの1つの更新された視野に基づいて、犬3784aの頭の半分がライブプレビュー630からカットオフされるように、ライブプレビュー630を更新する。図37Hでは、デバイス600は、シャッターアフォーダンス610に対応する位置でのタップジェスチャ3750hを検出する。 In FIG. 37H, device 600 shifts to the right. After shifting to the right, device 600 updates live preview 630 based on an updated field of view of one of device 600's one or more cameras such that half of dog 3784a's head is cut off from live preview 630. In FIG. 37H, device 600 detects tap gesture 3750h at a location corresponding to shutter affordance 610.

図37Iに示すように、タップジェスチャ3750hを検出したことに応じて、デバイス600は、図37Hのライブプレビュー630に対応する新しいメディアアイテム(例えば、写真)(例えば、犬3784aの頭の半分を有する画像)をキャプチャする。更に、タップジェスチャ3750hを検出したことに応じて、デバイス600は、メディアコレクション624を、新たにキャプチャされたメディアアイテムの表現3724cで更新する。 As shown in FIG. 37I, in response to detecting tap gesture 3750h, device 600 captures a new media item (e.g., a photo) (e.g., an image with half of the head of a dog 3784a) that corresponds to live preview 630 of FIG. 37H. Further, in response to detecting tap gesture 3750h, device 600 updates media collection 624 with a representation 3724c of the newly captured media item.

図37Iでは、デバイス600は、デバイス600の1つ以上のカメラが、矩形プリズム2432上に座っている人を有する左部分3782に向けられるように、位置を変更した。移動の変化を検出した後に、デバイス600は、図37Iに示すように、ライブプレビュー630を更新する。例えば、ライブプレビュー630を表示している間に、デバイス600は、カメラディスプレイ領域604内の矩形プリズム2432上に座っている人及びインジケータ領域602内のデバイス600の後カメラの視野内に入ってきた鳥2440を表示する。デバイス600がわずかに傾斜している(例えば、シーンの平面に対してx軸、y軸、及び/又はz軸のうちの1つ以上に沿って回転される)ため、左部分3782の様々な部分は、上記の図24Aの左部分3782と比較して、図37Iのライブプレビュー630内に表示されるように歪む。図37Iにおいて、ライブプレビュー630は、補正されていない垂直遠近歪(例えば、垂直線2434a~2434cは、ライブプレビュー630の底部に向かって、それぞれの点で視覚的に収束するように見える)、水平遠近歪(例えば、水平線2436a~2436bは、ライブプレビュー630において右から左へ動いて収束するように見える)、及び水平線歪(例えば、水平線は、左部分3782で一直線であるとき、ライブプレビュー630内で対角線である)を含む。図37Iでは、デバイス600は、シャッターアフォーダンス610に対応する位置でのタップジェスチャ3750iを検出する。 In FIG. 37I, the device 600 has changed position such that one or more cameras of the device 600 are directed toward the left portion 3782 having a person sitting on the rectangular prism 2432. After detecting the change in movement, the device 600 updates the live preview 630 as shown in FIG. 37I. For example, while displaying the live preview 630, the device 600 displays the person sitting on the rectangular prism 2432 in the camera display area 604 and the bird 2440 that has come into the field of view of the rear camera of the device 600 in the indicator area 602. Because the device 600 is slightly tilted (e.g., rotated along one or more of the x-axis, y-axis, and/or z-axis relative to the plane of the scene), various portions of the left portion 3782 are distorted as displayed in the live preview 630 of FIG. 37I compared to the left portion 3782 of FIG. 24A above. In FIG. 37I, the live preview 630 includes uncorrected vertical perspective distortion (e.g., vertical lines 2434a-2434c appear to visually converge at each point toward the bottom of the live preview 630), horizontal perspective distortion (e.g., horizontal lines 2436a-2436b appear to converge moving from right to left in the live preview 630), and horizon distortion (e.g., a horizontal line is diagonal in the live preview 630 when it is a straight line at the left portion 3782). In FIG. 37I, the device 600 detects a tap gesture 3750i at a location corresponding to the shutter affordance 610.

図37Jに示すように、タップジェスチャ3750iを検出したことに応じて、デバイス600は、図37Iのライブプレビュー630に対応する新しいメディアアイテム(例えば、写真)(例えば、歪みを有する矩形プリズム2432上に座っている人)をキャプチャする。更に、タップジェスチャ3750iを検出したことに応じて、デバイス600は、メディアコレクション624を、新たにキャプチャされたメディアアイテムの表現3724dで更新する。図37Jでは、デバイス600は、メディアコレクション624に対応する位置でのタップジェスチャ3750jを検出し、ここで、タップジェスチャ3750iを検出したことに応じて、キャプチャされたメディアアイテムは、キャプチャされた最後のメディアであり、表現3724dは、メディアコレクション624の上に表示される。 As shown in FIG. 37J, in response to detecting tap gesture 3750i, device 600 captures a new media item (e.g., a photo) (e.g., a person sitting on distorted rectangular prism 2432) corresponding to live preview 630 of FIG. 37I. Further, in response to detecting tap gesture 3750i, device 600 updates media collection 624 with representation 3724d of the newly captured media item. In FIG. 37J, device 600 detects tap gesture 3750j at a location corresponding to media collection 624, where the captured media item is the last media captured in response to detecting tap gesture 3750i, and representation 3724d is displayed above media collection 624.

図37Kに示すように、タップジェスチャ3750jを検出したことに応じて、デバイス600は、カメラユーザインタフェースを表示することを停止し、代わりに、写真ビューワユーザインタフェースを表示する。写真ビューワユーザインタフェースは、写真ビューワユーザインタフェースの底部で表示されるメディアコレクション624を含む。メディアコレクション624は、上述の図37C~図37Jでキャプチャされたメディアアイテムの表現3724aをそれぞれ含む。表現3724a~dを表示することとともに、写真ビューワユーザインタフェースは、メディアを編集するための編集アフォーダンス644aと、キャプチャされたメディアを送信するための送信アフォーダンス644bと、キャプチャされたメディアをお気に入りのメディアとしてマーキングするためのお気に入りアフォーダンス644cと、キャプチャされたメディアを削除するためのごみ箱アフォーダンス644dと、ライブプレビュー630の表示に戻るための戻るアフォーダンス644eと、を含む。 As shown in FIG. 37K, in response to detecting the tap gesture 3750j, the device 600 stops displaying the camera user interface and instead displays a photo viewer user interface. The photo viewer user interface includes a media collection 624 that is displayed at the bottom of the photo viewer user interface. The media collection 624 includes representations 3724a of the captured media items, as described above in FIGS. 37C-37J, respectively. Along with displaying the representations 3724a-d, the photo viewer user interface includes an edit affordance 644a for editing the media, a send affordance 644b for sending the captured media, a favorite affordance 644c for marking the captured media as favorite media, a trash affordance 644d for deleting the captured media, and a back affordance 644e for returning to displaying the live preview 630.

図37Kでは、タップジェスチャ3750jを検出したことに応じて、デバイス600は、コンテンツ(例えば、データ)が図37Iのインジケータ領域602及びコントロール領域606(及びカメラディスプレイ領域604)の部分からキャプチャされたため(例えば、デバイス600が、図37Fに関連して上述したように、追加のコンテンツをキャプチャするように構成されるため)、コンテンツ処理インジケータ3732を表示し、表現3724dによって表されたメディアアイテムは、完全に処理されていない。換言すれば、デバイス600は、表現3724dによって表されたメディアアイテムをキャプチャしたとき、デバイス600が追加のコンテンツをキャプチャし、メディアアイテムに対応するコンテンツが完全に処理されるのに閾値時間量より少ない時間量が経過したため、コンテンツ処理インジケータ3732を表示する。ここで、表現3724dによって表されたメディアアイテムは、図37Iのライブプレビュー630内に表示されるように、WFOVからのインジケータ領域602及びコントロール領域606の部分及びNFOVからのカメラディスプレイ領域604の一部分からキャプチャされたコンテンツを含む。しかしながら、表現3724dは、NFOVからのカメラディスプレイ領域604の一部分からキャプチャされるコンテンツ飲みを含む。本明細書では、メディアアイテムの表現(例えば、メモリに保存されるデータ構造)は、メディアアイテムのコンテンツ(例えば、データ)の一部分のみを使用して形成され得る。いくつかの実施形態では、コンテンツ処理インジケータ3732は、スピンするアニメーション化されたインジケータである。いくつかの実施形態では、コンテンツ処理インジケータ3732は、処理された要求されたメディアアイテム(例えば、表現3724dによって表されたメディアアイテム)に対応する、キャプチャされたコンテンツのパーセンテージを示すように、埋まるアニメーション化されたプログレスバーである。 In FIG. 37K, in response to detecting tap gesture 3750j, device 600 displays content processing indicator 3732 because content (e.g., data) was captured from portions of indicator area 602 and control area 606 (and camera display area 604) of FIG. 37I (e.g., device 600 is configured to capture additional content as described above in connection with FIG. 37F), and the media item represented by representation 3724d has not been fully processed. In other words, device 600 displays content processing indicator 3732 because, when it captured the media item represented by representation 3724d, device 600 captured additional content and less than a threshold amount of time has elapsed for the content corresponding to the media item to be fully processed. Here, the media item represented by representation 3724d includes content captured from portions of indicator area 602 and control area 606 from the WFOV and a portion of camera display area 604 from the NFOV, as displayed in live preview 630 of FIG. 37I. However, representation 3724d includes only the content captured from a portion of camera display area 604 from the NFOV. As used herein, a representation (e.g., a data structure stored in memory) of a media item may be formed using only a portion of the content (e.g., data) of the media item. In some embodiments, content processing indicator 3732 is a spinning animated indicator. In some embodiments, content processing indicator 3732 is an animated progress bar that fills to indicate the percentage of the captured content that corresponds to the requested media item (e.g., the media item represented by representation 3724d) that has been processed.

図37Kでは、デバイス600が表現3724dによって表されたメディアアイテムのコンテンツが完全に処理されていないため、デバイス600は、拡大された調整されていない表現3730d1を表示し、これは、調整されなかったメディアアイテムの表現である。ここで、調整されていない表現3730d1は、図37Iのライブプレビュー630内に表示される歪みに類似した、垂直遠近歪、水平遠近歪、及び水平線歪みを含む。調整されていない表現3730d1は、図37Iの領域602及び606内に表示されるコンテンツからキャプチャされたことを使用して、調整がメディアアイテム(表現3724dによって表された)を適用されなかったため、図37I内に表示されるように、カメラディスプレイ領域604内に表示されるコンテンツからキャプチャされたコンテンツのみを含む。例えば、調整されていない表現3730d1は、図37Iのインジケータ領域602内に表示される追加のコンテンツ(例えば、鳥2440)を含まない。調整されていない表現3724d1を表示することとともに、デバイス600はまた、調整されていない表現3730d1と一致する表現3724dを表示する。 In FIG. 37K, because device 600 has not fully processed the content of the media item represented by representation 3724d, device 600 displays an enlarged unadjusted representation 3730d1, which is a representation of the media item that has not been adjusted. Here, unadjusted representation 3730d1 includes vertical perspective distortion, horizontal perspective distortion, and horizon distortion similar to the distortions displayed in live preview 630 of FIG. 37I. Unadjusted representation 3730d1 includes only the content captured from the content displayed in camera display area 604, as displayed in FIG. 37I, because no adjustments were applied to the media item (represented by representation 3724d) using the content captured from the content displayed in areas 602 and 606 of FIG. 37I. For example, unadjusted representation 3730d1 does not include the additional content (e.g., bird 2440) displayed in indicator area 602 of FIG. 37I. Along with displaying the unadjusted representation 3724d1, the device 600 also displays the representation 3724d that matches the unadjusted representation 3730d1.

図37Lに示すように、表現3724dによって表されたメディアアイテムの追加のコンテンツを処理した後、デバイス600は、コンテンツ処理インジケータ3732が時計回りに回転させるコンテンツ処理インジケータ3732の表示をアニメーション又は更新し続ける。図37Lでは、デバイス600は、表現3724d(例えば、調整されていない表現3730d1)によって表されたメディアアイテムの水平線2438、垂直線2434a~2434c、及び水平線2436a~2436bが補正される必要があるため、コンテンツが表現3724dによって表されたメディアアイテムを補正するために使用される必要があるとの判定を行う。いくつかの実施形態では、以前にキャプチャされたメディアアイテム(例えば、表現3724dによって表されたメディアアイテム)が、領域602及び606(例えば、図37I)内に表示される表現の部分からキャプチャされたコンテンツを使用して補正され得る、1つ以上の視覚アスペクト(例えば、ビデオ安定化、水平線補正、垂直補正、水平補正、及びリフレーミング)を含むとの判定を行う。いくつかの実施形態では、以前にキャプチャされたメディアアイテムのコンテンツを使用して判定される計算された信頼度確信値に基づいて、以前にキャプチャされたメディアアイテムが補正される必要がある1つ以上の視覚アスペクトを含むとの判定を行う。いくつかの実施形態では、計算された信頼度確信値が閾値を上回る(又は等しい)場合、以前にキャプチャされたメディアアイテムが補正される必要があるとの判定を行う。いくつかの実施形態では、計算された信頼度確信値が閾値を下回る(又は等しい)場合、以前にキャプチャされたメディアアイテムが補正される必要があるとの判定を行う。 As shown in FIG. 37L, after processing additional content of the media item represented by representation 3724d, device 600 continues to animate or update the display of content processing indicator 3732 as content processing indicator 3732 rotates clockwise. In FIG. 37L, device 600 makes a determination that content needs to be used to correct the media item represented by representation 3724d because horizontal line 2438, vertical lines 2434a-2434c, and horizontal lines 2436a-2436b of the media item represented by representation 3724d (e.g., unadjusted representation 3730d1) need to be corrected. In some embodiments, a determination is made that a previously captured media item (e.g., the media item represented by representation 3724d) includes one or more visual aspects (e.g., video stabilization, horizon correction, vertical correction, horizontal correction, and reframing) that can be corrected using content captured from the portions of the representation displayed in regions 602 and 606 (e.g., FIG. 37I). In some embodiments, a determination is made that the previously captured media item includes one or more visual aspects that need to be corrected based on a calculated confidence belief value that is determined using the content of the previously captured media item. In some embodiments, a determination is made that the previously captured media item needs to be corrected if the calculated confidence belief value is above (or equal to) a threshold. In some embodiments, a determination is made that the previously captured media item needs to be corrected if the calculated confidence belief value is below (or equal to) a threshold.

デバイス600がキャプチャされたメディアを自動的に調整するように構成されるため(図37Fにおいて上述のように、自動メディア補正設定アフォーダンス3702a1によってアクティブ状態に設定されている)、及びコンテンツ(例えば、図37Iの領域602及び606内に表示される表現の部分からキャプチャされたコンテンツ)が表現3724dによって表されたメディアアイテムを補正するために使用される必要があるとの判定のため、デバイス600は、(追加のユーザ入力なしで)アニメーションを自動的に表示する。アニメーションを表示するときに、デバイス600は、図37Lの部分的に調整された表現3730d2などの更新された表現を表示するように、調整されていない表現3730d1を調整する。すなわち、いくつかの実施形態では、デバイス600は、デバイス600が追加のコンテンツのうちのより多くを処理する間に、調整されていない表現を更新するアニメーションを表示する。図37Lでは、デバイス600は、水平線2438の水平線歪みを補正するように、表現を回転させた。特に、デバイス600が表現を回転させたため、デバイス600は、インジケータ領域602内に表示されるライブプレビュー630の一部分のうちのいくつか(例えば、図37Iの鳥2440)を、一部分的に調整された表現3730d2内に(例えば、表現3724dによって表されたメディアアイテムの追加のコンテンツのうちのいくつかを使用して)表示する。更には、回転により、調整されていない表現3730d1内での対角線から(例えば、水平線2438のいくつかの点が異なるy値を有する)水平線(例えば、水平線の各点が同じy値を有するへ、水平線2438を変更し、かつ水平線2438は、図24Eに関連して論じられた技術を使用して、部分的に調整された表現3730d2内の表現のx軸に沿ってのみ進む。部分的に調整された表現3730d2を表示することとともに、デバイス600はまた、部分的に調整された表現3730d2と一致するように、メディアコレクション624内の表現3724dを更新する。いくつかの実施形態では、デバイス600は、表現3724dを更新したときに、デバイス600が部分的に調整された表現3730d2などの更新された表現を表示するために、調整されていない表現3730d1を調整したときに表示するものと類似のアニメーションを表示する。 Because device 600 is configured to automatically adjust the captured media (set to an active state by auto media correction setting affordance 3702a1, as described above in FIG. 37F), and because of a determination that content (e.g., content captured from the portions of the representation displayed in regions 602 and 606 of FIG. 37I) needs to be used to correct the media item represented by representation 3724d, device 600 automatically (without additional user input) displays the animation. When displaying the animation, device 600 adjusts unadjusted representation 3730d1 to display an updated representation, such as partially adjusted representation 3730d2 of FIG. 37L. That is, in some embodiments, device 600 displays an animation that updates the unadjusted representation while device 600 processes more of the additional content. In FIG. 37L, device 600 has rotated the representation to correct the horizon distortion of horizon 2438. In particular, because device 600 has rotated the representation, device 600 displays some of the portions of live preview 630 displayed in indicator area 602 (e.g., bird 2440 in FIG. 37I ) in a partially adjusted representation 3730d2 (e.g., using some of the additional content of the media item represented by representation 3724d). Furthermore, the rotation changes the horizontal line 2438 from a diagonal line in the unadjusted representation 3730d1 (e.g., some points of the horizontal line 2438 have different y values) to a horizontal line (e.g., each point of the horizontal line has the same y value, and the horizontal line 2438 proceeds only along the x-axis of the representation in the partially adjusted representation 3730d2, using the techniques discussed in connection with FIG. 24E. Along with displaying the partially adjusted representation 3730d2, the device 600 also updates the representation 3724d in the media collection 624 to match the partially adjusted representation 3730d2. In some embodiments, when the device 600 updates the representation 3724d, it displays an animation similar to that displayed when the device 600 adjusted the unadjusted representation 3730d1 to display an updated representation, such as the partially adjusted representation 3730d2.

図37Mに示すように、図37Lで上述したアニメーションを表示する理由に加えて、デバイス600が表現3724dによって表されたメディアアイテムのコンテンツを完全に処理しているため(デバイス600がキャプチャされたメディアを自動的に調整するように構成されるため、及びコンテンツが表現3724dによって表されたメディアアイテムを補正するために使用される必要があるとの判定のため、デバイス600は、アニメーションを表示する)、デバイス600は、自動的に(追加のユーザ入力なしで)、部分的に調整された表現3730d2を、調整された表現3730d3に置き換える。デバイス600は、表現3724dによって表されたメディアアイテムの垂直及び水平視点を更新することによって、調整された表現3730d3を表示する。図37Mにおいて、図37Iでキャプチャされたライブプレビュー630と比較して、調整された表現3730d3は、垂直遠近歪(例えば、垂直線2434a~2434cは、表現3730d1においてより平行に見える)、水平遠近歪(例えば、水平線2436a~2436bは、ライブプレビュー630において右から左へ動いて収束しないように見える)、及び水平線歪(例えば、水平線は、より水平である)がより少ない。ここで、調整された表現3730d3は、図37Iのカメラディスプレイ領域604内に表示されるライブプレビュー630の一部分のうちのいくつか(矩形プリズム2432上に座っている人)、及び図37Iのインジケータ領域602内に表示されるライブプレビュー630の一部分のうちのいくつか(例えば、鳥2440)を含む。上述のように、表現(represented)3724dによって表されたメディアアイテムを使用して、表現を調整するとき、デバイス600は、メディアアイテムの様々な構成要素を補正するために、追加の視覚コンテンツ(例えば、鳥2440)を利用する(例えば、持ち込む)(例えば、図24Dに関連して上述したように)。それにより、デバイス600は、調整された表現3730d3を追加の視覚コンテンツとともに表示する。調整された表現3730d3を表示することとともに、デバイス600はまた、調整された表現3730d3と一致するように、メディアコレクション624内の表現3724dを更新する。 As shown in FIG. 37M, in addition to the reasons for displaying the animation discussed above in FIG. 37L, because device 600 has fully processed the content of the media item represented by representation 3724d (device 600 displays the animation because device 600 is configured to automatically adjust the captured media and because it has determined that the content needs to be used to correct the media item represented by representation 3724d), device 600 automatically (without additional user input) replaces partially adjusted representation 3730d2 with adjusted representation 3730d3. Device 600 displays adjusted representation 3730d3 by updating the vertical and horizontal viewpoints of the media item represented by representation 3724d. In Figure 37M, compared to the live preview 630 captured in Figure 37I, the adjusted representation 3730d3 has less vertical perspective distortion (e.g., vertical lines 2434a-2434c appear more parallel in representation 3730d1), horizontal perspective distortion (e.g., horizontal lines 2436a-2436b appear to move from right to left and not converge in live preview 630), and horizon distortion (e.g., the horizon lines are more horizontal). Here, adjusted representation 3730d3 includes some of the portions of the live preview 630 displayed within camera display area 604 of Figure 37I (e.g., person sitting on rectangular prism 2432) and some of the portions of the live preview 630 displayed within indicator area 602 of Figure 37I (e.g., bird 2440). As described above, when adjusting a representation using the media item represented by the representation 3724d, the device 600 utilizes (e.g., brings in) additional visual content (e.g., bird 2440) to correct various components of the media item (e.g., as described above in connection with FIG. 24D). The device 600 thereby displays the adjusted representation 3730d3 with the additional visual content. Along with displaying the adjusted representation 3730d3, the device 600 also updates the representation 3724d in the media collection 624 to match the adjusted representation 3730d3.

図37Mに示すように、図37Lで上述したアニメーションを表示する理由に加えて、デバイス600が表現3724dによって表されたメディアアイテムのコンテンツを完全に処理しているため、デバイス600は、デバイス600がメディアアイテムのコンテンツを完全に処理しているため、コンテンツ処理インジケータ3732を、自動調整アフォーダンス1036bに置き換える。自動調整アフォーダンス1036bは、選択されているものとして(例えば、太字、プレスされて)表示され、これは、デバイス600がメディアアイテムの表現(例えば、調整された表現3730d3)を表示していることを示し、ここで、メディアアイテムが1つ以上の調整アルゴリズムに基づいて調整されている。図37Mでは、デバイス600は、自動調整アフォーダンス1036bに対応する位置でのタップジェスチャ3750mを検出する。 As shown in FIG. 37M, in addition to the reasons for displaying the animation described above in FIG. 37L, because the device 600 has fully processed the content of the media item represented by representation 3724d, the device 600 replaces the content processing indicator 3732 with an auto-adjust affordance 1036b. The auto-adjust affordance 1036b is displayed as selected (e.g., bold, pressed), indicating that the device 600 is displaying a representation of the media item (e.g., adjusted representation 3730d3) where the media item has been adjusted based on one or more adjustment algorithms. In FIG. 37M, the device 600 detects a tap gesture 3750m at a location corresponding to the auto-adjust affordance 1036b.

図37Nに示すように、タップジェスチャ3750mを検出したことに応じて、デバイス600は、図37Kに関連して上述したように、調整されなかった表現3724dによって表されたメディアアイテムである、拡大された調整されていない表現3730d1を表示する。換言すれば、デバイス600は、タップジェスチャ3750mを検出したことに応じて、図37K~図37Lにおいて行われた調整を復元する。更には、タップジェスチャ37350mを検出したことに応じて、デバイス600は、自動調整アフォーダンスが未選択(例えば、太字でなく、プレスされていない)であるものとして表示されるように、自動調整アフォーダンス1036bの表示を更新し、かつ調整されていない表現3730d1と一致するように、メディアコレクション624内の3724bの表現を更新する。図37Nでは、デバイス600は、メディアコレクション624における表現3724bに対応する位置でのタップジェスチャ3750nを検出する。 37N, in response to detecting tap gesture 3750m, device 600 displays an enlarged unadjusted representation 3730d1 of the media item represented by unadjusted representation 3724d, as described above in connection with FIG. 37K. In other words, in response to detecting tap gesture 3750m, device 600 restores the adjustments made in FIGS. 37K-37L. Furthermore, in response to detecting tap gesture 37350m, device 600 updates the display of auto-adjust affordance 1036b such that the auto-adjust affordance is displayed as unselected (e.g., not bold and not pressed), and updates the representation of 3724b in media collection 624 to match unadjusted representation 3730d1. In FIG. 37N, device 600 detects tap gesture 3750n at a location corresponding to representation 3724b in media collection 624.

図37Oに示すように、タップジェスチャ3750nを検出したことに応じて、デバイス600は、拡大された調整されていない表現3730d1を、調整されていない表現3730b1に置き換え、これは、メディアコレクション624内に表現3724bによって表されたメディアアイテムに対応する。更に、タップジェスチャ3750nを検出したことに応じて、デバイス600は、自動調整アフォーダンス1036bの表示を、コンテンツ処理インジケータ3732に置き換える。デバイス600は、図37Kの表現3724dによって表されたメディアアイテムの処理に関連して論じられたものと同様の理由で、コンテンツ処理インジケータ3732を表示する。例えば、デバイス600は、コンテンツが図37Dのインジケータ領域602及びコントロール領域606の部分からキャプチャされたため(例えば、デバイス600が、図37Fに関連して上述したように、追加のコンテンツをキャプチャするように構成されるため)、コンテンツ処理インジケータ3732を表示し、表現3724bによって表されたメディアアイテムのコンテンツは、完全に処理されていない。 37O, in response to detecting tap gesture 3750n, device 600 replaces enlarged unadjusted representation 3730d1 with unadjusted representation 3730b1, which corresponds to the media item represented by representation 3724b in media collection 624. Further, in response to detecting tap gesture 3750n, device 600 replaces the display of auto-adjust affordance 1036b with content processing indicator 3732. Device 600 displays content processing indicator 3732 for reasons similar to those discussed in connection with processing the media item represented by representation 3724d in FIG. 37K. For example, device 600 displays content processing indicator 3732 because content has been captured from indicator area 602 and portions of control area 606 in FIG. 37D (e.g., device 600 is configured to capture additional content as described above in connection with FIG. 37F), and the content of the media item represented by representation 3724b has not been fully processed.

図37Pに示すように、デバイス600は、表現3724bによって表されたメディアアイテムのコンテンツを完全に処理し、かつキャプチャされたコンテンツ(例えば、追加のコンテンツ)が表現3724dによって表されたメディアアイテムを補正するために使用される必要がないとの判定を行う。図37Bでは、デバイス600は、表現3724bによって表されたメディアアイテムのコンテンツを完全に処理し、かつキャプチャされたコンテンツ(例えば、追加のコンテンツ)が表現3724dによって表されたメディアアイテムを補正するために使用される必要がないとの判定を行い、デバイス600は、表現3724bによって表されたメディアアイテムの調整された表現を表示することをやめ、かつ調整されていない表現3730b1の表示を維持する。更には、キャプチャされたコンテンツが表現3724bによって表されたメディアアイテムを補正するために使用される必要がないとの判定を行うため、デバイス600は、デバイス600が表現3724bによって表されたメディアアイテムのコンテンツを完全に処理したときに、非選択可能自動調整インジケータ3734を表示する。非選択可能自動調整インジケータ3734は、追加のコンテンツ(例えば、領域602及び606からキャプチャされたコンテンツ)がキャプチャされたことを示す。しかしながら、非選択可能自動調整インジケータ3734は、自動調整アフォーダンス1036bのように機能しない(タップジェスチャ3750mに関連して上述したように)。すなわち、自動調整アフォーダンス1036bは、非選択可能自動調整インジケータ3734に対応する位置でのジェスチャに応じて、表示表現を調整しない。いくつかの実施形態では、デバイス600が、追加のコンテンツが表現3724bによって表されたメディアアイテムの自動調整に使用される必要があると判定したが、追加のコンテンツは、表現3724bによって表されたメディアアイテムに関連する1つ以上の動作(例えば、手動での編集)で使用するのに利用可能なままである。図37Pでは、デバイス600は、非選択可能自動調整インジケータ3734に対応する位置でのタップジェスチャ3750pを検出する。 As shown in FIG. 37P, device 600 fully processes the content of the media item represented by representation 3724b and determines that the captured content (e.g., additional content) does not need to be used to correct the media item represented by representation 3724d. In FIG. 37B, device 600 fully processes the content of the media item represented by representation 3724b and determines that the captured content (e.g., additional content) does not need to be used to correct the media item represented by representation 3724d, and device 600 ceases to display the adjusted representation of the media item represented by representation 3724b and maintains the display of the unadjusted representation 3730b1. Furthermore, because device 600 determines that the captured content does not need to be used to correct the media item represented by representation 3724b, device 600 displays non-selectable auto-adjustment indicator 3734 when device 600 fully processes the content of the media item represented by representation 3724b. The non-selectable auto-adjustment indicator 3734 indicates that additional content (e.g., content captured from regions 602 and 606) has been captured. However, the non-selectable auto-adjustment indicator 3734 does not function like the auto-adjustment affordance 1036b (as described above in connection with tap gesture 3750m). That is, the auto-adjustment affordance 1036b does not adjust the display representation in response to a gesture at a location corresponding to the non-selectable auto-adjustment indicator 3734. In some embodiments, the device 600 determines that the additional content needs to be used for auto-adjustment of the media item represented by the representation 3724b, but the additional content remains available for use in one or more operations (e.g., manual editing) related to the media item represented by the representation 3724b. In FIG. 37P, the device 600 detects a tap gesture 3750p at a location corresponding to the non-selectable auto-adjustment indicator 3734.

図37Qに示すように、タップジェスチャ3750pに応じて、デバイス600は、表現3724bによって表されたメディアアイテムの新しい表現を表示する及び非選択可能自動調整インジケータ3734を更新することをやめる。換言すれば、タップジェスチャ3750pに応じて、デバイス600は、図37Pに表示されたのと同じ方法で、調整されていない表現3730b1及び非選択可能自動調整インジケータ3734を表示し続ける。 37Q, in response to tap gesture 3750p, device 600 displays a new representation of the media item represented by representation 3724b and ceases updating non-selectable auto-adjustment indicator 3734. In other words, in response to tap gesture 3750p, device 600 continues to display unadjusted representation 3730b1 and non-selectable auto-adjustment indicator 3734 in the same manner as displayed in FIG. 37P.

図37K~図37Qに戻ると、追加のコンテンツ(例えば、領域602及び606からキャプチャされたコンテンツ)がメディアを補正するために使用される必要があるとの判定を行うときに、デバイス600は、デバイス600がメディアのコンテンツを完全に処理し、かつ追加のコンテンツがキャプチャされた(図37K~図37Nに関連して上述したように)後に、選択可能自動調整アフォーダンスを表示し、かつメディアの表現を自動的に調整する。しかしながら、いくつかの実施形態では、追加のコンテンツがメディアを補正するために使用される必要がないとの判定を行うときに、デバイス600は、デバイス600がメディアのコンテンツを完全に処理し、かつ追加のコンテンツがキャプチャされた後に、非選択可能自動調整インジケータ3734を表示し、かつメディアの表現を調整しない(図37O~図37Qに関連して上述したように)。図37Qでは、デバイス600は、写真ビューワユーザインタフェースの底部に対応する位置での右向きスワイプジェスチャ3750qを検出する。 37K-37Q, when making a determination that additional content (e.g., content captured from regions 602 and 606) needs to be used to correct the media, the device 600 displays a selectable auto-adjust affordance and automatically adjusts the representation of the media after the device 600 has fully processed the media's content and the additional content has been captured (as described above in connection with FIGS. 37K-37N). However, in some embodiments, when making a determination that additional content does not need to be used to correct the media, the device 600 displays a non-selectable auto-adjust indicator 3734 and does not adjust the representation of the media after the device 600 has fully processed the media's content and the additional content has been captured (as described above in connection with FIGS. 37O-37Q). In FIG. 37Q, the device 600 detects a right swipe gesture 3750q at a location corresponding to the bottom of the photo viewer user interface.

図37Rに示すように、右向きスワイプジェスチャ3750qを検出したことに応じて、デバイス600は、写真ビューワユーザインタフェースの表示を、設定ユーザインタフェースの表示に置き換え、ここで、自動メディア補正設定アフォーダンス3702a1は、選択されているものとして表示される(図Fに関連して論じられるように)。図37Rでは、デバイス600は、自動メディア補正設定アフォーダンス3702a1に対応する位置でのタップジェスチャ3750rをする。 As shown in FIG. 37R, in response to detecting right swipe gesture 3750q, device 600 replaces the display of the photo viewer user interface with a display of a settings user interface, where auto media correction settings affordance 3702a1 is displayed as selected (as discussed in connection with FIG. F). In FIG. 37R, device 600 makes a tap gesture 3750r at a location corresponding to auto media correction settings affordance 3702a1.

図37Sに示すように、タップジェスチャ3750rを検出したことに応じて、デバイス600は、自動メディア補正設定アフォーダンス3702a1が選択されるように、自動メディア補正設定アフォーダンス3702a1の表示を更新する。未選択の(非アクティブ状態に設定された)自動メディア補正設定アフォーダンス3702a1は、デバイス600がキャプチャされたメディアを自動的に調整するように構成されていないことを示す。図37Sでは、デバイス600は、設定ユーザインタフェースの底部に対応する位置での左向きスワイプジェスチャ3750sを検出する。 As shown in FIG. 37S, in response to detecting the tap gesture 3750r, the device 600 updates the display of the auto media correction settings affordance 3702a1 so that the auto media correction settings affordance 3702a1 is selected. The unselected (set to an inactive state) auto media correction settings affordance 3702a1 indicates that the device 600 is not configured to automatically adjust captured media. In FIG. 37S, the device 600 detects a left swipe gesture 3750s at a location corresponding to the bottom of the settings user interface.

図37Tに示すように、スワイプジェスチャ3750sを検出したことに応じて、デバイス600は、調整されていない表現3730c1を表示する(タップジェスチャ3750nに関連して上述したものと同様の技術を使用して、メディアコレクション624内の表現3724cの位置に対応する、タップジェスチャによって以前にナビゲーションされたように)。調整されていない表現3730c1は、メディアコレクション624内の表現3724cに対応する。更に、タップジェスチャ3750sを検出したことに応じて、デバイス600は、図37Kの表現3724dによって表されたメディアアイテムの処理に関連して論じられたものと同様の理由で、コンテンツ処理インジケータ3732とともに、自動調整アフォーダンス1036bを表示する。 As shown in FIG. 37T, in response to detecting swipe gesture 3750s, device 600 displays unadjusted representation 3730c1 (as previously navigated by the tap gesture, corresponding to the location of representation 3724c in media collection 624, using techniques similar to those described above in connection with tap gesture 3750n). Unadjusted representation 3730c1 corresponds to representation 3724c in media collection 624. Additionally, in response to detecting tap gesture 3750s, device 600 displays auto-adjust affordance 1036b along with content processing indicator 3732 for reasons similar to those discussed in connection with processing the media item represented by representation 3724d in FIG. 37K.

図37Uに示すように、デバイス600が表現3724cによって表されたメディアアイテム(例えば、犬3784aの頭の一部分がなくなっている画像)のコンテンツを完全に処理したため、及びデバイス600がキャプチャされたメディアを自動的に調整するように構成されていないため(図37Sで論じられたように)、デバイス600は、アニメーション又は調整された表現を表示することをやめる。換言すれば、デバイス600がキャプチャされたメディアを自動的に調整するように構成されているときに図37M~図37Nに論じられるように自動的に調整された表現を表示することとは対照的に、デバイス600がキャプチャされたメディアを自動的に調整するように構成されていないため、デバイス600は、調整されていない表現3730c1の表示を維持する。更に、デバイス600は、未選択であるものとして自動調整アフォーダンス1036bを表示する。ここで、デバイス600は、デバイス600がキャプチャされたメディアを自動的に調整するように構成されていないため(図37Sに論じられるように)、選択される代わりに(例えば、図37M)、未選択であるものとして自動調整アフォーダンス1036bを表示する。加えて、デバイス600は、コンテンツが表現3724cによって表されたメディアアイテムを補正するために使用される必要があるとの判定を行ったため、非選択可能自動調整インジケータ3734の代わりに、自動調整アフォーダンス1036bを表示する。特に、デバイス600がキャプチャされたメディアを自動的に調整するように構成されていないため、デバイス600は、コンテンツが表現3724cによって表されたメディアアイテムを補正するために使用される必要があるとの判定を行いつつも、表現3724cによって表されたメディアアイテムの調整された表現を表示することをやめる。図37Uでは、デバイス600は、自動調整アフォーダンス1036bに対応する位置でのジェスチャ3750uを検出する。 As shown in FIG. 37U, because device 600 has completely processed the content of the media item represented by representation 3724c (e.g., an image of dog 3784a with part of its head missing) and because device 600 is not configured to automatically adjust the captured media (as discussed in FIG. 37S), device 600 ceases to display the animated or adjusted representation. In other words, device 600 maintains the display of unadjusted representation 3730c1 because device 600 is not configured to automatically adjust the captured media, as opposed to displaying an automatically adjusted representation as discussed in FIG. 37M-37N when device 600 is configured to automatically adjust the captured media. Additionally, device 600 displays auto-adjust affordance 1036b as unselected. Here, device 600 displays auto-adjust affordance 1036b as unselected instead of being selected (e.g., FIG. 37M) because device 600 is not configured to automatically adjust the captured media (as discussed in FIG. 37S). Additionally, because device 600 has determined that content needs to be used to correct the media item represented by representation 3724c, it displays auto-adjust affordance 1036b instead of non-selectable auto-adjust indicator 3734. In particular, because device 600 is not configured to automatically adjust the captured media, device 600 ceases to display the adjusted representation of the media item represented by representation 3724c while still determining that content needs to be used to correct the media item represented by representation 3724c. In FIG. 37U, device 600 detects gesture 3750u at a location corresponding to auto-adjust affordance 1036b.

図37Vに示すように、ジェスチャ3750uを検出したことに応じて、デバイス600は、調整されていない表現3730c1を、調整された表現3730c2に置き換える。調整された表現3730c2は、調整されていない表現3730c1内に以前に表示されなかった犬3784a(例えば、識別されたオブジェクト)の頭の一部分を含む。ここで、デバイス600は、犬3784aの頭のより多くを表示するために追加のコンテンツ内(例えば、領域602、606内、及び/又は図37Hのライブプレビュー630の一部として表示されなかったカメラディスプレイ領域604の面上の部分)に導入することによって、犬3784aの頭にリフレームする。いくつかの実施形態では、デバイス600は、ジェスチャ3750uを検出したことに応じて、各部分的に調整された表現が以前のものよりも調整された表現3730c1に近い、いくつかの部分的に調整された表現を表示することによって、調整されていない表現3730c1をリフレーミングするアニメーションを表示する。調整された表現3730c2を表示することとともに、デバイス600はまた、調整された表現3730c2と一致するように、メディアコレクション624内の表現3724cを更新する。更に、ジェスチャ3750uを検出したことに応じて、デバイス600は、自動調整アフォーダンス1036bが選択されているものとして表示されるように、自動調整アフォーダンス1036bを更新する。図37Vでは、デバイス600は、メディアコレクション624における表現3724aに対応する位置でのジェスチャ3750vを検出する。 As shown in FIG. 37V, in response to detecting gesture 3750u, device 600 replaces unadjusted representation 3730c1 with adjusted representation 3730c2. Adjusted representation 3730c2 includes a portion of the head of dog 3784a (e.g., the identified object) that was not previously displayed in unadjusted representation 3730c1. Now, device 600 reframes dog 3784a's head by introducing additional content (e.g., in regions 602, 606, and/or in portions on the surface of camera display region 604 that were not displayed as part of live preview 630 of FIG. 37H) to display more of dog 3784a's head. In some embodiments, device 600, in response to detecting gesture 3750u, displays an animation that reframes unadjusted representation 3730c1 by displaying several partially adjusted representations, each partially adjusted representation being closer to adjusted representation 3730c1 than the previous one. Along with displaying adjusted representation 3730c2, device 600 also updates representation 3724c in media collection 624 to match adjusted representation 3730c2. Additionally, in response to detecting gesture 3750u, device 600 updates auto-adjust affordance 1036b such that auto-adjust affordance 1036b is displayed as selected. In FIG. 37V, device 600 detects gesture 3750v at a location corresponding to representation 3724a in media collection 624.

図37Wに示すように、ジェスチャ3750vを検出したことに応じて、デバイス600は、表現3730aを表示し、コンテンツ処理インジケータ3732、非選択可能自動調整インジケータ3734、及び自動調整アフォーダンス1036bの表示することをやめる。図37Wにおいて、デバイス600は、(調整できない)表現3730aを表示し、表現3734aによって表されたメディアアイテムをキャプチャするときに、デバイス600が追加のコンテンツをキャプチャしなかったため、インジケータ3732及び3734並びにアフォーダンス1036bを表示することをやめる。37B~37Dに戻ると、デバイス600が図37C~図37Dにおいて表現3724aによって表されたメディアアイテムをキャプチャしたとき、デバイス600は、追加のコンテンツをキャプチャするように構成されなかった(追加のコンテンツアフォーダンス3702aが図37Bにおいてオフに設定されたため)。この実施例では、表現3724aによって表されたメディアアイテムをキャプチャしたとき、カメラの視野の外側にある追加のコンテンツは、キャプチャされない。図37Wに戻ると、いくつかの実施形態では、デバイス600は、表現3730aを表示し、追加のコンテンツがキャプチャされる場合であっても、コンテンツ処理インジケータ3732、非選択可能自動調整インジケータ3734、及び自動調整アフォーダンス1036bを表示することをやめる。いくつかの実施形態では、デバイス600は、追加のコンテンツが保存されないように、キャプチャされた追加のコンテンツが使用不可であることを判定する(例えば、画像内の視覚的引裂きは、視覚的引裂きの特定の閾値レベルを上回るとき)。 As shown in FIG. 37W, in response to detecting gesture 3750v, device 600 displays representation 3730a and ceases to display content processing indicator 3732, non-selectable auto-adjust indicator 3734, and auto-adjust affordance 1036b. In FIG. 37W, device 600 displays (non-adjustable) representation 3730a and ceases to display indicators 3732 and 3734 and affordance 1036b because device 600 did not capture additional content when capturing the media item represented by representation 3734a. Returning to FIGS. 37B-37D, when device 600 captured the media item represented by representation 3724a in FIGS. 37C-37D, device 600 was not configured to capture additional content (because additional content affordance 3702a was set to off in FIG. 37B). In this example, additional content that is outside the field of view of the camera is not captured when capturing the media item represented by representation 3724a. Returning to FIG. 37W, in some embodiments, device 600 displays representation 3730a and ceases to display content processing indicator 3732, non-selectable auto-adjustment indicator 3734, and auto-adjustment affordance 1036b, even if additional content is captured. In some embodiments, device 600 determines that the captured additional content is unavailable (e.g., when visual tearing in the image exceeds a certain threshold level of visual tearing) so that the additional content is not saved.

図37X~図37AAは、図37K~図37Vに関連して記載されたものと同様の技術を使用して、他のメディア(例えば、ビデオメディア)を調整する例示的なユーザインタフェースを示す。具体的には、図37Xは、表現3724zによって表されたメディアアイテムの調整された表現である、調整された表現3730z1を表示するデバイス600を示す。更に、図37Xは、(タップジェスチャ3750mに関連して上述したものと同様の技術を使用して)選択されると、デバイス600に、表現3724zによって表されたメディアアイテムの調整されていない表現を表示させる、自動調整アフォーダンス1036bを表示するデバイス600を示す。図37Xでは、デバイス600は、メディアアイテムを閲覧する要求(例えば、メディアコレクション624における表現3724zに対応する位置でのタップジェスチャ)が行われた前に、デバイス600が表現3724zで表されるメディアアイテムのコンテンツを完全に処理したため、コンテンツ処理インジケータ3732を表示することなく、調整された表現3724z1及び自動調整アフォーダンス1036bを表示する。更には、デバイス600は、追加のコンテンツがビデオメディアを安定化するために使用される必要があるとデバイス600が判定したため、調整された表現3730z1及び自動調整アフォーダンス1036bを表示する。ここで、調整された表現3730z1は、追加のコンテンツを使用して修正された表現3724z(例えば、より不安定であるビデオ)によって表されたメディアアイテムの1つ以上の修正されたフレームを含む。ここで、デバイス600は、表現3724zによって表されたメディアアイテムがキャプチャされ、各ビデオフレームについて、追加のコンテンツを使用して(例えば、表現3724zによって表されたメディアアイテムがキャプチャされたときの領域602及び606内)、表現3724zによって表されたメディアアイテムがキャプチャされたときに、カメラディスプレイ領域604内に表示されるコンテンツのシフトから得られた1つ以上のギャップを埋めるときに、カメラディスプレイ領域604内に表示されるシフトされたコンテンツを有する。図37Xでは、デバイス600は、メディアコレクション624における表現3724yに対応する位置でのタップジェスチャ3750xを検出する。 37X-37AA illustrate example user interfaces for adjusting other media (e.g., video media) using techniques similar to those described in connection with FIGS. 37K-37V. Specifically, FIG. 37X illustrates device 600 displaying adjusted representation 3730z1, which is an adjusted representation of the media item represented by representation 3724z. Additionally, FIG. 37X illustrates device 600 displaying auto-adjust affordance 1036b, which when selected (using techniques similar to those described above in connection with tap gesture 3750m) causes device 600 to display an unadjusted representation of the media item represented by representation 3724z. 37X, device 600 displays adjusted representation 3724z1 and auto-adjust affordance 1036b without displaying content processing indicator 3732 because device 600 fully processed the content of the media item represented by representation 3724z before a request to view the media item was made (e.g., a tap gesture at a location corresponding to representation 3724z in media collection 624). Moreover, device 600 displays adjusted representation 3730z1 and auto-adjust affordance 1036b because device 600 determined that additional content needs to be used to stabilize the video media. Here, adjusted representation 3730z1 includes one or more modified frames of the media item represented by representation 3724z (e.g., a less stable video) that have been modified using the additional content. Here, device 600 has shifted content displayed in camera display area 604 when the media item represented by representation 3724z is captured and, for each video frame, uses additional content (e.g., in areas 602 and 606 when the media item represented by representation 3724z was captured) to fill one or more gaps resulting from the shifting of the content displayed in camera display area 604 when the media item represented by representation 3724z was captured. In FIG. 37X, device 600 detects tap gesture 3750x at a location corresponding to representation 3724y in media collection 624.

図37Yに示すように、タップジェスチャ3750xを検出したことに応じて、デバイス600は、調整された表現3730z1の表示を、調整されていない表現3730y1の表示に置き換え、これは、表現3724yによって表されたメディアアイテムの調整された表現である。図37X~図37Yでは、デバイス600は、キャプチャされたメディアを自動的に調整しないように構成された(例えば、非アクティブ状態に設定された自動メディア補正設定アフォーダンス3702a1)。図37Yでは、デバイス600が、追加のコンテンツがメディアを補正する(例えば、ビデオメディアを安定化する)のに使用される必要があるとの判定を判定したが、デバイス600がキャプチャされたメディアを自動的に調整するように構成されていないため、デバイス600は、表現3724zによって表されたメディアアイテムの調整されていない表現を表示する。更に、デバイス600は、類似の理由で未選択であるものとして1036bを表示する。図37Yでは、デバイス600は、表現3724xに対応する位置でのタップジェスチャ3750yを検出する。 As shown in FIG. 37Y, in response to detecting tap gesture 3750x, device 600 replaces the display of adjusted representation 3730z1 with a display of unadjusted representation 3730y1, which is an adjusted representation of the media item represented by representation 3724y. In FIGS. 37X-Y, device 600 is configured to not automatically adjust the captured media (e.g., auto media correction setting affordance 3702a1 set to an inactive state). In FIG. 37Y, device 600 determines that additional content needs to be used to correct the media (e.g., stabilize video media), but device 600 is not configured to automatically adjust the captured media, so device 600 displays an unadjusted representation of the media item represented by representation 3724z. Additionally, device 600 displays 1036b as unselected for similar reasons. In FIG. 37Y, device 600 detects tap gesture 3750y at a location corresponding to representation 3724x.

図37Zに示すように、タップジェスチャ3750yを検出したことに応じて、デバイス600は、追加のコンテンツがキャプチャされ、かつ追加のコンテンツが表現3724xによって表されたメディアアイテム(例えば、ビデオメディア安定化させる)を補正するために使用される必要がないとの判定を行うため、調整されていない表現3730x1(表現3724xによって表されたメディアアイテムに対応する)及び非選択可能自動調整インジケータ3734を表示する。図37Zでは、デバイス600は、表現3724wに対応する位置でのタップジェスチャ3750zを検出する。 As shown in FIG. 37Z, in response to detecting tap gesture 3750y, device 600 determines that additional content has been captured and that the additional content does not need to be used to correct the media item represented by representation 3724x (e.g., video media stabilization), and therefore displays unadjusted representation 3730x1 (corresponding to the media item represented by representation 3724x) and non-selectable auto-adjustment indicator 3734. In FIG. 37Z, device 600 detects tap gesture 3750z at a location corresponding to representation 3724w.

図37AAに示すように、タップジェスチャ3750zを検出したことに応じて、デバイス600は、表現3730wを表示し、これは、表現3724wによって表されたメディアアイテムに対応する。デバイス600は、表現3730wを表示し、表現3724wによって表されたメディアアイテムをキャプチャするときに、デバイス600が追加のコンテンツをキャプチャしなかったため、インジケータ3732及び3734並びにアフォーダンス1036bを表示することをやめる。 37AA, in response to detecting tap gesture 3750z, device 600 displays representation 3730w, which corresponds to the media item represented by representation 3724w. Device 600 displays representation 3730w and ceases to display indicators 3732 and 3734 and affordance 1036b because device 600 did not capture additional content when capturing the media item represented by representation 3724w.

メディアアイテムの自動調整は、上記の図37A~図37AAの説明に使用される画像及びビデオメディアに限定されるものではない。例えば、いくつかの実施形態では、デバイス600は、オーディオを含むメディア(例えば、ビデオ、オーディオ記録)をキャプチャする。いくつかの実施形態では、デバイス600は、ビームフォーミングを使用することによって、当初キャプチャされたオーディオを調整する。いくつかの実施形態では、デバイス600は、デバイス600の1つ以上のマイクロフォンを使用して、メディア内のオブジェクト又は対象にズームするときに判定される方向入力に基づいて、単一の出力を生成する。 Automatic adjustment of media items is not limited to image and video media used in the description of Figures 37A-37AA above. For example, in some embodiments, device 600 captures media that includes audio (e.g., video, audio recording). In some embodiments, device 600 adjusts the originally captured audio by using beamforming. In some embodiments, device 600 generates a single output based on directional input determined when zooming into an object or subject in the media using one or more microphones of device 600.

図38A~図38Cは、いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。方法3800は、表示デバイス(例えば、タッチ感知ディスプレイ)を備えたデバイス(例えば、100、300、500、600)で実行される。方法3800のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 38A-38C are flow diagrams illustrating a method for editing media captured using an electronic device, according to some embodiments. Method 3800 is performed on a device (e.g., 100, 300, 500, 600) with a display device (e.g., a touch-sensitive display). Some operations of method 3800 are optionally combined, the order of some operations is optionally changed, and some operations are optionally omitted.

いくつかの実施形態では、電子デバイス(例えば、600)は、コンピュータシステムである。コンピュータシステムは、任意選択的に、ディスプレイ生成構成要素と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the electronic device (e.g., 600) is a computer system. The computer system is optionally in communication (e.g., wired communication, wireless communication) with a display generation component and with one or more input devices. The display generation component is configured to provide visual output, such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. The one or more input devices are configured to receive input, such as a touch-sensitive surface that receives user input. In some embodiments, the one or more input devices are integrated with the computer system. In some embodiments, the one or more input devices are separate from the computer system. Thus, the computer system can transmit data (e.g., image data or video data) via a wired or wireless connection to an integrated or external display generation component to visually generate content (e.g., using a display device) and can receive wired or wireless connection input from one or more input devices.

後述するように、方法3800は、いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための直感的な仕方を提供する。この方法は、キャプチャされたメディアを調整する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的に調整されたメディアにアクセスすることを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, method 3800, according to some embodiments, provides an intuitive way to automatically adjust captured media using an electronic device. The method reduces the cognitive burden on the user in adjusting captured media, thereby creating a more efficient human-machine interface. For battery-operated computing devices, enabling users to access adjusted media more quickly and efficiently conserves power and extends the time between battery charges.

電子デバイス(例えば、600)は、表示デバイスを含む。電子デバイスは、1つ以上のカメラの視野の第1の部分(例えば、領域604に表示されたライブプレビュー630に対応するコンテンツ)(例えば、1つ以上のカメラの視野の主要又は中心部分であって、そのうちの大部分が、メディアアイテムを表示するときに1つ以上のカメラの視野の表現に含まれる)からの第1のコンテンツ(例えば、画像データ(例えば、コンピュータシステム上に記憶された画像データ))及び1つ以上のカメラの視野の第2の部分(例えば、領域602及び606に表示されたライブプレビュー630に対応するコンテンツ)(例えば、1つ以上のカメラの視野の主要又は中心部分の外側であり、かつ任意選択的に、1つ以上のカメラの視野の主要又は中心部分である1つ以上のカメラの異なるカメラによってキャプチャされる、1つ以上のカメラの視野の一部分)からの第2のコンテンツ(例えば、画像データ(例えば、コンピュータシステム上に記憶された画像データ))を含む、以前にキャプチャされたメディアアイテム(例えば、静止画像、ビデオ)の表現を表示する要求(例えば、3750j、3750n、3750v、3750w、3750x、3750y、3750z)(例えば、サムネイル画像の選択、画像キャプチャアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、アクティブ化されると、第1の領域に表示されたコンテンツの画像をキャプチャするシャッターアフォーダンス)の選択)を受信する(3802)。 An electronic device (e.g., 600) includes a display device. The electronic device is configured to display first content (e.g., image data (e.g., image data stored on a computer system)) from a first portion of the field of view of the one or more cameras (e.g., content corresponding to the live preview 630 displayed in area 604) (e.g., a major or central portion of the field of view of the one or more cameras, a majority of which is included in the representation of the field of view of the one or more cameras when displaying the media items) and a second portion of the field of view of the one or more cameras (e.g., content corresponding to the live preview 630 displayed in areas 602 and 606) (e.g., a major or central portion of the field of view of the one or more cameras, a majority of which is included in the representation of the field of view of the one or more cameras when displaying the media items). A request is received (e.g., 3750j, 3750n, 3750v, 3750w, 3750x, 3750y, 3750z) to display a representation of a previously captured media item (e.g., still image, video) including second content (e.g., image data (e.g., image data stored on a computer system)) from a portion of the field of view of one or more cameras captured by a different camera of the one or more cameras (e.g., selection of a thumbnail image, selection of an image capture affordance (e.g., a selectable user interface object) (e.g., a shutter affordance that, when activated, captures an image of the content displayed in the first region)) (3802).

以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応じて(3804)、かつ自動メディア補正基準が満たされているとの判定に従って(3806)、電子デバイスは、表示デバイスを介して、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現(例えば、3730d3)を表示する(3810)。いくつかの実施形態では、自動メディア補正基準は、メディアが特定の時間フレーム中にキャプチャされたときに満たされる1つ以上の基準を含み、メディアは、閲覧されず、メディアは、第2の表現を含み、メディアは、第2のコンテンツを使用して、補正され得る1つ以上の視覚アスペクト(例えば、ビデオ安定化、水平線補正、スキュー/歪み(例えば、水平、垂直)補正)を含む。いくつかの実施形態では、第1及び第2のコンテンツの組み合わせを含むメディアアイテムの表現は、メディアの表現の補正されたバージョン(例えば、安定化、水平補正、垂直視点補正、水平視点補正)である。いくつかの実施形態では、第1及び第2のコンテンツの組み合わせを含むメディアアイテムの表現は、第1のコンテンツの少なくとも一部の表現及びコンテンツの少なくとも一部の表現を表示することを含む。いくつかの実施形態では、第1のコンテンツ及び第2のコンテンツの組み合わせを含むメディアアイテムの表現は、第2のコンテンツ(又は第1のコンテンツ)の少なくともいくつかの表現を表示することを含まず、代わりに、第1のコンテンツ及びコンテンツの組み合わせを含むメディアアイテムの表現は、第2のコンテンツの少なくともいくつかを表示せずに、第2のコンテンツの少なくとも一部を使用して生成され得る。所定の条件が満たされているときに、調整されたキャプチャされたメディアの表現(例えば、第1及び第2のコンテンツを含む表現)を表示することにより、ユーザは、手動で調整されるべき画像の部分を調整する必要なく、調整されたメディアの表現を迅速に閲覧することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In response to receiving a request to display a representation of the previously captured media item (3804) and in accordance with a determination that the automatic media correction criteria are met (3806), the electronic device displays (3810) via the display device a representation of the previously captured media item (e.g., 3730d3) including a combination of the first content and the second content. In some embodiments, the automatic media correction criteria include one or more criteria that are met when the media was captured during a particular time frame, the media is not viewed, the media includes a second representation, and the media includes one or more visual aspects that may be corrected using the second content (e.g., video stabilization, horizon correction, skew/distortion (e.g., horizontal, vertical) correction). In some embodiments, the representation of the media item including the combination of the first and second content is a corrected version of the representation of the media (e.g., stabilized, horizontal correction, vertical perspective correction, horizontal perspective correction). In some embodiments, the representation of the media item including the combination of the first and second content includes displaying a representation of at least a portion of the first content and a representation of at least a portion of the content. In some embodiments, the representation of the media item including a combination of the first content and the second content does not include displaying a representation of at least some of the second content (or the first content); instead, the representation of the media item including the combination of the first content and the content may be generated using at least a portion of the second content without displaying at least some of the second content. By displaying a representation of the adjusted captured media (e.g., a representation including the first and second content) when a predetermined condition is met, a user can quickly view the representation of the adjusted media without having to manually adjust the portion of the image that should be adjusted. By performing an optimized action when a set of conditions is met without requiring further user input, the device can be more easily operated, the user-device interface can be more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and the device can be more quickly and efficiently used, thereby reducing power usage and improving the device's battery life.

以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応じて(3804)、かつ自動メディア補正基準が満たされていないとの判定に従って(3810)、電子デバイスは、表示デバイスを介して、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現(例えば、3730b1、3730c1)を表示する(3816)。いくつかの実施形態では、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現は、補正されていない(例えば、水平線を安定化させ、補正し、メディアの垂直又は水平視点を補正するために、第2のコンテンツを使用して補正された)表現である。所定の条件が満たされているときに、調整されなかったキャプチャされたメディアの表現(例えば、第1のコンテンツを含むが、第2のコンテンツを含まない表現)を表示することにより、ユーザは、メディアが自動的に調整された場合に行われる必要がある調整を手動で反転する必要なく、調整されなかったメディアの表現を迅速に閲覧することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In response to receiving a request to display a representation of a previously captured media item (3804) and in accordance with a determination that the automatic media correction criteria have not been met (3810), the electronic device displays (3816) via the display device a representation of the previously captured media item that includes the first content and does not include the second content (e.g., 3730b1, 3730c1). In some embodiments, the representation of the previously captured media item that includes the first content and does not include the second content is an uncorrected representation (e.g., corrected using the second content to stabilize and correct horizons and correct the vertical or horizontal perspective of the media). By displaying a representation of the unadjusted captured media (e.g., a representation that includes the first content but does not include the second content) when the predetermined conditions are met, a user may quickly view the unadjusted representation of the media without having to manually reverse the adjustments that would have to be made if the media had been automatically adjusted. By performing an optimized action when a set of conditions are met without requiring further user input, it improves usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves the battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信する前に、表示デバイスを介して、第1の領域(例えば、604)(例えば、カメラディスプレイ領域)を含むカメラユーザインタフェースを表示する。いくつかの実施形態では、第1の領域は、1つ以上のカメラの視野の第1の部分の表現を含む。いくつかの実施形態では、カメラユーザインタフェースは、第2の領域(例えば、602、606)(例えば、カメラコントロール領域)を含む。いくつかの実施形態では、第2の領域は、1つ以上のカメラの視野の第2の部分の表現を含む。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分の表現は、第1の部分の表現と視覚的に区別される(例えば、暗色外観を有する)(例えば、1つ以上のカメラの視野の第2の部分上に半透明オーバーレイを有する)。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分の表現は、1つ以上のカメラの視野の第1の部分の表現と比較して、暗色外観を有する。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分の表現は、カメラユーザインタフェース内のカメラディスプレイ領域の上方及び/又は下方に位置する。第1の領域とは視覚的に異なる第2の領域を表示することにより、メディアを表示するためにキャプチャ及び使用されるメインコンテンツ及びメディアを表示するためにキャプチャされ得る追加のコンテンツであるコンテンツについてのフィードをユーザに提供し、ユーザが、メディアをキャプチャするときに、異なる領域内/外に物を維持するために、メディアをフレーム化できるようにする。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, prior to receiving a request to display a representation of a previously captured media item, a camera user interface is displayed via a display device, the camera user interface including a first region (e.g., 604) (e.g., a camera display region). In some embodiments, the first region includes a representation of a first portion of a field of view of one or more cameras. In some embodiments, the camera user interface includes a second region (e.g., 602, 606) (e.g., a camera control region). In some embodiments, the second region includes a representation of a second portion of a field of view of one or more cameras. In some embodiments, the representation of the second portion of a field of view of one or more cameras is visually distinct (e.g., has a dark appearance) from the representation of the first portion (e.g., has a semi-transparent overlay over the second portion of a field of view of one or more cameras). In some embodiments, the representation of the second portion of a field of view of one or more cameras has a dark appearance compared to the representation of the first portion of a field of view of one or more cameras. In some embodiments, the representation of the second portion of a field of view of one or more cameras is located above and/or below the camera display region within the camera user interface. Displaying a second area that is visually distinct from the first area provides the user with a feed of content that is main content that is captured and used to display the media and additional content that may be captured to display the media, and allows the user to frame the media to keep things in/out of the different areas as they are captured. Providing improved visual feedback to the user improves usability of the device and makes the user-device interface more efficient (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、自動メディア補正基準が満たされているとの判定に従って(3806)、電子デバイスは、自動調整が以前にキャプチャされたメディアアイテムに適用されたことを示す第1の自動調整アフォーダンス(例えば、例えば、図37Mの1036b)(例えば、自動調整が以前にキャプチャされたメディアアイテムに適用されたことを示す、第1の状態(例えば、アクティブ状態(例えば、選択されているものとして示される(例えば、押圧される、太字として、暗色化されて、第1の色で、第1の文字又はマークとともに表示される)))で表示される、自動調整アフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト))を表示する(3814)。自動調整が適用されることを示す自動調整アフォーダンスを表示することにより、アフォーダンスの現在の状態についてのフィードバックをユーザに提供し、かつユーザがアイコンをアクティブ化すると表現に適用された調整を反転するための動作が実行されることを示す、視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, pursuant to a determination that the automatic media correction criteria are met (3806), the electronic device displays (3814) a first auto-adjustment affordance (e.g., 1036b of FIG. 37M) indicating that automatic adjustments have been applied to a previously captured media item (e.g., an auto-adjustment affordance (e.g., a selectable user interface object) displayed in a first state (e.g., an active state (e.g., indicated as selected (e.g., pressed, bold, darkened, in a first color, with a first letter or mark))) indicating that automatic adjustments have been applied to a previously captured media item). Displaying the auto-adjustment affordance indicating that automatic adjustments are applied provides feedback to the user about the current state of the affordance, and provides visual feedback to the user indicating that an action will be performed to reverse the adjustments applied to the representation when the user activates the icon. Providing improved visual feedback to the user improves usability of the device and makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、自動メディア補正基準が満たされていないとの判定に従って(3808)、電子デバイスは、第2の自動調整アフォーダンス(例えば、例えば図37Uの1036b)を表示する(3818)。いくつかの実施形態では、自動調整が以前にキャプチャされたメディアアイテムに適用されていないことを示す第2の自動調整アフォーダンス(例えば、自動調整が以前にキャプチャされたメディアアイテムに適用されていないことを示す、第2の状態(例えば、非アクティブ状態(例えば、未選択であるものとして示される(例えば、プレスされず、太字又は明るくなく、第2の文字又はマークとともに第2の色で表示される)))で表示される、自動調整アフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト))。いくつかの実施形態では、第2の自動調整アフォーダンスは、第1の自動調整アフォーダンスとは視覚的に異なる。いくつかの実施形態では、第2のコンテンツを使用して、メディアを補正することができるとの判定に従って、電子デバイスは、自動調整が以前にキャプチャされたメディアアイテムに適用されていないことを示す第3の自動調整アフォーダンスを表示し、自動調整が以前にキャプチャされたメディアアイテムに適用されていないことを示す、第2の自動調整アフォーダンス(例えば、自動調整が以前にキャプチャされたメディアアイテムに適用されていないことを示す、第2の状態(例えば、非アクティブ状態(例えば、未選択であるものとして示される(例えば、プレスされず、太字又は明るくなく、第2の文字又はマークとともに第2の色で表示される)))で表示される、自動調整アフォーダンス)を表示する。いくつかの実施形態では、第2の自動調整アフォーダンスは、第1の自動調整アフォーダンスとは視覚的に異なり、及び第2のコンテンツがメディアを補正するために使用されないとの判定に従って、電子デバイスは、第1の自動調整アフォーダンス及び第2の自動調整アフォーダンスを表示することをやめる。いくつかの実施形態では、メディア内の第2のコンテンツを使用して、補正され得る1つ以上の視覚アスペクト(例えば、ビデオ安定化、水平線補正、スキュー/歪み(例えば、水平、垂直)補正)の分析に基づいて、第2のコンテンツがメディアを補正するために使用され得るとの判定を行う。いくつかの実施形態では、分析は、信頼度確信スコアを計算し、信頼度確信スコアを閾値と比較することを含む。いくつかの実施形態では、信頼度確信スコアが閾値を上回る(又は等しい)場合、コンテンツがメディアを補正するために使用され得るとの判定を行う。自動調整が適用されないことを示す自動調整アフォーダンスを表示することにより、アフォーダンスの現在の状態についてのフィードバックをユーザに提供し、かつユーザがアイコンをアクティブ化すると表現への調整を実行するための動作が実行されることを示す、視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, pursuant to a determination that the automatic media correction criteria have not been met (3808), the electronic device displays (3818) a second auto-adjustment affordance (e.g., 1036b, e.g., of FIG. 37U). In some embodiments, the second auto-adjustment affordance indicates that the automatic adjustments have not been applied to the previously captured media item (e.g., an auto-adjustment affordance (e.g., a selectable user interface object) displayed in a second state (e.g., an inactive state (e.g., indicated as unselected (e.g., not pressed, not bold or bright, displayed in a second color with a second letter or mark))) indicating that the automatic adjustments have not been applied to the previously captured media item). In some embodiments, the second auto-adjustment affordance is visually distinct from the first auto-adjustment affordance. In some embodiments, pursuant to a determination that the second content may be used to correct the media, the electronic device displays a third auto-adjustment affordance indicating that the auto-adjustment has not been applied to the previously captured media item, and displays a second auto-adjustment affordance indicating that the auto-adjustment has not been applied to the previously captured media item (e.g., an auto-adjustment affordance displayed in a second state (e.g., an inactive state (e.g., indicated as unselected (e.g., not pressed, not bold or bright, displayed in a second color with a second letter or mark))) indicating that the auto-adjustment has not been applied to the previously captured media item). In some embodiments, the second auto-adjustment affordance is visually distinct from the first auto-adjustment affordance, and pursuant to a determination that the second content will not be used to correct the media, the electronic device ceases displaying the first auto-adjustment affordance and the second auto-adjustment affordance. In some embodiments, a determination is made that the second content may be used to correct the media based on an analysis of one or more visual aspects (e.g., video stabilization, horizon correction, skew/distortion (e.g., horizontal, vertical) correction) that may be corrected using the second content in the media. In some embodiments, the analysis includes calculating a confidence belief score and comparing the confidence belief score to a threshold. In some embodiments, a determination is made that the content may be used to correct the media if the confidence belief score is greater than (or equal to) the threshold. Displaying an auto-adjust affordance indicating that no auto-adjustment is applied provides the user with feedback on the current state of the affordance, and provides visual feedback to the user indicating that an action will be taken to perform an adjustment to the representation when the user activates the icon. Providing the user with improved visual feedback improves device usability and makes the user-device interface more efficient (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1の自動調整アフォーダンス(例えば、1036b)を表示し、かつ表示デバイスを介して、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現(例えば、3730d3)を表示している間に、電子デバイスは、第1の自動調整アフォーダンスの選択に対応する第1の入力(例えば、3750m)(例えば、タップ)を受信する。 In some embodiments, while displaying a first auto-adjusting affordance (e.g., 1036b) and displaying via the display device a representation (e.g., 3730d3) of a previously captured media item including a combination of the first content and the second content, the electronic device receives a first input (e.g., 3750m) (e.g., a tap) corresponding to a selection of the first auto-adjusting affordance.

いくつかの実施形態では、第1の自動調整アフォーダンスの選択に対応する第1の入力を受信したことに応じて、電子デバイスは、表示デバイスを介して、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現(例えば、3730c1)を表示する。いくつかの実施形態では、第1の自動調整アフォーダンスの選択に対応する第1の入力を受信したことに応じて、電子デバイスはまた、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現を表示することを停止する。いくつかの実施形態では、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現を表示することを、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現の表示に置き換える。自動調整が適用されないことを示す自動調整アフォーダンスの表示を更新することにより、動作の現在の状態についてのフィードバックをユーザに提供し、かつアフォーダンスの以前のアクティブ化に応じて、表現への調整を実行するための動作が実行されたことを示す、視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, in response to receiving a first input corresponding to a selection of the first auto-adjustment affordance, the electronic device displays, via the display device, a representation (e.g., 3730c1) of the previously captured media item including the first content and not including the second content. In some embodiments, in response to receiving a first input corresponding to a selection of the first auto-adjustment affordance, the electronic device also stops displaying the representation of the previously captured media item including the combination of the first content and the second content. In some embodiments, the display of the representation of the previously captured media item including the first content and not including the second content is replaced with a display of the representation of the previously captured media item including the combination of the first content and the second content. Updating the display of the auto-adjustment affordance to indicate that no auto-adjustment is applied provides feedback to the user about the current state of the operation, and provides visual feedback to the user indicating that an operation has been performed to perform an adjustment to the representation in response to a previous activation of the affordance. Providing improved visual feedback to the user improves usability of the device and makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第2の自動調整アフォーダンス(例えば、1036b)を表示し、かつ表示デバイスを介して、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現(例えば、3730c1)を表示している間に、電子デバイスは、第2の自動調整アフォーダンスの選択に対応する第2の入力(例えば、3750b)(例えば、タップ)を受信する。いくつかの実施形態では、第2の自動調整アフォーダンスの選択に対応する第2の入力を受信したことに応じて、電子デバイスは、表示デバイスを介して、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現(例えば、3730c2)を表示する。いくつかの実施形態では、第1の自動調整アフォーダンスの選択に対応する第1の入力を受信したことに応じて、電子デバイスはまた、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現を表示することを停止する。いくつかの実施形態では、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現を表示することを、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現の表示に置き換える。自動調整が適用されることを示す自動調整アフォーダンスの表示を更新することにより、動作の現在の状態についてのフィードバックをユーザに提供し、かつアフォーダンスの以前のアクティブ化に応じて、表現への調整を反転するための動作が実行されたことを示す、視覚的フィードバックをユーザに、更なるコントロールをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, while displaying the second auto-adjustment affordance (e.g., 1036b) and displaying via the display device a representation of a previously captured media item that includes the first content and does not include the second content (e.g., 3730c1), the electronic device receives a second input (e.g., 3750b) (e.g., a tap) corresponding to a selection of the second auto-adjustment affordance. In some embodiments, in response to receiving the second input corresponding to a selection of the second auto-adjustment affordance, the electronic device displays via the display device a representation of a previously captured media item that includes a combination of the first content and the second content (e.g., 3730c2). In some embodiments, in response to receiving the first input corresponding to a selection of the first auto-adjustment affordance, the electronic device also stops displaying the representation of the previously captured media item that includes the first content and does not include the second content. In some embodiments, the display of the representation of the previously captured media item that includes the combination of the first content and the second content is replaced with a display of a representation of a previously captured media item that includes the first content and does not include the second content. Updating the display of the auto-adjustment affordance to indicate that auto-adjustment is being applied provides the user with feedback about the current state of the action, and provides the user with visual feedback indicating that an action has been taken to reverse the adjustment to the representation in response to a previous activation of the affordance, providing the user with additional control. Providing the user with improved visual feedback improves usability of the device and provides a more efficient user-device interface (e.g., by assisting the user in providing appropriate inputs and reducing user errors when operating/interacting with the device), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、以前にキャプチャされたメディアアイテムは、画像(例えば、静止写真、アニメーション化された画像(例えば、複数の画像))である。いくつかの実施形態では、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現(例えば、3730d3)は、縁部部分(例えば、水平線(例えば、画像内の補正された(例えば、歪み矯正された)水平線)(例えば、スカイライン))を含む。いくつかの実施形態では、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現(例えば、3730d1)は、(例えば、図24A~図24Hに関連して上述したように、及び図25A~図25Bに関連して上述した方法2500で)縁部部分を更に含まない。いくつかの実施形態では、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現は、実視水平線を歪み矯正するために第1のコンテンツの表現を回転させること、及び表現の回転から残された空の空間を満たすために第2のコンテンツの一部分の表現に導入することによって、視認可能な第1の水平線が作成されることを含む。いくつかの実施形態では、電子デバイスは、図24A~図24Hに関連して上述したものと同様の技術及びフロー記述の図25A~図25Bに関連して上述した方法2500を使用して、画像の垂直遠近歪及び/又は水平遠近歪を補正する。 In some embodiments, the previously captured media item is an image (e.g., a still photograph, an animated image (e.g., multiple images)). In some embodiments, the representation (e.g., 3730d3) of the previously captured media item including the combination of the first content and the second content includes an edge portion (e.g., a horizon line (e.g., a rectified (e.g., dewarped) horizon line in the image (e.g., a skyline)). In some embodiments, the representation (e.g., 3730d1) of the previously captured media item including the first content and not the second content further does not include an edge portion (e.g., as described above in connection with FIGS. 24A-24H and in method 2500 described above in connection with FIGS. 25A-25B). In some embodiments, the representation of the previously captured media item including the combination of the first content and the second content includes a visible first horizon line being created by rotating the representation of the first content to dewarp the visible horizon and introducing into the representation a portion of the second content to fill the empty space left from the rotation of the representation. In some embodiments, the electronic device corrects vertical and/or horizontal perspective distortion of the image using techniques similar to those described above in connection with FIGS. 24A-24H and the method 2500 described above in connection with flow description FIGS. 25A-25B.

いくつかの実施形態では、以前にキャプチャされたメディアアイテムは、ビデオ(例えば、複数の画像)である。いくつかの実施形態では、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現(例えば、3730z1)は、第1の量の移動(例えば、ビデオの次にくるフレームの間の移動)(例えば、安定化されたビデオ)を含む。いくつかの実施形態では、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現は、第1の量の移動とは異なる第2の量の移動(例えば、ビデオの次にくるフレームの間の移動)(例えば、安定化されていないビデオ)を含む。いくつかの実施形態では、電子デバイスは、ビデオ内の移動量を低減するために、第2のコンテンツを使用する(例えば、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現内に示される)。いくつかの実施形態では、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現は、より安定なバージョンである(例えば、ビデオが第1のコンテンツよりもキャプチャされたメディアが再生され、第2の量の移動を含む第2のコンテンツを含まないときのフレーム間の(例えば、滑らかな)動き(例えば、ぼかし、振動)を低減するために、(例えば、ビデオの視覚的に表示されるフレームの外側(例えば、第2のコンテンツ)にあるコンテンツ(例えば、第1のコンテンツに対応するコンテンツ)を使用して)修正された元のビデオ(例えば、より不安定であるビデオ)の1つ以上の修正されたフレームを含むバージョン。いくつかの実施形態では、動きを低減するために、電子デバイスは、複数のビデオフレームの第1のコンテンツをシフトし、かつ各ビデオフレームについて、第1のコンテンツのシフトから得られた1つ以上のギャップを埋める(例えば、それぞれのビデオフレームの表現を表示するために、第2のコンテンツのうちのいくつかを第1のコンテンツに追加する)ために第2のコンテンツを使用する。 In some embodiments, the previously captured media item is a video (e.g., a plurality of images). In some embodiments, a representation of the previously captured media item (e.g., 3730z1) that includes a combination of the first content and the second content includes a first amount of movement (e.g., movement between subsequent frames of the video) (e.g., stabilized video). In some embodiments, a representation of the previously captured media item that includes the first content and does not include the second content includes a second amount of movement (e.g., movement between subsequent frames of the video) that is different from the first amount of movement (e.g., unstabilized video). In some embodiments, the electronic device uses the second content (e.g., shown in the representation of the previously captured media item that includes a combination of the first content and the second content) to reduce the amount of movement in the video. In some embodiments, the representation of the previously captured media item that includes a combination of the first content and the second content is a more stable version (e.g., a version that includes one or more modified frames of an original video (e.g., a less stable video) that has been modified (e.g., using content (e.g., content corresponding to the first content) that is outside the visually displayed frames (e.g., the second content) of the video) to reduce (e.g., smoother) motion (e.g., blur, shake) between frames when the captured media is played back and does not include the second content that includes a second amount of motion than the first content. In some embodiments, to reduce motion, the electronic device shifts the first content for a number of video frames and uses the second content to fill, for each video frame, one or more gaps resulting from the shifting of the first content (e.g., adding some of the second content to the first content to display a representation of the respective video frame).

いくつかの実施形態では、以前にキャプチャされたメディアアイテムは、(例えば、第2のコンテンツは、含む)識別可能な(例えば、識別された、視覚的に観察可能な/観察された、検出可能な/検出された)オブジェクト(例えば、ボール、人の顔)を含む。いくつかの実施形態では、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現(例えば、3730c2)は、識別可能なオブジェクトの一部分(例えば、第1のコンテンツによって表される識別可能な/識別されたオブジェクトの一部分)を含む。いくつかの実施形態では、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現(例えば、3730c1)は、識別可能なオブジェクトの一部分を含まない。いくつかの実施形態では、電子デバイスは、識別可能なオブジェクトが第2のコンテンツを含まない第1のコンテンツの表現内にカットオフされない(例えば、視覚オブジェクトの全部分が含まれる)ように、第2のコンテンツを使用して、第2のコンテンツを含まない第1のコンテンツの表現をリフレーム(例えば、オブジェクト(例えば、サブジェクト)をフレーム内に持ち込む))する。 In some embodiments, the previously captured media item (e.g., the second content includes) an identifiable (e.g., identified, visually observable/observed, detectable/detected) object (e.g., a ball, a person's face). In some embodiments, the representation of the previously captured media item (e.g., 3730c2) that includes a combination of the first content and the second content includes a portion of the identifiable object (e.g., a portion of the identifiable/identified object represented by the first content). In some embodiments, the representation of the previously captured media item (e.g., 3730c1) that includes the first content and does not include the second content does not include a portion of the identifiable object. In some embodiments, the electronic device uses the second content to reframe (e.g., bring the object (e.g., subject) into the frame) the representation of the first content that does not include the second content such that the identifiable object is not cut off (e.g., an entire portion of the visual object is included) in the representation of the first content that does not include the second content.

いくつかの実施形態では、自動メディア補正基準は、以前にキャプチャされたメディアアイテムが1つ以上のカメラの視野の第2の部分からの第2のコンテンツを使用して補正され得る1つ以上の視覚アスペクト(例えば、ビデオ安定化、水平線補正、スキュー/歪み補正)を含むと判定される(例えば、それぞれの信頼度確信閾値を上回る)ときに満たされる第2の基準を含む。いくつかの実施形態では、以前にキャプチャされたメディアアイテムのコンテンツを使用して判定される計算された信頼度確信値に基づいて、以前にキャプチャされたメディアアイテムが1つ以上の視覚特性を含むとの判定を行う。いくつかの実施形態では、計算された信頼度確信値が閾値を上回る(又は等しい)場合、判定が満たされる。いくつかの実施形態では、計算された信頼度確信値が閾値を下回る(又は等しい)場合、判定は満たされていない。 In some embodiments, the automatic media correction criteria include a second criterion that is met when the previously captured media item is determined (e.g., above a respective confidence confidence threshold) to include one or more visual aspects (e.g., video stabilization, horizon correction, skew/distortion correction) that can be corrected using second content from a second portion of the field of view of the one or more cameras. In some embodiments, the determination that the previously captured media item includes one or more visual characteristics is made based on a calculated confidence confidence value that is determined using the content of the previously captured media item. In some embodiments, the determination is met when the calculated confidence confidence value is above (or equal to) the threshold. In some embodiments, the determination is not met when the calculated confidence confidence value is below (or equal to) the threshold.

いくつかの実施形態では、自動メディア補正基準は、以前にキャプチャされたメディアアイテムが表示される(例えば、閲覧される)前に(又は写真ロールユーザインタフェース若しくは写真ライブラリを閲覧する要求、若しくは最近キャプチャされたメディアを閲覧する要求などの、表示する要求が電子デバイスによって受信される前に)第2の基準が満たされていたときに満たされる第3の基準を含む。 In some embodiments, the automatic media correction criteria include a third criterion that is met when the second criterion is met before the previously captured media item is displayed (e.g., viewed) (or before a request to display is received by the electronic device, such as a request to view a photo roll user interface or a photo library, or a request to view recently captured media).

いくつかの実施形態では、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応じて、かつ自動メディア補正基準が満たされているとの判定に従って、電子デバイスは、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現と同時に、選択されると、電子デバイスに第1の動作を実行させる、第3の自動調整アフォーダンス(例えば、1036b)を表示する。いくつかの実施形態では、第1の動作は、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現を、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現に置き換えることを含む。所定の条件が満たされているときに、自動調整が適用されることを示す自動調整アフォーダンスを表示することにより、アフォーダンスの現在の状態についてのフィードバックをユーザに提供し、かつユーザがアイコンをアクティブ化すると表現に適用された調整を反転するための動作が実行されることを示す、視覚的フィードバックをユーザに提供する。所定の条件が満たされるときに、改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, in response to receiving a request to display a representation of the previously captured media item and in accordance with a determination that the automatic media correction criteria are met, the electronic device displays a third auto-adjustment affordance (e.g., 1036b) that, when selected, causes the electronic device to perform a first operation, concurrently with the representation of the previously captured media item including the combination of the first content and the second content. In some embodiments, the first operation includes replacing the representation of the previously captured media item including the combination of the first content and the second content with a representation of the previously captured media item including the first content and not including the second content. Displaying the auto-adjustment affordance indicating that auto-adjustment is applied when the predetermined condition is met provides feedback to the user about the current state of the affordance, and provides visual feedback to the user indicating that an operation is performed to reverse the adjustment applied to the representation when the user activates the icon. Providing the user with improved visual feedback when certain conditions are met enhances usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、自動メディア補正基準は、自動適用設定(例えば、3702a1)が有効化されるときに満たされ、かつ自動適用設定が無効化されるときに満たされない基準を含む。いくつかの実施形態では、自動適用設定(例えば、3702a1)は、ユーザ構成可能設定である(例えば、電子デバイスは、ユーザ入力(例えば、設定ユーザインタフェースを介して提供された入力)に応じて、自動適用設定の状態を修正する)。 In some embodiments, the auto-apply setting (e.g., 3702a1) is enabled and the auto-apply setting (e.g., 3702a1) is a user-configurable setting (e.g., the electronic device modifies the state of the auto-apply setting in response to user input (e.g., input provided via a settings user interface)).

いくつかの実施形態では、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応じて、かつ自動メディア補正基準が満たされていないとの判定に従って、かつ第1の1組の基準(例えば、選択可能アフォーダンスが提示されるべきかどうかを管理する1組の基準)が満たされているとの判定に従って、電子デバイスは、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現と同時に、選択されると、電子デバイスに第2の動作を実行させる、第4の自動調整(例えば、補正)アフォーダンス(例えば、1036b)を表示する(例えば、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現を、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現に置き換える)。いくつかの実施形態では、第2のコンテンツが自動補正動作で使用するのに好適ではない(例えば、第1のコンテンツとともに表現内に自動表示するのに好適ではないと電子デバイスが判定する場合、第1の1組の基準は、満たされていない。所定の条件が満たされているときに、自動調整が適用されないことを示す自動調整アフォーダンスを表示することにより、アフォーダンスの現在の状態についてのフィードバックをユーザに提供し、かつユーザがアイコンをアクティブ化すると表現に適用された調整を反転するための動作が実行されることを示す、視覚的フィードバックをユーザに提供する。所定の条件が満たされるときに、改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, in response to receiving a request to display a representation of a previously captured media item, and in accordance with a determination that the automatic media correction criteria have not been met, and in accordance with a determination that the first set of criteria (e.g., a set of criteria governing whether a selectable affordance should be presented) is met, the electronic device displays, concurrently with the representation of the previously captured media item including the first content and not including the second content, a fourth automatic adjustment (e.g., correction) affordance (e.g., 1036b) that, when selected, causes the electronic device to perform a second action (e.g., replacing the representation of the previously captured media item including the first content and not including the second content with a representation of the previously captured media item that includes a combination of the first content and the second content). In some embodiments, if the electronic device determines that the second content is not suitable for use in an automatic correction operation (e.g., not suitable for automatic display in the representation with the first content), the first set of criteria is not met. When the predetermined condition is met, an auto-adjustment affordance is displayed indicating that no automatic adjustment is applied, providing the user with feedback about the current state of the affordance, and providing the user with visual feedback indicating that an operation will be performed to reverse the adjustment applied to the representation when the user activates an icon. Providing the user with improved visual feedback when the predetermined condition is met enhances the usability of the device and makes the user-device interface more efficient (e.g., by helping the user make appropriate inputs and reducing user errors when operating/interacting with the device), as well as reducing the device's power usage and improving battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応じて、かつ自動メディア補正基準が満たされていないとの判定に従って、かつ第1の1組の基準が満たされていないとの判定に従って、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現と同時に、非選択可能インジケータ(例えば、3734)(例えば、選択されると、電子デバイスに、動作を実行させない(例えば、任意の動作を実行させせない)インジケータ;非選択可能補正インジケータは、ユーザ入力に応答しないユーザインタフェースのグラフィカル要素である)を表示する。いくつかの実施形態では、第1の動作及び第2の動作は、同一の動作である。いくつかの実施形態では、第1の動作及び第2の動作は、異なる動作である。いくつかの実施形態では、第1の補正インジケータ及び第2の補正インジケータは、同一の視覚外観を有する。いくつかの実施形態では、第1の自動調整アフォーダンス及び第2の自動調整アフォーダンスは、異なる視覚外観を有する(例えば、第1の自動調整アフォーダンスは、太字外観を有し、かつ第2の自動調整アフォーダンスは、太字外観を有さない)。いくつかの実施形態では、非選択可能インジケータを表示することは、第2の自動調整アフォーダンスを表示することをやめることを含む(例えば、第2の自動調整アフォーダンスの表示及び非選択可能インジケータの表示は、互いに排他的である)。いくつかの実施形態では、第2の自動調整アフォーダンスは、表示されるとき、第1の位置に表示され、かつ非選択可能インジケータは、表示されるとき、第1の位置に表示される。追加のコンテンツがキャプチャされたことを示す非選択可能インジケータを表示することにより、追加のコンテンツがキャプチャされたが、ユーザは、インジケータの位置に対応する入力に応じて、画像を自動的に調整するためにコンテンツを使用することができないという視覚的フィードバックをユーザに提供する。所定の条件が満たされるときに、改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, in response to receiving a request to display a representation of the previously captured media item, and in accordance with a determination that the automatic media correction criteria have not been met, and in accordance with a determination that the first set of criteria have not been met, a non-selectable indicator (e.g., 3734) (e.g., an indicator that, when selected, causes the electronic device to perform no action (e.g., to perform no action); a non-selectable correction indicator is a graphical element of a user interface that is not responsive to user input) is displayed concurrently with the representation of the previously captured media item that includes the first content and does not include the second content. In some embodiments, the first action and the second action are the same action. In some embodiments, the first action and the second action are different actions. In some embodiments, the first correction indicator and the second correction indicator have the same visual appearance. In some embodiments, the first auto-adjust affordance and the second auto-adjust affordance have different visual appearances (e.g., the first auto-adjust affordance has a bold appearance and the second auto-adjust affordance does not have a bold appearance). In some embodiments, displaying the non-selectable indicator includes ceasing to display the second auto-adjusting affordance (e.g., displaying the second auto-adjusting affordance and displaying the non-selectable indicator are mutually exclusive). In some embodiments, the second auto-adjusting affordance is displayed in a first position when displayed, and the non-selectable indicator is displayed in a first position when displayed. Displaying the non-selectable indicator indicating that additional content has been captured provides visual feedback to the user that additional content has been captured, but the user cannot use the content to automatically adjust the image in response to an input corresponding to the position of the indicator. Providing the user with improved visual feedback when a predetermined condition is met enhances the usability of the device, makes the user-device interface more efficient (e.g., by helping the user make appropriate inputs and reducing user errors when operating/interacting with the device), and also reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応じて(3804)、かつコンテンツ処理基準が満たされているとの判定に従って(3808)、電子デバイスは、コンテンツ処理インジケータ(例えば、3732)(例えば、以前にキャプチャされたメディアアイテムが処理中であることを示すアニメーション化されたグラフィカルオブジェクト(例えば、回転アイコン又はアニメーション化されたプログレスバー))を表示する(3814)。いくつかの実施形態では、コンテンツ処理基準は、電子デバイスが以前にキャプチャされたメディアアイテム上の処理動作(例えば、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現を自動的に生成したか若しくはしなかったかどうかを判定する動作、又は第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャしたメディアアイテムの表現を生成するために、どのように第1のコンテンツと第2のコンテンツとを組み合わせるのかを判定する動作を完了していないときに満たされる。いくつかの実施形態では、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応じて(3804)、かつコンテンツ処理基準が満たされていないとの判定に従って(3808)、電子デバイスは、コンテンツ処理インジケータを表示することをやめる(3820)。いくつかの実施形態では、コンテンツ処理インジケータは、表示されるとき、第1の位置(例えば、第1の自動調整アフォーダンス、第2の自動調整アフォーダンス、及び非選択可能インジケータ、それらが表示されるときに表示される第1の位置)に表示される。所定の条件が満たされているときにのみ、進度インジケータを表示することにより、ユーザは、現在表示されている表現に対応するメディアアイテムが依然として処理中である追加のコンテンツを有するかどうかを迅速に認識することができ、表示される現在の表現が変化することができるという通知をユーザに提供する。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in response to receiving a request to display a representation of a previously captured media item (3804), and in accordance with a determination that the content processing criteria have been met (3808), the electronic device displays (3814) a content processing indicator (e.g., 3732) (e.g., an animated graphical object (e.g., a spinning icon or an animated progress bar) indicating that the previously captured media item is being processed). In some embodiments, the content processing criterion is satisfied when the electronic device has not completed a processing operation on the previously captured media item (e.g., an operation of determining whether or not a representation of the previously captured media item that includes a combination of the first content and the second content was automatically generated, or an operation of determining how to combine the first content and the second content to generate a representation of the previously captured media item that includes a combination of the first content and the second content). In some embodiments, in response to receiving 3804 a request to display a representation of the previously captured media item, and following a determination that the content processing criterion has not been satisfied 3808, the electronic device ceases displaying 3820 the content processing indicator. In some embodiments, the content processing indicator, when displayed, is displayed in a first position (e.g., a first The auto-adjusting affordance, the second auto-adjusting affordance, and the non-selectable indicator are displayed in the first position when they are displayed. By displaying the progress indicator only when a predetermined condition is met, the user can quickly recognize whether the media item corresponding to the currently displayed representation has additional content still being processed, and provides the user with a notification that the currently displayed representation may change. By performing an optimized action when a set of conditions is met without requiring further user input, the device's usability is improved, the user-device interface is made more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and in addition, the user can use the device more quickly and efficiently, thereby reducing power usage and improving the device's battery life.

いくつかの実施形態では、コンテンツ処理インジケータを表示している間に、かつコンテンツ処理基準がもはや満たされていない(例えば、コンテンツ処理が完了したため)との判定に従って、電子デバイスは、コンテンツ処理インジケータ(例えば、3732)を表示することを停止する。いくつかの実施形態では、コンテンツ処理インジケータは、第1の自動調整アフォーダンス(例えば、自動メディア補正基準が満たされている場合)、第2の自動調整アフォーダンス(例えば、自動補正基準が満たされておらず、かつ第1の1組の基準が満たされている場合)、又は非選択可能インジケータ(例えば、自動補正基準が満たされておらず、かつ第1の1組の基準が満たされていない場合)に置き換えられる。 In some embodiments, while displaying the content processing indicator, and pursuant to a determination that the content processing criteria are no longer met (e.g., because content processing is completed), the electronic device ceases displaying the content processing indicator (e.g., 3732). In some embodiments, the content processing indicator is replaced with a first auto-adjustment affordance (e.g., if the auto-correction criteria are met), a second auto-adjustment affordance (e.g., if the auto-correction criteria are not met and the first set of criteria are met), or a non-selectable indicator (e.g., if the auto-correction criteria are not met and the first set of criteria are not met).

いくつかの実施形態では、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現を表示している間に、かつコンテンツ処理インジケータを表示している間に、かつコンテンツ処理基準がもはや満たされていないとの判定に従って、電子デバイスは、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現(例えば、3730c1)を、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現(例えば、3730c3)に置き換える。所定の条件が満たされているときにのみ、表示表現を更新することにより、ユーザは、追加のユーザ入力を必要とすることなく調整された表現を迅速に認識することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, while displaying a representation of the previously captured media item including the first content and not including the second content and while displaying the content processing indicator, and pursuant to a determination that the content processing criteria are no longer satisfied, the electronic device replaces the representation of the previously captured media item including the first content and not including the second content (e.g., 3730c1) with a representation of the previously captured media item including a combination of the first content and the second content (e.g., 3730c3). By updating the display representation only when a predetermined condition is satisfied, a user can quickly recognize the adjusted representation without requiring additional user input. By performing an optimized operation when a set of conditions is satisfied without requiring further user input, the device can be more easily operated, the user-device interface can be more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and the device can be more quickly and efficiently used, thereby reducing power usage and improving the device's battery life.

いくつかの実施形態では、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現を表示している間に、かつコンテンツ処理インジケータを表示している間に、電子デバイスは、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの第2の表現(例えば、図37Kの3724)(例えば、縮小されたサイズ表現;以前にキャプチャされたメディアアイテムを含む1組の以前にキャプチャされたメディアアイテムの1組の縮小されたサイズ表現内の縮小されたサイズ表現;メディアアイテムを表示するサムネイル)を表示する。いくつかの実施形態では、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの第2の表現を表示している間に、かつコンテンツ処理基準がもはや満たされていないとの判定に従って、電子デバイスは、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの第2の表現を、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの第2の表現(例えば、図37Mの3724)(例えば、縮小されたサイズ表現;以前にキャプチャされたメディアアイテムを含む1組の以前にキャプチャされたメディアアイテムの1組の縮小されたサイズ表現内の縮小されたサイズ表現;メディアアイテムを表示するサムネイル)に置き換える。所定の条件が満たされているときにのみ、表示表現を更新することにより、ユーザは、追加のユーザ入力を必要とすることなく調整された表現を迅速に認識することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, while displaying a representation of a previously captured media item that includes the first content and does not include the second content and while displaying the content processing indicator, the electronic device displays a second representation (e.g., 3724 of FIG. 37K) of the previously captured media item that includes the first content and does not include the second content (e.g., a reduced size representation; a reduced size representation within a set of reduced size representations of a set of previously captured media items that includes the previously captured media item; a thumbnail representing the media item). In some embodiments, while displaying the second representation of the previously captured media item including the first content and not including the second content, and pursuant to a determination that the content processing criteria are no longer satisfied, the electronic device replaces the second representation of the previously captured media item including the first content and not including the second content with a second representation of the previously captured media item including a combination of the first content and the second content (e.g., 3724 of FIG. 37M) (e.g., a reduced size representation; a reduced size representation within a set of reduced size representations of a set of previously captured media items that includes the previously captured media item; a thumbnail displaying the media item). Updating the displayed representation only when a predetermined condition is satisfied allows a user to quickly recognize the adjusted representation without requiring additional user input. By performing an optimized action when a set of conditions are met without requiring further user input, it improves usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves the battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現を表示している間に、電子デバイスは、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現に遷移する、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現のアニメーション(例えば、図37K~図37Mの3730d1~3730d3の反転)を表示する(例えば、ズームイン若しくはアウト、平行移動、及び/又は第1のコンテンツと第2のコンテンツとを組み合わせた表現から第1のコンテンツの表現へと遷移するクロスフェードアニメーションを表示する)。いくつかの実施形態では、図37K~図37Mにおけるアニメーションを反転させることができる。 In some embodiments, while displaying a representation of a previously captured media item that includes a combination of the first content and the second content, the electronic device displays an animation (e.g., a reversal of 3730d1-3730d3 in FIGS. 37K-37M) of the representation of the previously captured media item that includes the combination of the first content and the second content transitioning to a representation of the previously captured media item that includes the first content and does not include the second content (e.g., zooming in or out, translating, and/or displaying a cross-fade animation that transitions from the representation of the combined first and second content to the representation of the first content). In some embodiments, the animation in FIGS. 37K-37M can be reversed.

いくつかの実施形態では、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現を表示している間に、電子デバイスは、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現に遷移する、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現のアニメーション(例えば、図37K~図37Mの3730d1~3730d3)を表示する(例えば、ズームイン若しくはアウト、平行移動、及び/又は第1のコンテンツの表現から第1のコンテンツ及び第2のコンテンツの組み合わせの表現へと遷移するクロスフェードアニメーションを表示する)。 In some embodiments, while displaying a representation of a previously captured media item that includes the first content and does not include the second content, the electronic device displays an animation (e.g., 3730d1-3730d3 in Figures 37K-37M) of the representation of the previously captured media item that includes the first content and does not include the second content transitioning to a representation of the previously captured media item that includes a combination of the first content and the second content (e.g., zooming in or out, translating, and/or displaying a cross-fade animation that transitions from the representation of the first content to a representation of the combination of the first content and the second content).

いくつかの実施形態では、電子デバイスは、1つ以上のカメラの視野の第1の部分(例えば、1つ以上のカメラの視野の主要又は中心部分であって、そのうちの大部分が、メディアアイテムを表示するときに1つ以上のカメラの視野の表現に含まれる)からの第3のコンテンツ(例えば、画像データ(例えば、コンピュータシステム上に記憶された画像データ))を含み、かつ1つ以上のカメラの視野の第2の部分(例えば、1つ以上のカメラの視野の主要又は中心部分の外側であり、かつ任意選択的に、1つ以上のカメラの視野の主要又は中心部分である1つ以上のカメラの異なるカメラによってキャプチャされる、1つ以上のカメラの視野の一部分)からの第4のコンテンツ(例えば、画像データ(例えば、コンピュータシステム上に記憶された画像データ;第2の部分からの任意のコンテンツを含まない)は含まない、メディアアイテム(例えば、静止画像、ビデオ)の表現(例えば、3730a)を表示する要求(例えば、3750v)(例えば、サムネイル画像の選択、画像キャプチャアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、アクティブ化されると、第1の領域に表示されたコンテンツの画像をキャプチャするシャッターアフォーダンス)の選択)を受信する。いくつかの実施形態では、1つ以上のカメラの視野の第1の部分からの第3のコンテンツを含み、かつ1つ以上のカメラの視野の第2の部分からの第4のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現(例えば、3730a)を表示する要求を受信したことに応じて、電子デバイスは、1つ以上のカメラの視野の第1の部分の外側の追加のメディアコンテンツが利用可能であるというインジケーション(例えば、1036b及び/又は3724)を表示することをやめる。いくつかの実施形態では、電子デバイスは、第1の自動調整アフォーダンス(例えば、1036b)を表示することをやめる。追加のコンテンツがメディアの表現を調整するのに利用可能でないというインジケーションを表示することをやめることにより、追加のコンテンツがキャプチャされなかったため、ユーザが追加のコンテンツでメディアの表現を調整することができないという視覚的フィードバックをユーザに提供する。所定の条件が満たされるときに、改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the electronic device includes third content (e.g., image data (e.g., image data stored on a computer system)) from a first portion of the field of view of the one or more cameras (e.g., a primary or central portion of the field of view of the one or more cameras, a majority of which is included in a representation of the field of view of the one or more cameras when displaying the media item), and a second portion of the field of view of the one or more cameras (e.g., a portion of the field of view of the one or more cameras that is outside of the primary or central portion of the field of view of the one or more cameras, and optionally captured by a different one of the one or more cameras that is the primary or central portion of the field of view of the one or more cameras). In some embodiments, a request (e.g., 3750v) to display a representation (e.g., 3730a) of a media item (e.g., still image, video) that does not include fourth content (e.g., image data (e.g., image data stored on a computer system; does not include any content from the second portion) from the first portion of the field of view of the one or more cameras (e.g., selection of a thumbnail image, selection of an image capture affordance (e.g., a selectable user interface object) (e.g., a shutter affordance that, when activated, captures an image of the content displayed in the first area)). In some embodiments, a request (e.g., 3750v) to display a representation (e.g., 3730a) of a media item (e.g., still image, video) that does not include fourth content (e.g., image data (e.g., image data stored on a computer system; does not include any content from the second portion) from the first portion of the field of view of the one or more cameras (e.g., selection of a thumbnail image, selection of an image capture affordance (e.g., a selectable user interface object) (e.g., a shutter affordance that, when activated, captures an image of the content displayed in the first area) from the first portion of the field of view of the one or more cameras). In response to receiving a request to display a representation of a previously captured media item (e.g., 3730a) that includes only the first portion of the field of view of the one or more cameras and does not include the fourth content from the second portion of the field of view of the one or more cameras, the electronic device ceases to display an indication that additional media content is available outside the first portion of the field of view of the one or more cameras (e.g., 1036b and/or 3724). In some embodiments, the electronic device ceases to display the first auto-adjust affordance (e.g., 1036b). Ceasing to display the indication that additional content is not available to adjust the representation of the media provides visual feedback to the user that the user is unable to adjust the representation of the media with the additional content because no additional content was captured. Providing the user with improved visual feedback when certain conditions are met enhances the usability of the device and makes the user-device interface more efficient (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), as well as conserves power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

方法3800に関して上述された処理(例えば、図38A~図38C)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2500、2700、2800、3000、3200、3400、3600、4000、及び4200は、方法3800を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法3200、任意選択的に、方法3800に関連して上述したように、メディア補正技術を採用する。簡潔にするために、これらの詳細は、以下で繰り返さない。 It should be noted that the details of the processes (e.g., FIGS. 38A-38C) described above with respect to method 3800 are also applicable in a similar manner to the methods described above. For example, methods 700, 900, 1100, 1300, 1500, 1700, 1900, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3400, 3600, 4000, and 4200 optionally include one or more of the characteristics of the various methods described above with reference to method 3800. For example, method 3200 optionally employs media compensation techniques as described above with respect to method 3800. For the sake of brevity, these details will not be repeated below.

図39A~図39Qは、いくつかの実施形態による、メディアをキャプチャしている間にガイダンスを提供するための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図40A~図40Bにおける処理を含む、以下で説明する処理を例示するために使用される。 FIGS. 39A-39Q show example user interfaces for providing guidance while capturing media, according to some embodiments. The user interfaces in these figures are used to illustrate the processes described below, including the processes in FIGS. 40A-40B.

図39A~図39Qでは、デバイス600は、低光環境で動作しており、図18A~図18K、図19A~図19B、図20A~図20C、図21A~図2C、図26~図26Q、図27A~図27C、及び図28A~図28Bに関連して上述したのと同様の技術を使用して、低光環境内でメディアをキャプチャするように構成されている。図39A~図39Q及び図40A~図40Bに関連して以下に記載される1つ以上の技術は、いくつかの実施例では、図18A~図18K、図19A~図19B、図20A~図20C、図21A~図2C、図26~図26Q、図27A~図27C、及び図28A~図28Bに記載されるように、1つ以上の技術と組み合わせる、置き換える、かつ/又はそれらを修正することができる。例えば、図39A~図39Q及び図40A~図40Bを以下で説明する1つの理由は、低光環境内でメディアをキャプチャしている間に、視覚ガイダンスを提供する別の実施例を提供することであり、これは、低光環境内でメディアをキャプチャすることに関して図18A~図18K、図19A~図19B、図20A~図20C、図21A~図2C、図26~図26Q、図27A~図27C、及び図28A~図28Bで上記教示された他の技術に追加することができる。いくつかの実施形態では、図39A~図39Qに関連して以下に記載される技術は、デバイス600が低光環境で動作しておらず、かつ低光環境内でメディアをキャプチャするように構成されていない(かつ/又は低光モードで動作していない)が、閾値時間量よりも長いそれぞれの時間量にわたってキャプチャされた画像データが単一の静止画像に組み合わされ、したがって、それぞれの時間量にわたってキャプチャされた画像データから高品質画像を生成するために経時的なFOVの安定性が必要とされるモード(例えば、時間経過モード、アニメーション化された画像キャプチャモード)で動作している場合に行われる。 In Figures 39A-39Q, the device 600 is operating in a low light environment and is configured to capture media in a low light environment using techniques similar to those described above in connection with Figures 18A-18K, 19A-19B, 20A-20C, 21A-2C, 26-26Q, 27A-27C, and 28A-28B. One or more of the techniques described below in connection with Figures 39A-39Q and 40A-40B may, in some embodiments, be combined with, replaced by, and/or modified from one or more of the techniques described in Figures 18A-18K, 19A-19B, 20A-20C, 21A-2C, 26-26Q, 27A-27C, and 28A-28B. For example, one reason Figures 39A-39Q and 40A-40B are described below is to provide another embodiment for providing visual guidance while capturing media in a low light environment, which can be added to the other techniques taught above in Figures 18A-18K, 19A-19B, 20A-20C, 21A-2C, 26-26Q, 27A-27C, and 28A-28B for capturing media in low light environments. In some embodiments, the techniques described below in connection with FIGS. 39A-39Q are performed when device 600 is not operating in a low light environment and is not configured to capture media in a low light environment (and/or is not operating in a low light mode), but is operating in a mode in which image data captured over respective amounts of time greater than a threshold amount of time is combined into a single still image, and thus stability of the FOV over time is required to generate a high quality image from the image data captured over the respective amounts of time (e.g., a time lapse mode, an animated image capture mode).

理解を向上させるために、図39A~図39Qは、(図26K~図26Qに関連して上述したグラフ的な説明図2668と同様に)デバイス600の現在のポーズ2668cがデバイス600の元のポーズ2668bに対してどのように変化するかに関する詳細を提供するグラフ的な説明図2668を含む。図39Aでは、デバイス600の現在のポーズがデバイス600の元のポーズと一致するため、元のポーズ266bのみがグラフ的な説明図2668の一部として示されている。 To improve understanding, FIGS. 39A-39Q include a graphical illustration 2668 (similar to the graphical illustration 2668 described above in connection with FIGS. 26K-26Q) that provides details regarding how the current pose 2668c of the device 600 changes relative to the original pose 2668b of the device 600. In FIG. 39A, only the original pose 2668b is shown as part of the graphical illustration 2668 because the current pose of the device 600 matches the original pose of the device 600.

図39Aは、デバイス600のディスプレイの上部から底部まで延びるライブプレビュー630を含むカメラユーザインタフェースを表示する電子デバイス600を示す。ライブプレビュー630は、1つ以上のカメラセンサ(例えば、及び/又はカメラ)によって検出された画像に基づき、FOVの表現である。図39Aでは、デバイス600は、視覚的に暗い環境に立っているFOV内の人によって示されるように、低光環境で動作している。 FIG. 39A shows an electronic device 600 displaying a camera user interface including a live preview 630 that extends from the top to the bottom of the display of the device 600. The live preview 630 is a representation of the FOV based on images detected by one or more camera sensors (e.g., and/or cameras). In FIG. 39A, the device 600 is operating in a low light environment, as indicated by a person within the FOV standing in a visually dark environment.

いくつかの実施形態では、ライブプレビュー630は、デバイス600のディスプレイの上部及び/又は底部まで延びない、スクリーンの一部分のみである。いくつかの実施形態では、デバイス600は、複数のカメラセンサを使用して画像をキャプチャし、それらを組み合わせてライブプレビュー630(例えば、ライブプレビュー630の異なる部分)を表示する。いくつかの実施形態では、デバイス600は、単一のカメラセンサを使用して画像をキャプチャして、ライブプレビュー630を表示する。 In some embodiments, the live preview 630 is only a portion of the screen that does not extend to the top and/or bottom of the display of the device 600. In some embodiments, the device 600 captures images using multiple camera sensors and combines them to display the live preview 630 (e.g., different portions of the live preview 630). In some embodiments, the device 600 captures images using a single camera sensor and displays the live preview 630.

図39Aに示すように、カメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含む。インジケータ領域602及びコントロール領域606は、インジケータ及びコントロールがライブプレビュー630と同時に表示されることができるように、ライブプレビュー630上に重ね合わされる。カメラディスプレイ領域604は、インジケータ領域602とコントロール領域606との間に位置し、インジケータ又はコントロールと実質的に重ね合わされない。 As shown in FIG. 39A, the camera user interface includes an indicator area 602 and a control area 606. The indicator area 602 and the control area 606 are overlaid on the live preview 630 such that the indicators and controls can be displayed simultaneously with the live preview 630. The camera display area 604 is located between the indicator area 602 and the control area 606 and is not substantially overlaid with the indicators or controls.

図39Aに示すように、カメラディスプレイ領域604は、ライブプレビュー630及びズームアフォーダンス2622を含む。ズームアフォーダンス2622は、0.5×ズームアフォーダンス2622a、1×ズームアフォーダンス2622b、及び2×ズームアフォーダンス2622cを含む。図39Aでは、1×ズームアフォーダンス2622bが選択され、これは、デバイス600が1×ズームレベルでライブプレビュー630を表示していることを示す。 As shown in FIG. 39A, the camera display area 604 includes a live preview 630 and a zoom affordance 2622. The zoom affordance 2622 includes a 0.5× zoom affordance 2622a, a 1× zoom affordance 2622b, and a 2× zoom affordance 2622c. In FIG. 39A, the 1× zoom affordance 2622b is selected, indicating that the device 600 is displaying the live preview 630 at a 1× zoom level.

図39Aに示すように、インジケータ領域602は、ライブプレビュー630上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。インジケータ領域602は、フラッシュ状態インジケータ602aを含む。図39Aでは、フラッシュ状態インジケーション602aは、フラッシュモードが非アクティブであることを示す。フラッシュモードは、デバイス600がメディアをキャプチャしているときのデバイス600のフラッシュ動作を制御する As shown in FIG. 39A, indicator area 602 is superimposed on live preview 630 and optionally includes a colored (e.g., gray, semi-transparent) overlay. Indicator area 602 includes a flash status indicator 602a. In FIG. 39A, flash status indication 602a indicates that flash mode is inactive. Flash mode controls the flash behavior of device 600 when device 600 is capturing media.

加えて、インジケータ領域602は、フラッシュ状態インジケータ602aに隣接して位置する低光モード状態インジケータ602cを含む。図39Aでは、低光モード状態インジケータ602cは、図26H~図26Iに関連して上述したものと同様の技術を使用して表示される。図39Aに示すように、低光モード状態インジケータ602cは、低光モードの状態がアクティブであり、かつ5秒のキャプチャ持続時間(例えば、低光モード状態インジケータ602c内に表示された「5秒」)を使用してメディアをキャプチャするようにデバイス600が構成されていることを示す。ここで、(例えば、図26H~図26Iに関連して)上述したように、デバイス600が極副標準低光環境(例えば、現在の光レベル2680dによって示される0.5ルクス)で動作しているため、現在のキャプチャ持続時間は、5秒である。 Additionally, indicator region 602 includes a low light mode status indicator 602c located adjacent to flash status indicator 602a. In FIG. 39A, low light mode status indicator 602c is displayed using a technique similar to that described above in connection with FIGS. 26H-26I. As shown in FIG. 39A, low light mode status indicator 602c indicates that a low light mode state is active and that device 600 is configured to capture media using a 5 second capture duration (e.g., "5 seconds" displayed within low light mode status indicator 602c). Here, as described above (e.g., in connection with FIGS. 26H-26I), the current capture duration is 5 seconds because device 600 is operating in a substandard low light environment (e.g., 0.5 lux as indicated by current light level 2680d).

図39Aに示すように、コントロール領域606は、ライブプレビュー630上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。コントロール領域606は、メディアコレクション624、シャッターアフォーダンス610、カメラスイッチャアフォーダンス612、及び調整可能な低光モードコントロール1804などの複数のコントロールを含む。調整可能な低光モードコントロール1804は、(例えば、図26H~図26Iに関連して)上述したものと同様の技術を使用して、インジケーション1818を介して5秒のキャプチャ持続時間に設定される。ここで、5秒のキャプチャ持続時間は、デフォルト状態(例えば、2604b)に対応し、また、図26H~図26Iに関連して同様に説明したように、低光モード状態インジケータ602c内に表示された現在のキャプチャ持続時間と一致する。図39Aでは、デバイス600は、シャッターアフォーダンス610に対応する位置でのタップジェスチャ3950aを検出する。 As shown in FIG. 39A, the control area 606 is superimposed on the live preview 630 and optionally includes a colored (e.g., gray, semi-transparent) overlay. The control area 606 includes multiple controls, such as a media collection 624, a shutter affordance 610, a camera switcher affordance 612, and an adjustable low light mode control 1804. The adjustable low light mode control 1804 is set to a 5 second capture duration via an indication 1818 using techniques similar to those described above (e.g., in connection with FIGS. 26H-I). Here, the 5 second capture duration corresponds to a default state (e.g., 2604b) and matches the current capture duration displayed in the low light mode status indicator 602c, as also described in connection with FIGS. 26H-I. In FIG. 39A, the device 600 detects a tap gesture 3950a at a location corresponding to the shutter affordance 610.

図39Bに示すように、タップジェスチャ3950aを検出したことに応じて、デバイス600は、シャッターアフォーダンス610を暗くし、メディアのキャプチャを開始する。図39Bでは、デバイス600がメディアのキャプチャを開始すると、デバイス600は、図18A~図18K、図19A~図19B、図20A~図20C、図21A~図2C、図26~図26Q、図27A~図27C、及び図28A~図28Bに関連して説明した技術と同様の技術を使用して、5秒のキャプチャ持続時間にわたる複数の写真のキャプチャを開始する。更に、タップジェスチャ3950aを検出したことに応じて、デバイス600はまた、ゼロのキャプチャ持続時間に向かうインジケーション1818の移動(例えば、5秒から0秒までのカウントダウン)を開始し、コントロール領域606内の他のコントロール(例えば、メディアコレクション624及びカメラスイッチャアフォーダンス612)を表示することを停止する。 39B, in response to detecting the tap gesture 3950a, the device 600 darkens the shutter affordance 610 and begins capturing media. In FIG. 39B, once the device 600 begins capturing media, the device 600 begins capturing multiple photos over a 5 second capture duration using techniques similar to those described in connection with FIGS. 18A-18K, 19A-19B, 20A-20C, 21A-2C, 26-26Q, 27A-27C, and 28A-28B. Additionally, in response to detecting the tap gesture 3950a, the device 600 also begins moving the indication 1818 toward a zero capture duration (e.g., counting down from 5 seconds to 0 seconds) and stops displaying other controls in the control area 606 (e.g., the media collection 624 and the camera switcher affordance 612).

いくつかの実施形態では、シャッターアフォーダンス610を暗くする代わりに、デバイス600は、シャッターアフォーダンス610を停止アフォーダンス1806に置き換える。いくつかの実施形態では、調整可能な低光モードコントロール1804はまた、タップジェスチャ3950aを検出したことに応じて、色を変更する(例えば、白色から黄色に)。 In some embodiments, instead of dimming the shutter affordance 610, the device 600 replaces the shutter affordance 610 with a stop affordance 1806. In some embodiments, the adjustable low light mode control 1804 also changes color (e.g., from white to yellow) in response to detecting the tap gesture 3950a.

図39Cに示すように、デバイス600は、5秒のキャプチャ持続時間から4.5秒のキャプチャ持続時間にインジケーション1818を動かした。したがって、図39Cに示すデバイス600と図39Bに示すデバイス600との間で、約0.5秒が経過している。4.5秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、デバイス600は、そのポーズの変化を検出する。グラフ的な説明図2668に示すように、図39Cでは、現在のポーズ2668cは、元のポーズ2668bの左下にある。上述のように、現在のポーズ2668cは、デバイス600の現在のポーズ(例えば、図39Cのデバイス600の現在のポーズ)に対応し、元のポーズ2668bは、タップジェスチャ3950aを検出したことに応じてメディアのキャプチャが開始されたときのデバイス600のポーズに対応する。したがって、図39Cに示すように、デバイス600は、タップジェスチャ3950aを検出したことに応じてメディアのキャプチャが開始されたときのその元のポーズ(元のポーズ)から左下に平行移動されている。換言すれば、ユーザは、デバイス600を動かした。 As shown in FIG. 39C, the device 600 has moved the indication 1818 from a capture duration of 5 seconds to a capture duration of 4.5 seconds. Thus, approximately 0.5 seconds has elapsed between the device 600 shown in FIG. 39C and the device 600 shown in FIG. 39B. At some point while displaying the indication 1818 at the 4.5 second capture duration, the device 600 detects a change in its pose. As shown in the graphical illustration 2668, in FIG. 39C, the current pose 2668c is to the lower left of the original pose 2668b. As described above, the current pose 2668c corresponds to the current pose of the device 600 (e.g., the current pose of the device 600 in FIG. 39C), and the original pose 2668b corresponds to the pose of the device 600 when the capture of the media was initiated in response to detecting the tap gesture 3950a. Thus, as shown in FIG. 39C, device 600 has been translated down and to the left from its original pose (original pose) when media capture was initiated in response to detecting tap gesture 3950a. In other words, the user has moved device 600.

図39Cに示すように、デバイス600の現在のポーズが元のポーズの左下に平行移動されているため、ライブプレビュー630は、デバイス600の現在のFOVを表示するように更新されている。図39Cに示すように、ライブプレビュー630は、図39Bのライブプレビュー630を介して人が表示されていた位置の右上に表示された人を示すように更新されている。図39Cでは、デバイス600が下向き/左向きに平行移動されたとき、そのFOVは、下向き/左向きに平行移動されている。デバイス600のFOVが下向き/左向きに平行移動されると、FOV内のシーン(例えば、立っている人)は、反対方向(例えば、上向き/右向き)に平行移動されるように見える。更には、以前に表示されたFOVの一部分(例えば、図39Bのライブプレビュー630の最上端/最右端部分)は、1つ以上のカメラのFOV内に留まらないため、ライブプレビュー630に表示されることを停止する。デバイス600は、そのポーズの変化を検出したことに応じて、デバイス600の現在のポーズとデバイス600の元のポーズとの間の平行移動差が閾値差の量未満であるため、視覚ガイダンスを表示しない。換言すれば、デバイスが動いたが、デバイスは、視覚ガイダンスを表示することが行われる閾値量よりも大きく動いていない。 As shown in FIG. 39C, the live preview 630 is updated to show the current FOV of the device 600 as the current pose of the device 600 has been translated to the bottom left of the original pose. As shown in FIG. 39C, the live preview 630 is updated to show the person displayed to the top right of where the person was displayed via the live preview 630 of FIG. 39B. In FIG. 39C, when the device 600 is translated downward/left, its FOV is translated downward/left. As the FOV of the device 600 is translated downward/left, the scene within the FOV (e.g., the person standing) appears to be translated in the opposite direction (e.g., upward/right). Furthermore, a portion of the FOV previously displayed (e.g., the top/rightmost portion of the live preview 630 of FIG. 39B) ceases to be displayed in the live preview 630 because it does not remain within the FOV of one or more cameras. In response to detecting a change in its pose, the device 600 does not display visual guidance because the translation difference between the current pose of the device 600 and the original pose of the device 600 is less than the threshold difference amount. In other words, the device has moved, but the device has not moved more than the threshold amount that would cause visual guidance to be displayed.

図39Dに示すように、デバイス600は、4.5秒のキャプチャ持続時間から4秒のキャプチャ持続時間にインジケーション1818を動かした。グラフ的な説明図2668によって示されるように、現在のポーズ2668cは、図39Cのものよりも多く元のポーズ2668bの左下に更にシフトされる。更には、デバイス600の現在のポーズが変化しているため、ライブプレビュー630は、(図39Cに関して上述したのと同様の理由で)図39Cのライブプレビュー630を介して人が表示されていた位置の更に右上に表示された人を示すように更新されている。 As shown in FIG. 39D, the device 600 has moved the indication 1818 from a capture duration of 4.5 seconds to a capture duration of 4 seconds. As shown by the graphical illustration 2668, the current pose 2668c is shifted further down and to the left of the original pose 2668b than in FIG. 39C. Furthermore, because the current pose of the device 600 has changed, the live preview 630 has been updated to show the person displayed further up and to the right of where the person was displayed via the live preview 630 of FIG. 39C (for reasons similar to those discussed above with respect to FIG. 39C).

4秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、デバイス600は、そのポーズの変化を検出する。図39Dに示すように、そのポーズの変化を検出したことに応じて、デバイス600は、デバイス600の現在のポーズとデバイス600の元のポーズとの間の平行移動差が閾値差の量を上回るため、視覚ガイダンスを表示する。例えば、閾値差は、値(例えば、閾値(例えば、1、10、100センチメートル)又はパーセンテージ差(例えば、15%、20%、30%))を含むことができる。ここで、視覚ガイダンスは、元のポーズインジケーション3970b(例えば、白色十字線)及び現在のポーズインジケーション3970c(例えば、黒色十字線)を含む。いくつかの実施形態では、元のポーズインジケーション3970b及び現在のポーズインジケーション3970c(例えば、視覚ガイダンスの一部分)を表示することによって、デバイス600は、デバイス600の現在のポーズ(例えば、現在のポーズ2668cを介して示される)とデバイス600の元のポーズ(元のポーズ2668bを介して示される)との間の差のインジケーションを含む視覚ガイダンス(例えば、視覚インジケーション)を表示する。 At some point while displaying the indication 1818 at the 4 second capture duration, the device 600 detects a change in its pose. As shown in FIG. 39D, in response to detecting the change in its pose, the device 600 displays visual guidance because the translation difference between the current pose of the device 600 and the original pose of the device 600 exceeds a threshold difference amount. For example, the threshold difference can include a value (e.g., a threshold (e.g., 1, 10, 100 centimeters) or a percentage difference (e.g., 15%, 20%, 30%)). Here, the visual guidance includes an original pose indication 3970b (e.g., a white crosshair) and a current pose indication 3970c (e.g., a black crosshair). In some embodiments, by displaying an original pose indication 3970b and a current pose indication 3970c (e.g., a portion of the visual guidance), the device 600 displays visual guidance (e.g., a visual indication) that includes an indication of the difference between the current pose of the device 600 (e.g., as indicated via current pose 2668c) and the original pose of the device 600 (as indicated via original pose 2668b).

図39Dに示すように、デバイス600の現在のポーズとデバイス600の元のポーズとの間の平行移動差が閾値差を上回るため、デバイス600は、視覚ガイダンスを表示した。図39Dに示すように、元のポーズインジケーション3970bは、白色十字線であり、現在のポーズインジケーション3970cは、黒色十字線である。しかしながら、いくつかの実施形態では、元のポーズインジケーション3970b及び現在のポーズインジケーション3970cは、異なる色及び/又は形状によって表すことができる。いくつかの実施形態では、これらの異なる色又は形状は、例えば、FOV内のシーンに基づいて、動的に変化する。 As shown in FIG. 39D, the device 600 displayed visual guidance because the translation difference between the current pose of the device 600 and the original pose of the device 600 exceeds a threshold difference. As shown in FIG. 39D, the original pose indication 3970b is a white crosshair and the current pose indication 3970c is a black crosshair. However, in some embodiments, the original pose indication 3970b and the current pose indication 3970c may be represented by different colors and/or shapes. In some embodiments, these different colors or shapes change dynamically, for example, based on the scene within the FOV.

いくつかの実施形態では、平行移動差が閾値差を上回らなかった場合でも、デバイス600は、デバイス600の現在のポーズとデバイス600の元のポーズとの間の差の視覚ガイダンスを表示することができる。例えば、図39G及び図39Fに関して説明するように、デバイス600は、デバイス600の現在のポーズとデバイス600の元のポーズとの間のデバイス600の回転差又は傾斜の差が1つ以上の閾値差を上回るかどうかに基づいて、視覚ガイダンスを表示することができる。したがって、いくつかの実施形態では、デバイス600は、デバイス600の現在のポーズとデバイス600の元のポーズとの間の複数の差のうちの少なくとも1つの差が1つ以上の閾値差を上回る場合、視覚ガイダンスを表示することができる。いくつかの実施形態では、デバイス600は、デバイス600の現在のポーズとデバイス600の元のポーズとの間の1つ以上の差(例えば、平行移動、回転、傾斜)の組み合わせ(例えば、アルゴリズムによって判定される)が閾値差を上回るとき、視覚ガイダンスを表示することができる。 In some embodiments, even if the translation difference does not exceed the threshold difference, the device 600 may display visual guidance of the difference between the current pose of the device 600 and the original pose of the device 600. For example, as described with respect to FIG. 39G and FIG. 39F, the device 600 may display visual guidance based on whether the rotation difference or tilt difference of the device 600 between the current pose of the device 600 and the original pose of the device 600 exceeds one or more threshold differences. Thus, in some embodiments, the device 600 may display visual guidance when at least one difference of a plurality of differences between the current pose of the device 600 and the original pose of the device 600 exceeds one or more threshold differences. In some embodiments, the device 600 may display visual guidance when a combination (e.g., as determined by an algorithm) of one or more differences (e.g., translation, rotation, tilt) between the current pose of the device 600 and the original pose of the device 600 exceeds a threshold difference.

他方では、いくつかの実施形態では、デバイス600の現在のポーズとデバイス600の元のポーズとの間の差(単数又は複数)が閾値差を上回らない場合、デバイス600は、視覚ガイダンスを表示しない(又は視覚ガイダンスを表示することを停止する)。例えば、図39Cに示すように、そのポーズの変化を検出したことに応じて、デバイス600は、図39Cのデバイス600の現在のポーズとデバイス600の元のポーズとの間の差(単数又は複数)(例えば、図39Cの平行移動差)が閾値差を上回らなかったため、視覚ガイダンスを表示しなかった。しかしながら、いくつかの実施形態では、図39Cのデバイス600の現在のポーズと元のポーズとの間の1つ以上の差が図26Kに関連して上述したものなどの閾値差を上回るかどうかにかかわらず、デバイス600は、低光環境でメディアをキャプチャするときに視覚ガイダンスを表示する。 On the other hand, in some embodiments, device 600 does not display visual guidance (or stops displaying visual guidance) if the difference(s) between the current pose of device 600 and the original pose of device 600 does not exceed a threshold difference. For example, as shown in FIG. 39C, in response to detecting a change in its pose, device 600 did not display visual guidance because the difference(s) between the current pose of device 600 in FIG. 39C and the original pose of device 600 (e.g., the translation difference in FIG. 39C) did not exceed a threshold difference. However, in some embodiments, device 600 displays visual guidance when capturing media in a low light environment, regardless of whether one or more differences between the current pose of device 600 in FIG. 39C and the original pose of device 600 exceed a threshold difference, such as those described above in connection with FIG. 26K.

いくつかの実施形態では、メディアのキャプチャ全体の間に閾値差を上回るデバイス600の現在のポーズとデバイス600の元のポーズとの間の差が検出されなかった場合、デバイス600は、メディアのキャプチャ全体の間に視覚ガイダンスを表示しない。 In some embodiments, if no difference between the current pose of device 600 and the original pose of device 600 is detected during the entire capture of the media that exceeds a threshold difference, device 600 does not display visual guidance during the entire capture of the media.

いくつかの実施形態では、デバイス600の現在のポーズとデバイス600の元のポーズとの間の差が第1の閾値差よりも大きい第2の閾値差(例えば、元のポーズ位置からの2、3、又は5度の移動)を上回る(デバイス600が過度に動いた)とき、デバイス600は、図18Sに関連して上述したような1つ以上の同様の技術を使用して、任意のキャプチャ持続時間が残っているかどうかにかかわらず、メディアをキャプチャすることを停止し(例えば、デバイス600は、図39Dでメディアをキャプチャすることを停止することができる)、任意選択的に、視覚ガイダンスを表示することを停止する。いくつかの実施形態では、デバイス600がメディアをキャプチャすることを停止すると、デバイス600は、デバイス600がキャプチャ持続時間全体にわたってメディアをキャプチャすることを停止する前にキャプチャされたメディアの一部分を表すメディア(未完了メディア)を保存する(例えば、今後の表示又は使用のために保存する)。いくつかの実施形態では、図18R~図18Sに関連して上述したように、未完了メディアは、キャプチャ持続時間全体にわたってキャプチャされたであろうメディア、又はキャプチャが停止しなかった場合にキャプチャされたであろうメディアよりも、視覚的に暗い。いくつかの実施形態では、デバイス600がメディアをキャプチャすることを停止すると、図18Sに関連して上述したように、デバイス600は、未完了メディアを破棄する。 In some embodiments, when the difference between the current pose of the device 600 and the original pose of the device 600 exceeds a second threshold difference (e.g., a movement of 2, 3, or 5 degrees from the original pose position) that is greater than the first threshold difference (the device 600 has moved too much), the device 600 stops capturing media (e.g., the device 600 can stop capturing media in FIG. 39D) regardless of whether any capture duration remains, using one or more similar techniques as described above in connection with FIG. 18S, and optionally stops displaying visual guidance. In some embodiments, when the device 600 stops capturing media, the device 600 saves (e.g., saves for future display or use) media that represents a portion of the media that was captured before the device 600 stopped capturing media for the entire capture duration. In some embodiments, as described above in connection with FIG. 18R-18S, the uncompleted media is visually darker than the media that would have been captured for the entire capture duration or the media that would have been captured if the capture had not stopped. In some embodiments, when device 600 stops capturing media, device 600 discards the incomplete media, as described above in connection with FIG. 18S.

図39Eに示すように、デバイス600は、4秒のキャプチャ持続時間から3.5秒のキャプチャ持続時間にインジケーション1818を動かした。グラフ的な説明図2668によって示されるように、現在のポーズ2668cは、図39Dのものよりも元のポーズ2668bの左下に更にシフトされる。更には、デバイス600の現在のポーズが変化しているため、ライブプレビュー630は、(図39Cに関して上述したのと同様の理由で)図39Dのライブプレビュー630を介して人が表示されていた位置の更に右上に表示された人を示すように更新されている。 As shown in FIG. 39E, the device 600 has moved the indication 1818 from a 4 second capture duration to a 3.5 second capture duration. As shown by the graphical illustration 2668, the current pose 2668c is shifted further down and to the left of the original pose 2668b than in FIG. 39D. Furthermore, because the current pose of the device 600 has changed, the live preview 630 has been updated to show the person displayed further up and to the right of where the person was displayed via the live preview 630 of FIG. 39D (for reasons similar to those discussed above with respect to FIG. 39C).

3.5秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、デバイス600は、そのポーズの変化を検出する。図39Eに示すように、そのポーズの変化を検出したことに応じて、デバイス600は、元のポーズインジケータ3970bを現在のポーズインジケータ3970cから離れるように更に平行移動させて、元のポーズ2668bの左下に更にシフトされている現在のポーズ2668cを介しても示されるように、平行移動の大きさ、又はデバイス600の現在のポーズとデバイス600の元のポーズとの間のポーズの差を表す。ここで、差が閾値差を上回るため、視覚ガイダンスは、表示されたままであり続ける。しかしながら、差が、デバイス600にメディアをキャプチャすることを停止させることになる第2の閾値差を上回らないため、デバイス600は、図39Eで依然としてメディアをキャプチャしている。 At some point while displaying the indication 1818 at the 3.5 second capture duration, the device 600 detects a change in its pose. As shown in FIG. 39E, in response to detecting the change in its pose, the device 600 further translates the original pose indicator 3970b away from the current pose indicator 3970c to represent the magnitude of the translation, or the difference in pose, between the current pose of the device 600 and the original pose of the device 600, as also shown via the current pose 2668c being further shifted to the bottom left of the original pose 2668b. Now, the visual guidance remains displayed because the difference exceeds the threshold difference. However, the device 600 is still capturing media in FIG. 39E because the difference does not exceed a second threshold difference that would cause the device 600 to stop capturing media.

図39Eに示すように、視覚ガイダンスの1つのインジケーションは、静的であり、他方のインジケーションは、静的ではない。図39Eでは、デバイス600は、元のポーズインジケーション3970bを動かす。元のポーズインジケーション3970bは、図39Dの以前に表示されていたデバイス600上の位置から図39Eに表示されている位置まで動いた。対照的に、デバイス600は、現在のポーズインジケーション3970cを動かさない。現在のポーズインジケーション3970cは、図39D~図39Eでディスプレイ上の同じ位置にある。 As shown in FIG. 39E, one indication of the visual guidance is static and the other indication is not. In FIG. 39E, the device 600 moves the original pause indication 3970b. The original pause indication 3970b has moved from its previously displayed position on the device 600 in FIG. 39D to its displayed position in FIG. 39E. In contrast, the device 600 does not move the current pause indication 3970c. The current pause indication 3970c remains in the same position on the display in FIG. 39D-FIG. 39E.

より良好な理解のために、視覚ガイダンスのインジケーション(単数又は複数)の移動は、FOV内に立っている人に対して基準として見なすことができる。図39D~図39Eを見ると、デバイス600は、現在のポーズインジケーション3970cが任意の基準点に対して静的に維持されていない間に、元のポーズインジケーション3970bを1つ以上のカメラのFOV内の基準点(例えば、ライブプレビュー630に示される人のスウェットシャツのジッパー)に対して静的に維持する。したがって、1つ以上のカメラのFOV内の基準点に関して、現在のポーズインジケーション3970cが静的でない間に、元のポーズインジケーション3970bは、静的である。しかしながら、図39D~図39Kの現在のポーズインジケーション3970cの表示位置は、デバイス600のポーズの変化に基づき、FOV内のオブジェクトの移動に基づかない。 For better understanding, the movement of the visual guidance indication(s) can be considered as a reference with respect to a person standing within the FOV. Looking at FIGS. 39D-39E, the device 600 maintains the original pose indication 3970b statically with respect to a reference point within the FOV of one or more cameras (e.g., the zipper of the person's sweatshirt shown in the live preview 630), while the current pose indication 3970c is not maintained statically with respect to any reference point within the FOV of one or more cameras. Thus, the original pose indication 3970b is static while the current pose indication 3970c is not static with respect to a reference point within the FOV of one or more cameras. However, the display position of the current pose indication 3970c in FIGS. 39D-39K is based on the change in the pose of the device 600 and not on the movement of the object within the FOV.

いくつかの実施形態では、現在のポーズインジケーション3970cが動き、元のポーズインジケーション3970bが動かない。いくつかの実施形態では、元のポーズインジケーション3970bは、同じ位置に留まり、現在のポーズインジケーション3970cは、デバイス600が動いた方向にディスプレイ上を動き(例えば、現在のポーズインジケーション3970cは、図39D~図39Eに示すようにポーズが変化するとディスプレイ上で下向きかつ左向きに動く)、一方、元のポーズインジケーション3970bは、ディスプレイのほぼ中心に留まり、FOV内の基準点(例えば、ライブプレビュー630に示される人のスウェットシャツのジッパー)に対して静的でない。いくつかの実施形態では、現在のポーズインジケーション3970c及び元のポーズインジケーション3970bは、互いに対して動く。 In some embodiments, the current pose indication 3970c moves and the original pose indication 3970b does not move. In some embodiments, the original pose indication 3970b stays in the same position and the current pose indication 3970c moves on the display in the direction that the device 600 moves (e.g., the current pose indication 3970c moves downward and left on the display as the pose changes as shown in Figures 39D-39E), while the original pose indication 3970b stays approximately in the center of the display and is not static relative to a reference point in the FOV (e.g., the zipper on the person's sweatshirt shown in the live preview 630). In some embodiments, the current pose indication 3970c and the original pose indication 3970b move relative to each other.

図39Fに示すように、デバイス600は、3.5秒のキャプチャ持続時間から3秒のキャプチャ持続時間にインジケーション1818を動かした。3秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、デバイス600の現在のポーズをデバイス600の元のポーズに一致させる試みが行われた(又は、換言すれば、デバイス600の現在のポーズとデバイス600の元のポーズとの間の差を補正する試みが行われた)。しかしながら、図39Fでは、現在のポーズ2668cが元のポーズ2668bの右上に今度はシフトされているため(図39Eにあったように元のポーズ2668bの左下にある代わりに)、過補正が生じている。更には、デバイス600の現在のポーズが変化しているため、ライブプレビュー630は、(図39Cに関して上述したのと同様の理由で)図39Eのライブプレビュー630を介して人が表示されていた位置の左下に表示された人を示すように更新されている。 As shown in FIG. 39F, the device 600 has moved the indication 1818 from a capture duration of 3.5 seconds to a capture duration of 3 seconds. At some point while displaying the indication 1818 at the 3 second capture duration, an attempt was made to match the current pose of the device 600 to the original pose of the device 600 (or, in other words, an attempt was made to correct for the difference between the current pose of the device 600 and the original pose of the device 600). However, in FIG. 39F, an overcorrection has occurred because the current pose 2668c has now been shifted to the top right of the original pose 2668b (instead of to the bottom left of the original pose 2668b as it was in FIG. 39E). Furthermore, because the current pose of the device 600 has changed, the live preview 630 has been updated to show the person displayed to the bottom left of where the person was displayed via the live preview 630 of FIG. 39E (for reasons similar to those discussed above with respect to FIG. 39C).

3秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、デバイス600は、そのポーズの変化を検出する。図39Fに示すように、そのポーズの変化を検出したことに応じて、デバイス600は、元のポーズインジケーション3970bを現在のポーズインジケーション3970cに向かってかつ過ぎて平行移動させて、元のポーズ2668bの右上にシフトされている現在のポーズ2668cを介しても示されるように、平行移動の大きさ、又はデバイス600の現在のポーズとデバイス600の元のポーズとの間の位置の差を表す。ここで、差が閾値差を上回るため、視覚ガイダンスは、(図39D~図39Eに関連して上述したものと同様の理由で)表示されたままであり続ける。 At some point while displaying the indication 1818 at the 3 second capture duration, the device 600 detects a change in its pose. As shown in FIG. 39F, in response to detecting the change in its pose, the device 600 translates the original pose indication 3970b toward and past the current pose indication 3970c to represent the magnitude of the translation, or the difference in position, between the current pose of the device 600 and the original pose of the device 600, as also shown via the current pose 2668c being shifted to the upper right of the original pose 2668b. Now, because the difference exceeds the threshold difference, the visual guidance remains displayed (for reasons similar to those discussed above in connection with FIGS. 39D-E).

図39Gに示すように、デバイス600は、3秒のキャプチャ持続時間から2.5秒のキャプチャ持続時間にインジケーション1818を動かした。2.5秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、ユーザは、デバイスのポーズを調整することによってデバイス600の現在のポーズをデバイス600の元のポーズと一致させるように再度試みた。グラフ的な説明図2668によって示されるように、デバイス600は、現在のポーズ2668cが元のポーズ2668bに対して傾斜していることによって示されるように、デバイス600の上部が図39FのものよりもFOV内の人に向かってより傾斜するような位置に傾斜している。 As shown in FIG. 39G, the device 600 moved the indication 1818 from a 3 second capture duration to a 2.5 second capture duration. At some point while displaying the indication 1818 at the 2.5 second capture duration, the user again attempted to make the current pose of the device 600 match the original pose of the device 600 by adjusting the pose of the device. As shown by the graphical illustration 2668, the device 600 has tilted to a position such that the top of the device 600 is more inclined toward the person in the FOV than in FIG. 39F, as shown by the current pose 2668c being tilted relative to the original pose 2668b.

2.5秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、デバイス600は、そのポーズの変化を検出する。そのポーズの変化を検出したことに応じて、デバイス600は、元のポーズインジケーション3970bを現在のポーズインジケーション3970cに対して歪める又は屈曲する。図39Gに示すように、元のポーズインジケーション3970bは、ある角度で歪められる又は屈曲される(例えば、元のポーズインジケーション3970bの1つ以上の部分が元のポーズインジケーション3970bの枢動点を介して内向きに屈曲される)。図39Gでは、元のポーズインジケーション3970bは、その一部分(例えば、図39Gの3970bの底部部分)がディスプレイスクリーンから出て、ライブプレビュー630内に立っている人から離れて(又はデバイス600を保持している可能性がある人に向かって)きているかのように見える。換言すれば、図39Gでは、元のポーズインジケーション3970bは、図39Fの現在のポーズインジケーション3970cと比較したときに、デバイス600から出てきて離れるような角度(例えば、デバイス600が傾斜している方向の反対)で屈曲される。いくつかの実施形態では、インジケータは、デバイス600を元の位置に戻して動かすためのフィードバックを与えるために、ライブプレビュー630内に立っている人と共に動くように見える。いくつかの実施形態では、デバイス600が、デバイス600の現在のポーズがデバイス600の元の位置に向かって更に傾斜していることを検出すると、デバイス600は、ライブプレビュー630内の人から更に離れて元のポーズインジケーション3970bの一部分を歪める又は屈曲することができる、又はその逆も同様である。いくつかの実施形態では、デバイス600は、代わりに又は加えて、そのポーズの変化を検出したことに応じて、現在のポーズインジケーション3970cを歪める又は屈曲することができる。 At some point while displaying the indication 1818 with a capture duration of 2.5 seconds, the device 600 detects a change in its pose. In response to detecting the change in pose, the device 600 distorts or bends the original pose indication 3970b relative to the current pose indication 3970c. As shown in FIG. 39G, the original pose indication 3970b is distorted or bent at an angle (e.g., one or more portions of the original pose indication 3970b are bent inwardly through a pivot point of the original pose indication 3970b). In FIG. 39G, the original pose indication 3970b appears as if a portion of it (e.g., the bottom portion of 3970b in FIG. 39G) has moved out of the display screen and is coming away from the person standing in the live preview 630 (or toward the person who may be holding the device 600). In other words, in FIG. 39G, the original pose indication 3970b is bent at an angle (e.g., opposite the direction in which the device 600 is tilted) that moves out and away from the device 600 when compared to the current pose indication 3970c in FIG. 39F. In some embodiments, the indicator appears to move with the person standing in the live preview 630 to provide feedback to move the device 600 back to its original position. In some embodiments, when the device 600 detects that the current pose of the device 600 is tilted further toward the original position of the device 600, the device 600 can distort or bend a portion of the original pose indication 3970b further away from the person in the live preview 630, or vice versa. In some embodiments, the device 600 can alternatively or additionally distort or bend the current pose indication 3970c in response to detecting a change in its pose.

特に、図39Gでは、視覚ガイダンスは、デバイス600の現在のポーズとデバイス600の元のポーズとの間の複数の差(例えば、位置の差による平行移動の差、スキューによる傾斜の差、元のポーズインジケーション3970bに対して現在のポーズインジケーション3970cを回転させることによる回転差)を示す。したがって、図39Gでは、デバイス600は、デバイス600のユーザインタフェースを雑然とさせることがある、差のそれぞれに対して異なる視覚ガイダンスユーザインタフェース要素を提供する代わりに、複数の差を示す単一の視覚ガイダンスを提供する。更には、視覚ガイダンスは、視覚ガイダンス及びFOV内のシーンを同時に見ることができるように、ライブプレビュー630の上に提供される。 In particular, in FIG. 39G, the visual guidance indicates multiple differences between the current pose of the device 600 and the original pose of the device 600 (e.g., translation differences due to position differences, tilt differences due to skew, and rotation differences due to rotating the current pose indication 3970c relative to the original pose indication 3970b). Thus, in FIG. 39G, the device 600 provides a single visual guidance showing the multiple differences, instead of providing a different visual guidance user interface element for each difference, which may clutter the user interface of the device 600. Furthermore, the visual guidance is provided on top of the live preview 630 so that the visual guidance and the scene within the FOV can be viewed simultaneously.

いくつかの実施形態では、第1の差が閾値差を上回らない場合、視覚ガイダンスは、第1の差を示すように更新されない(例えば、現在のポーズインジケーション3970cは、元のポーズインジケーション3970bに対して回転されない、平行移動されない、又は歪められない)。いくつかの実施形態では、視覚ガイダンスは、第2の差が第2の閾値差を上回るかぎり、第1の差が第1の閾値差(例えば、第2の閾値差と同じ又は異なる閾値差)を上回るかどうかにかかわらず、第1の差を示すように更新される。 In some embodiments, if the first difference does not exceed the threshold difference, the visual guidance is not updated to indicate the first difference (e.g., the current pose indication 3970c is not rotated, translated, or distorted relative to the original pose indication 3970b). In some embodiments, the visual guidance is updated to indicate the first difference as long as the second difference exceeds the second threshold difference, regardless of whether the first difference exceeds the first threshold difference (e.g., a threshold difference that is the same as or different from the second threshold difference).

図39Hに示すように、デバイス600は、2.5秒のキャプチャ持続時間から2秒のキャプチャ持続時間にインジケーション1818を動かした。グラフ的な説明図2668に示すように、現在のポーズ2668cは、元のポーズ2668bと一致する。更には、デバイス600の現在のポーズが変化しているため、ライブプレビュー630は、人が図39Bでいたのと同じ位置に表示された人を示すように、更新されている。 As shown in FIG. 39H, the device 600 has moved the indication 1818 from a capture duration of 2.5 seconds to a capture duration of 2 seconds. As shown in the graphical illustration 2668, the current pose 2668c matches the original pose 2668b. Moreover, because the current pose of the device 600 has changed, the live preview 630 has been updated to show the person displayed in the same position that the person was in FIG. 39B.

2.5秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、デバイス600は、そのポーズの変化を検出する。そのポーズの変化を検出したことに応じて、デバイス600は、メディアのキャプチャが開始されたときのデバイス600のポーズとデバイス600の現在のポーズとの間の1つ以上の差(又は任意選択的に、全ての差)が1つ以上の差閾値(例えば、回転閾値、傾斜閾値、及び/又は横方向移動閾値)未満である、又は差がない(例えば、回転、傾斜、及び/又は横方向移動に関して)ため、現在のポーズインジケーション3970cを元のポーズ3970bと同じ位置に平行移動させる。更には、ポーズの変化を検出したことに応じて、デバイス600は、メディアのキャプチャが開始されたときのデバイス600のポーズとデバイス600の現在のポーズとの間の1つ以上の差が1つ以上の閾値差未満であるため、現在のポーズインジケーション3970cのスキューを図39Gでデバイス600が傾斜していた前の現在のポーズインジケーション3970cのスキュー(例えば、図39Fに示すような)に戻して変更する。 At some point while displaying the indication 1818 at the 2.5 second capture duration, the device 600 detects a change in its pose. In response to detecting the change in its pose, the device 600 translates the current pose indication 3970c to the same position as the original pose 3970b because one or more differences (or, optionally, all differences) between the pose of the device 600 when the capture of the media began and the current pose of the device 600 are less than one or more difference thresholds (e.g., rotation threshold, tilt threshold, and/or lateral movement threshold) or there is no difference (e.g., with respect to rotation, tilt, and/or lateral movement). Further, in response to detecting a pose change, the device 600 changes the skew of the current pose indication 3970c back to the skew of the current pose indication 3970c (e.g., as shown in FIG. 39F) prior to when the device 600 was tilted in FIG. 39G because one or more differences between the pose of the device 600 when media capture began and the current pose of the device 600 are less than one or more threshold differences.

図39Hに示すように、元のポーズインジケーション3970b及び現在のポーズインジケーション3970cは、同じ位置に表示され、重なり合う。いくつかの実施形態では、メディアのキャプチャが開始されたときのデバイス600のポーズとデバイス600の現在のポーズとの間の1つ以上の差が1つ以上の閾値差未満であるとき、デバイス600は、元のポーズインジケーション3970bを表示することを停止し、かつ/又は現在のポーズインジケーション3970cは、表示されることを停止する。 As shown in FIG. 39H, the original pause indication 3970b and the current pause indication 3970c are displayed in the same location and overlap. In some embodiments, the device 600 stops displaying the original pause indication 3970b and/or the current pause indication 3970c stops being displayed when one or more differences between the pose of the device 600 when media capture began and the current pose of the device 600 are less than one or more threshold differences.

図39Iに示すように、デバイス600は、2秒のキャプチャ持続時間から1.5秒のキャプチャ持続時間にインジケーション1818を動かした。グラフ的な説明図2668に示すように、現在のポーズ2668cは、元のポーズ2668bと一致し続ける。換言すれば、メディアのキャプチャが開始されたときのデバイス600のポーズとデバイス600の現在のポーズとの間の1つ以上の差は、1つ以上の閾値差未満であり続ける。2秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、メディアのキャプチャが開始されたときのデバイス600のポーズとデバイス600の現在のポーズとの間の1つ以上の差が所定の期間にわたって1つ以上の閾値差未満であったため、デバイス600は、視覚ガイダンス(例えば、元のポーズインジケーション3970b及び現在のポーズインジケーション3970c)を表示することを停止する。 As shown in FIG. 39I, the device 600 has moved the indication 1818 from a capture duration of 2 seconds to a capture duration of 1.5 seconds. As shown in the graphical illustration 2668, the current pose 2668c continues to match the original pose 2668b. In other words, one or more differences between the pose of the device 600 when the capture of the media began and the current pose of the device 600 continue to be less than one or more threshold differences. At some point while displaying the indication 1818 at the 2 second capture duration, the device 600 stops displaying visual guidance (e.g., the original pose indication 3970b and the current pose indication 3970c) because one or more differences between the pose of the device 600 when the capture of the media began and the current pose of the device 600 have been less than one or more threshold differences for a predetermined period of time.

いくつかの実施形態では、デバイス600は、どれほど長く電子デバイスの現在のポーズが電子デバイスの元のポーズと一致していないか(例えば、どれほど長くデバイス600の元のポーズとデバイス600の現在のポーズとの間の1つ以上の差が1つ以上の閾値差未満であり続けるか)にかかわらず、視覚ガイダンスの表示を維持する。いくつかの実施形態では、メディアのキャプチャが開始されたときのデバイス600のポーズとデバイス600の現在のポーズとの間の差が閾値を上回り、かつ移動が検出されないとき、デバイス600は、視覚ガイダンスの表示を維持する。 In some embodiments, device 600 maintains the display of visual guidance regardless of how long the current pose of the electronic device is inconsistent with the original pose of the electronic device (e.g., how long one or more differences between the original pose of device 600 and the current pose of device 600 remain less than one or more threshold differences). In some embodiments, device 600 maintains the display of visual guidance when the difference between the pose of device 600 when media capture began and the current pose of device 600 exceeds a threshold and no movement is detected.

図39Jに示すように、デバイス600は、1.5秒のキャプチャ持続時間から1秒のキャプチャ持続時間にインジケーション1818を動かした。1秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、デバイス600は、そのポーズの変化を検出する。ポーズの変化が、メディアのキャプチャが開始されたときのデバイス600のポーズとデバイス600の現在のポーズとの間の1つ以上の差を1つ以上の閾値差を上回らせたため、デバイス600は、視覚ガイダンスを再表示する。具体的には、グラフ的な説明図2668によって示すように、デバイス600は、元のポーズ2668bに対して反時計回りに約45度回転された、現在のポーズ(例えば、2668c)にある。したがって、ポーズの変化を検出したことに応じて、デバイス600は、現在のポーズインジケーション3970cに対して時計回りに約45度、元のポーズインジケーション3970bを回転させる。いくつかの実施形態では、デバイス600が反時計回りに更に回転されているポーズの変化を検出したことに応じて、デバイス600は、元のポーズインジケーション3970b(又は現在のポーズインジケーション3970c)を平行移動させる又は歪めることに関して上述したのと同様の技術を使用して、元のポーズインジケーション3970bを時計回りに更に回転させる。いくつかの実施形態では、代わりに又は加えて、デバイス600は、そのポーズの変化を検出したことに応じて、現在のポーズインジケーション3970cを回転させる。 As shown in FIG. 39J, the device 600 has moved the indication 1818 from a capture duration of 1.5 seconds to a capture duration of 1 second. At some point while displaying the indication 1818 at the capture duration of 1 second, the device 600 detects a change in its pose. The device 600 redisplays the visual guidance because the change in pose has caused one or more differences between the pose of the device 600 when the capture of the media began and the current pose of the device 600 to exceed one or more threshold differences. Specifically, as shown by the graphical illustration 2668, the device 600 is in a current pose (e.g., 2668c) that is rotated approximately 45 degrees counterclockwise relative to the original pose 2668b. Thus, in response to detecting the change in pose, the device 600 rotates the original pose indication 3970b approximately 45 degrees clockwise relative to the current pose indication 3970c. In some embodiments, in response to the device 600 detecting a pose change that is further rotated counterclockwise, the device 600 further rotates the original pose indication 3970b clockwise using techniques similar to those described above with respect to translating or skewing the original pose indication 3970b (or the current pose indication 3970c). In some embodiments, instead or in addition, the device 600 rotates the current pose indication 3970c in response to detecting the pose change.

図39Kに示すように、デバイス600は、1秒のキャプチャ持続時間から3/4秒のキャプチャ持続時間にインジケーション1818を動かした。グラフ的な説明図2668に示すように、現在のポーズ2668cは、元のポーズ2668bと一致する。図39Kに示すように、3/4秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、デバイス600は、図39Hに関連して上述したものと同様の技術を使用して、現在のポーズインジケーション3970cを更新する。 As shown in FIG. 39K, the device 600 has moved the indication 1818 from a 1 second capture duration to a ¾ second capture duration. As shown in the graphical illustration 2668, the current pose 2668c matches the original pose 2668b. At some point while displaying the indication 1818 at the ¾ second capture duration, as shown in FIG. 39K, the device 600 updates the current pose indication 3970c using a technique similar to that described above in connection with FIG. 39H.

図39Lに示すように、デバイス600は、3/4秒のキャプチャ持続時間から1/4秒のキャプチャ持続時間にインジケーション1818を動かした。1/4秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、メディアのキャプチャが開始されたときのデバイス600のポーズとデバイス600の現在のポーズとの間の1つ以上の差が所定の期間にわたって1つ以上の閾値差未満であったため、デバイス600は、視覚ガイダンスを表示することを停止する(例えば、図39Iに関連して上述したものと同様の技術を使用して)。 As shown in FIG. 39L, the device 600 moves the indication 1818 from a ¾ second capture duration to a ¼ second capture duration. At some point while displaying the indication 1818 at the ¼ second capture duration, the device 600 stops displaying the visual guidance (e.g., using a technique similar to that described above in connection with FIG. 39I) because one or more differences between the pose of the device 600 when the capture of the media began and the current pose of the device 600 were less than one or more threshold differences for a predetermined period of time.

図39Mに示すように、デバイス600は、キャプチャ持続時間の終了(例えば、0秒)に到達したため、メディアのキャプチャを終了している。図39Mに示すように、デバイス600は、キャプチャされたメディアの視覚表現を用いてメディアコレクション624を更新し、非暗色シャッターアフォーダンス610を再表示する。 As shown in FIG. 39M, the device 600 has finished capturing media because it has reached the end of the capture duration (e.g., 0 seconds). As shown in FIG. 39M, the device 600 updates the media collection 624 with a visual representation of the captured media and redisplays the non-dark shutter affordance 610.

図39N~図39Qは、図39A~図39Mでデバイス600がメディアをキャプチャするように構成されていたより短いキャプチャ値(例えば、2秒)に基づいてメディアをキャプチャするように構成されたデバイス600を示す。図39N~図39Qでは、2秒のキャプチャ持続時間値が閾値キャプチャ持続時間値(例えば、3秒)を下回るため、デバイス600は、任意選択的に、デバイス600の現在のポーズとデバイス600の元のポーズとの間の1つ以上の差が1つ以上の閾値差を上回る場合であっても、視覚ガイダンスを表示しない。 FIGS. 39N-39Q show device 600 configured to capture media based on a shorter capture value (e.g., 2 seconds) than the device 600 was configured to capture media for in FIGS. 39A-39M. In FIGS. 39N-39Q, because the 2 second capture duration value is below the threshold capture duration value (e.g., 3 seconds), device 600, optionally, does not display visual guidance even if one or more differences between the current pose of device 600 and the original pose of device 600 exceed one or more threshold differences.

図39Nに示すように、デバイス600は、低光環境で動作している。しかしながら、FOV内の周辺光の量は、図39A~図39MでFOV内にあった光量よりも多い。例えば、39Nにおいて、FOV内の周辺光は、図39AのFOV内の(現在の光レベル2680dによって表されるような)0.5ルクスの周辺光レベルとは対照的に、(現在の光レベル3980aによって表されるような)9ルクスである。FOV内の周辺光に基づいて、デバイス600は、2秒のキャプチャ持続時間で調整可能な低光モードコントロール1804上にインジケーション1818を表示する。図39Nでは、デバイス600は、シャッターアフォーダンス610上のタップジェスチャ3950nを検出する。 As shown in FIG. 39N, the device 600 is operating in a low light environment. However, the amount of ambient light within the FOV is greater than the amount of light that was within the FOV in FIGS. 39A-39M. For example, in 39N, the ambient light within the FOV is 9 lux (as represented by current light level 3980a) as opposed to the ambient light level of 0.5 lux (as represented by current light level 2680d) within the FOV of FIG. 39A. Based on the ambient light within the FOV, the device 600 displays an indication 1818 on the adjustable low light mode control 1804 with a capture duration of 2 seconds. In FIG. 39N, the device 600 detects a tap gesture 3950n on the shutter affordance 610.

図39Oに示すように、シャッターアフォーダンス610上のタップジェスチャ3950nを検出したことに応じて、デバイス600は、図39Bに関連して上述したものと同様の技術を使用して、メディアのキャプチャを開始し、シャッターアフォーダンス610を暗くする。 As shown in FIG. 39O, in response to detecting a tap gesture 3950n on the shutter affordance 610, the device 600 initiates capture of media and darkens the shutter affordance 610 using techniques similar to those described above in connection with FIG. 39B.

図39Pに示すように、デバイス600は、2秒のキャプチャ持続時間から1秒のキャプチャ持続時間にインジケーション1818を動かした。1秒のキャプチャ持続時間において、デバイス600は、グラフ的な説明図2668によって示すような、そのポーズの変化を検出する。特に、図39Pでは、元のポーズ2668bに対する現在のポーズ2668cは、図39Eであったような、図39Pの元のポーズ2668bに対する現在のポーズ2668cと同じである。したがって、図39Pでは、デバイス600の現在のポーズとデバイス600の元のポーズとの間の1つ以上の差は、(図39Eで1つ以上の差があったように)1つ以上の閾値差を上回る。しかしながら、図39Pでは、初期の2秒のキャプチャ持続時間が閾値キャプチャ持続時間を下回るため、デバイス600は、視覚ガイダンスを表示しない(開始の5秒のキャプチャ持続時間が閾値キャプチャ持続時間を上回っていた図39Eとは対照的に)。いくつかの実施形態では、図39Pの初期のキャプチャ持続時間が十分に短い場合、キャプチャ持続時間が時間切れになる前にデバイス600の現在のポーズに有用な調整を行うことができない、及び/又は調整がキャプチャされたメディアの品質に低減した影響を有し得るとの判定が行われている。 As shown in FIG. 39P, the device 600 has moved the indication 1818 from a 2 second capture duration to a 1 second capture duration. At the 1 second capture duration, the device 600 detects a change in its pose, as shown by the graphical illustration 2668. In particular, in FIG. 39P, the current pose 2668c relative to the original pose 2668b is the same as the current pose 2668c relative to the original pose 2668b in FIG. 39P as it was in FIG. 39E. Thus, in FIG. 39P, one or more differences between the current pose of the device 600 and the original pose of the device 600 exceed one or more threshold differences (as there were one or more differences in FIG. 39E). However, in FIG. 39P, because the initial 2 second capture duration is below the threshold capture duration, the device 600 does not display visual guidance (in contrast to FIG. 39E, where the initial 5 second capture duration was above the threshold capture duration). In some embodiments, a determination is made that if the initial capture duration of FIG. 39P is short enough, useful adjustments cannot be made to the current pose of the device 600 before the capture duration times out, and/or the adjustments may have a reduced impact on the quality of the captured media.

いくつかの実施形態では、デバイス600の現在のポーズとデバイス600の元のポーズとの間の1つ以上の差が差の第2の閾値を上回る場合、デバイス600は、メディアをキャプチャすることを停止しない。いくつかの実施形態では、初期の2秒のキャプチャ持続時間が閾値キャプチャ持続時間未満であるため、デバイス600は、メディアをキャプチャすることを停止しない。いくつかの実施形態では、デバイス600の現在のポーズとデバイス600の元のポーズとの間の1つ以上の差が第2の閾値差を上回る場合、デバイス600は、キャプチャ持続時間が閾値キャプチャ持続時間を下回るときに、メディアをキャプチャすることを停止する。 In some embodiments, device 600 does not stop capturing media if one or more differences between the current pose of device 600 and the original pose of device 600 exceed a second threshold difference. In some embodiments, device 600 does not stop capturing media because the initial 2 second capture duration is less than the threshold capture duration. In some embodiments, device 600 stops capturing media when the capture duration falls below the threshold capture duration if one or more differences between the current pose of device 600 and the original pose of device 600 exceed a second threshold difference.

図39Qに示すように、デバイス600は、1秒のキャプチャ持続時間から0秒のキャプチャ持続時間にインジケーション1818を動かしており、デバイス600は、図18A~図18K、図19A~図19B、図20A~図20C、図21A~図2C、図26~図26Q、図27A~図27C、及び図28A~図28Bに関連して上述したものと同様の1つ以上の技術を使用して、メディアのキャプチャを終了している。 As shown in FIG. 39Q, the device 600 has moved the indication 1818 from a capture duration of 1 second to a capture duration of 0 seconds, and the device 600 has ended capturing media using one or more techniques similar to those described above in connection with FIGS. 18A-18K, 19A-19B, 20A-20C, 21A-2C, 26-26Q, 27A-27C, and 28A-28B.

図40A~図40Bは、いくつかの実施形態による、メディアをキャプチャしている間にガイダンスを提供するための方法を示すフロー図である。方法4000は、表示デバイス(例えば、タッチ感知ディスプレイ)を備えたデバイス(例えば、100、300、500、600)で実行される。方法4000のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 40A-40B are flow diagrams illustrating a method for providing guidance while capturing media, according to some embodiments. Method 4000 is performed on a device (e.g., 100, 300, 500, 600) with a display device (e.g., a touch-sensitive display). Some operations of method 4000 are optionally combined, the order of some operations is optionally changed, and some operations are optionally omitted.

いくつかの実施形態では、電子デバイス(例えば、600)は、コンピュータシステムである。コンピュータシステムは、任意選択的に、ディスプレイ生成構成要素と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the electronic device (e.g., 600) is a computer system. The computer system is optionally in communication (e.g., wired communication, wireless communication) with a display generation component and with one or more input devices. The display generation component is configured to provide visual output, such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. The one or more input devices are configured to receive input, such as a touch-sensitive surface that receives user input. In some embodiments, the one or more input devices are integrated with the computer system. In some embodiments, the one or more input devices are separate from the computer system. Thus, the computer system can transmit data (e.g., image data or video data) via a wired or wireless connection to an integrated or external display generation component to visually generate content (e.g., using a display device) and can receive wired or wireless connection input from one or more input devices.

後述するように、方法4000は、メディアをキャプチャしている間にガイダンスを提供するための直感的な仕方を提供する。この方法は、メディアをキャプチャしている間にガイダンスを提供する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアを管理することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, the method 4000 provides an intuitive way to provide guidance while capturing media. The method reduces the cognitive burden on the user in providing guidance while capturing media, thereby creating a more efficient human-machine interface. For battery-operated computing devices, it conserves power and extends the time between battery charges by enabling the user to manage media more quickly and efficiently.

電子デバイス(例えば、600)は、表示デバイス(例えば、タッチ感知ディスプレイ)及び1つ以上のカメラ(例えば、電子デバイスの同じ側又は異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を含む。電子デバイス(例えば、600)は、表示デバイスを介して、1つ以上のカメラの視野(例えば、カメラに視認可能である開放観測可能エリア、カメラレンズから所与の距離の画像の水平(又は垂直若しくは対角線)長さ)の表現(例えば、630)(例えば、経時的表現、カメラからのデータのライブプレビューフィード)を含むメディアキャプチャユーザインタフェースを表示する(4002)。 The electronic device (e.g., 600) includes a display device (e.g., a touch-sensitive display) and one or more cameras (e.g., one or more cameras (e.g., dual cameras, triple cameras, quad cameras, etc.) on the same or different sides (e.g., front camera, rear camera) of the electronic device. The electronic device (e.g., 600) displays (4002) via the display device a media capture user interface including a representation (e.g., 630) of the field of view (e.g., open observable area visible to the camera, horizontal (or vertical or diagonal) length of the image at a given distance from the camera lens) of the one or more cameras (e.g., a representation over time, a live preview feed of data from the camera).

電子デバイス(例えば、600)が、表示デバイスを介して、メディアキャプチャユーザインタフェースを表示している間に、電子デバイスは、メディアをキャプチャする要求(例えば、3950a)(例えば、表示デバイスに表示されている又は物理的に接続されたシャッターアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)上のユーザ入力(例えば、3950a))を受信する(4004)。 While the electronic device (e.g., 600) is displaying a media capture user interface via a display device, the electronic device receives a request (e.g., 3950a) to capture media (e.g., user input (e.g., 3950a) on a shutter affordance (e.g., a selectable user interface object) displayed on or physically connected to the display device) (4004).

メディアをキャプチャする要求を受信したことに応じて、電子デバイスは、1つ以上のカメラを介して(例えば、1つ以上のカメラの少なくとも第1のカメラを介して)、メディアのキャプチャを開始する(4006)。 In response to receiving the request to capture media, the electronic device begins capturing media via one or more cameras (e.g., via at least a first camera of the one or more cameras) (4006).

1つ以上のカメラを介して、メディアのキャプチャを開始した(例えば、メディアのキャプチャを開始した、1つ以上のカメラを初期化した、メディアをキャプチャする要求を受信したことに応じてメディアキャプチャインタフェースを表示又は更新した)後の第1の時間において、電子デバイス(例えば、600)は、電子デバイス(例えば、600)の移動を検出する(4008)(例えば、電子デバイスは、電子デバイスの位置及び/又は向きの変化を検出する)。いくつかの実施形態では、電子デバイスが、表示デバイスを介して、表現を含むメディアキャプチャユーザインタフェースを表示している間に、電子デバイスの移動が(例えば、電子デバイス又は別のデバイスによって)検出される。 At a first time after initiating capture of media via one or more cameras (e.g., initiating capture of media, initializing one or more cameras, displaying or updating a media capture interface in response to receiving a request to capture media), the electronic device (e.g., 600) detects (4008) movement of the electronic device (e.g., 600) (e.g., the electronic device detects a change in the position and/or orientation of the electronic device). In some embodiments, the movement of the electronic device is detected (e.g., by the electronic device or another device) while the electronic device is displaying a media capture user interface including a representation via a display device.

メディアのキャプチャを開始した後の第1の時間における電子デバイス(例えば、600)の移動を検出したことに応じて(4010)、かつ、電子デバイスの検出された移動(例えば、ポーズの変化(例えば、図39C~図39G、図39J、及び図390~図39Pの2668b、2668c))が移動閾値(例えば、垂直又は水平平行移動などの1つ以上の方向の移動の非ゼロ閾値、ヨー、ピッチ、若しくはロールなどの回転、若しくは対象に向かう若しくは対象から離れる移動、又はこれらのタイプの移動の任意の組み合わせ)を上回るときに満たされる基準を含む、1組のガイダンス基準(例えば、低光モードがアクティブである場合、電子デバイスが特定のキャプチャ持続時間(例えば、時間(例えば、合計キャプチャ時間、露出時間)、ピクチャ/フレームの数で測定される)よりも長くメディアをキャプチャするように構成されているときに満たされる1組のガイダンス基準)が満たされているとの判定に従って、電子デバイス(例えば、600)は、表示デバイスを介して、メディアのキャプチャが開始されたときの電子デバイスのポーズ(例えば、2668b)(例えば、向き及び/又は位置)と電子デバイス(例えば、600)の現在のポーズ(例えば、2668c)(例えば、向き/又は位置)との間の1つ以上の差(例えば、1つ以上の異なる回転角又は回転軸の間の度(例えば、0度を含む任意の値)、差の閾値レベルよりも大きい、メディアのキャプチャが開始されたときの電子デバイスの向きとメディアのキャプチャが開始された後の電子デバイスの向きとの間の度)の視覚インジケーション(例えば、視覚ガイダンス(例えば、3970b、3970c)を表示する(4012)。いくつかの実施形態では、第1の時間において、現在のポーズの電子デバイス(例えば、600)は、メディアのキャプチャを開始した後の第1の時間における電子デバイス(例えば、600)のポーズである。いくつかの実施形態では、メディアのキャプチャを開始した後の第1の時間とは異なるメディアのキャプチャを開始した後の時間において、現在のポーズの電子デバイス(例えば、600)は、メディアのキャプチャを開始した後の第2の時間における電子デバイスのポーズである。いくつかの実施形態では、ポーズの差は、電子デバイス(例えば、600)の先行ポーズに対して測定される。いくつかの実施形態では、ポーズの差は、1つ以上のカメラの視野内の対象の先行ポーズ(例えば、電子デバイスの現在の向き)に対して測定される。いくつかの実施形態では、差はゼロではない差である。いくつかの実施形態では、1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、(a)メディアのキャプチャを開始する時間での電子デバイス(例えば、600)の向きからの第1の差値を有する第1の時間での電子デバイス(例えば、600)の向きに従って、第1の外観を有し、かつ(b)メディアのキャプチャを開始する時間での電子デバイス(例えば、600)の向きからの第2の差値を有する第1の時間での電子デバイス(例えば、600)の向きに従って、第1の外観とは異なる第2の外観を有する、視覚ガイドを表示する(例えば、図26J~図26Qに関連して、かつ図28A~図28Bの方法2800で上述したように、1つ以上の構成要素は、1つ以上の構成要素と組み合わせることができる)。視覚ガイダンスを提供することにより、ユーザは、メディアのキャプチャが開始された後に、いつ電子デバイスの検出された移動が移動閾値を上回ったかを迅速に認識することができ、かつユーザは、画像の最大数が使用可能であり、容易に組み合わされて使用可能な又は改善されたマージ写真を形成することができるように、複数の画像をキャプチャするときに同一のフレーミングを維持することができる。改善された視覚的フィードバックを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。所定の条件が満たされているときに、視覚ガイダンスを提供することにより、ユーザは、バッテリ寿命を無駄にすることなく、かつ視覚ガイダンスがそれほど有用でない状況で視覚注意散漫を引き起こすことなく(例えば、これらの条件が満たされていないときに視覚ガイダンスを提供することによって)、キャプチャ持続時間が閾値キャプチャ持続時間を上回る場合、いつ電子デバイスがその元の位置から動いたかを、迅速に認識することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。所定の条件が満たされているときに視覚ガイダンスを提供することにより、ユーザが一連のユーザ入力を使用して電子デバイスを調整するためにメディアキャプチャリングプロセスを中断することを必要とせずに、電子デバイスをリアルタイムで調整する能力をユーザに提供し、正しいシーンをキャプチャしない可能性を低減する(例えば、キャプチャされることになる意図したシーンが時間的制約のあるシーンである場合、ユーザは、追加のユーザ入力を行なうときにシーンをキャプチャすることを逃すことがある)。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In response to detecting (4010) movement of the electronic device (e.g., 600) at a first time after initiating capture of media, and in accordance with a determination that a set of guidance criteria (e.g., a set of guidance criteria that is met when the electronic device is configured to capture media for longer than a particular capture duration (e.g., measured in time (e.g., total capture time, exposure time), number of pictures/frames) when a low light mode is active) is met, the electronic device (e.g., 600) may, via the display device, display a pose (e.g., 2668b) (e.g., orientation and/or position) of the electronic device at the time capture of media was initiated, including criteria that are met when the detected movement of the electronic device (e.g., a change in pose (e.g., 2668b, 2668c in FIGS. 39C-G, 39J, and 390-P)) exceeds a movement threshold (e.g., a non-zero threshold of movement in one or more directions, such as vertical or horizontal translation, rotation, such as yaw, pitch, or roll, or movement toward or away from a subject, or any combination of these types of movement). display (4012) a visual indication (e.g., visual guidance (e.g., 3970b, 3970c) of one or more differences (e.g., degrees (e.g., any value including 0 degrees) between one or more different rotation angles or axes, degrees between the orientation of the electronic device when the capture of the media was initiated and the orientation of the electronic device after the capture of the media was initiated that are greater than a threshold level of difference) between a current pose (e.g., 2668c) of the electronic device (e.g., 600) and a previous pose (e.g., 2668c) of the electronic device (e.g., 600). In some embodiments, at a first time, the current pose of the electronic device (e.g., 600) is the pose of the electronic device (e.g., 600) at a first time after the capture of the media is initiated. In some embodiments, at a time after the capture of the media that is different from the first time after the capture of the media is initiated, the current pose of the electronic device (e.g., 600) is the pose of the electronic device at a second time after the capture of the media is initiated. In some embodiments, the pose difference is measured relative to a prior pose of the electronic device (e.g., 600). In some embodiments, the pose difference is measured relative to a previous pose of a subject (e.g., a current orientation of the electronic device) within the field of view of the one or more cameras. In some embodiments, the difference is a non-zero difference. In some embodiments, at a first time after initiating capture of media via the one or more cameras, a visual guide is displayed that (a) has a first appearance according to an orientation of the electronic device (e.g., 600) at the first time having a first difference value from an orientation of the electronic device (e.g., 600) at the time of initiating capture of media, and (b) has a second appearance different from the first appearance according to an orientation of the electronic device (e.g., 600) at the first time having a second difference value from an orientation of the electronic device (e.g., 600) at the time of initiating capture of media (e.g., one or more components can be combined with one or more components as described above in connection with FIGS. 26J-Q and in method 2800 of FIGS. 28A-B). By providing visual guidance, a user can quickly recognize when a detected movement of the electronic device exceeds a movement threshold after media capture has been initiated, and the user can maintain the same framing when capturing multiple images so that a maximum number of images are usable and can be easily combined to form a usable or improved merged photograph. Providing improved visual feedback enhances device usability and makes the user-device interface more efficient (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), as well as conserves device power usage and improves battery life by allowing the user to use the device more quickly and efficiently. By providing visual guidance when certain conditions are met, a user can quickly recognize when the capture duration exceeds a threshold capture duration without wasting battery life and without causing visual distraction in situations where visual guidance is less useful (e.g., by providing visual guidance when these conditions are not met). By performing an optimized operation when a set of conditions is met without requiring further user input, the device's operability is improved, the user-device interface is made more efficient (e.g., by assisting the user to provide appropriate inputs when operating/interacting with the device and reducing user errors), and the device's battery life is reduced by allowing the user to use the device more quickly and efficiently. By providing visual guidance when a predetermined condition is met, the device's operability is improved, the user's ability to adjust the electronic device in real time without requiring the user to interrupt the media capturing process to adjust the electronic device using a series of user inputs, and the device's battery life is reduced by not capturing the correct scene (e.g., if the intended scene to be captured is a time-sensitive scene, the user may miss capturing the scene when providing additional user input). By performing an optimized operation when a set of conditions is met without requiring further user input, the device's operability is improved, the user-device interface is made more efficient (e.g., by assisting the user to provide appropriate inputs when operating/interacting with the device and reducing user errors), and the device's battery life is reduced by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、視覚インジケーションを表示している間に(4014)、表示された視覚インジケーションの一部分(例えば、3970c)(例えば、第1の部分の位置及び形状)は、検出されている電子デバイスの移動(例えば、閾値移動量を上回る移動)に応じて変化しない(静止したままである、同じサイズ/形状のままである)(表示された視覚インジケーションの第1の部分及び一部分(例えば、3970b)(例えば、第2の部分の位置又は形状(又は位置及び形状))を表示することを停止することを除くことは、検出されている電子デバイスの移動(例えば、閾値移動量を上回る移動)に応じて、変化する(例えば、動く、サイズを変更する、かつ/又は形状を変更する)。いくつかの実施形態では、メディアのキャプチャを開始した後の第1の時間の後に、かつメディアキャプチャユーザインタフェース上の第1の位置に表示された視覚インジケーションの第1の部分及びメディアキャプチャユーザインタフェース上の第2の位置に表示された視覚インジケーションの第2の部分を表示している間に、電子デバイスは、メディアのキャプチャを開始した後の第6の時間における電子デバイスの移動を検出する(かつ/又は電子デバイスのポーズ(例えば、位置又は向き)の変化を検出する)。いくつかの実施形態では、メディアのキャプチャを開始した後の第1の時間は、メディアのキャプチャを開始した後の第5の時間の前である。いくつかの実施形態では、メディアのキャプチャが開始されたときの電子デバイスのポーズと、メディアのキャプチャを開始した後の第1の時間における電子デバイスのポーズと間の差が存在するときに、ディスプレイ上の第2の位置(例えば、オフセット位置)は、メディアキャプチャユーザインタフェース上の第1の位置とは異なる。いくつかの実施形態では、メディアのキャプチャを開始した後の第6の時間における電子デバイスの移動を検出したことに応じて、電子デバイスは、メディアカメラユーザインタフェース上の第2の位置とは異なるメディアカメラユーザインタフェース上の第3の位置に視覚インジケーションの第2の部分を表示し、メディアキャプチャユーザインタフェース上の第1の位置における視覚インジケーションの第1の部分の表示を維持する。いくつかの実施形態では、第1の部分は、静的であり(例えば、電子デバイスの検出された移動に基づいて変化しない)、第2の部分は、静的ではない(例えば、電子デバイスの検出された移動に基づいて変化する)、又はその逆である。電子デバイスの移動が検出されている間に、変化しない(例えば、静的な)第1の部分と変化する(例えば、静的でない)第2の部分とを含む視覚ガイダンスを表示することにより、電子デバイスの元の位置に関する一貫したガイダンスを提供することによって(メディアをキャプチャするプロセス全体を通してデバイスがより安定したポーズに留まることができるため、使用可能な写真をキャプチャするのに要する回数が低減されるように)ユーザは、メディアキャプチャを改善するためにポーズを迅速に補正することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, while displaying the visual indication (4014), a portion (e.g., 3970c) (e.g., a position and shape of a first portion) of the displayed visual indication does not change (remain stationary, remain the same size/shape) in response to a detected movement of the electronic device (e.g., movement above a threshold amount of movement) (except for ceasing to display the first portion and the portion (e.g., 3970b) (e.g., a position or shape (or position and shape) of a second portion) of the displayed visual indication change (e.g., move, change size, and/or change shape) in response to a detected movement of the electronic device (e.g., movement above a threshold amount of movement). In some embodiments, after a first time after initiating capture of media and while displaying the first portion of the visual indication displayed at a first location on the media capture user interface and the second portion of the visual indication displayed at a second location on the media capture user interface, the electronic device detects a movement of the electronic device (and/or a pose (e.g., position) of the electronic device) at a sixth time after initiating capture of media. or orientation). In some embodiments, the first time after starting to capture the media is before a fifth time after starting to capture the media. In some embodiments, the second position on the display (e.g., the offset position) is different from the first position on the media capture user interface when there is a difference between the pose of the electronic device when the capture of the media was started and the pose of the electronic device at the first time after starting to capture the media. In some embodiments, in response to detecting a movement of the electronic device at a sixth time after starting to capture the media, the electronic device displays a second portion of the visual indication at a third position on the media camera user interface that is different from the second position on the media camera user interface and maintains the display of the first portion of the visual indication at the first position on the media capture user interface. In some embodiments, the first portion is static (e.g., does not change based on the detected movement of the electronic device) and the second portion is not static (e.g., changes based on the detected movement of the electronic device), or vice versa. By displaying visual guidance including a first portion that does not change (e.g., static) and a second portion that changes (e.g., non-static) while movement of the electronic device is detected, the user can quickly correct the pose to improve media capture by providing consistent guidance regarding the original position of the electronic device (such that the device can remain in a more stable pose throughout the media capture process, thereby reducing the number of times it takes to capture a usable photograph). Providing improved visual feedback to the user improves usability of the device and makes the user-device interface more efficient (e.g., by assisting the user in making appropriate inputs when operating/interacting with the device and reducing user errors), which further reduces the power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

メディアのキャプチャを開始した後の第1の時間における電子デバイス(例えば、600)の移動を検出したことに応じて(4010)、かつ1組のガイダンス基準が満たされていないとの判定に従って(例えば、図39Cで)(例えば、デバイスが移動閾値量未満動いたため、かつ/又はメディアをキャプチャするためのキャプチャ持続時間が持続時間閾値を下回るため)、電子デバイス(例えば、600)は、表示デバイスを介して、メディアのキャプチャが開始されたときの電子デバイス(例えば、600)のポーズ(例えば、2668b)と電子デバイス(例えば、600)の現在のポーズ(例えば、2668c)との間の1つ以上の差の視覚インジケーションの表示をやめる(4016)(例えば、図39Cで視覚ガイダンスは表示されない)。いくつかの実施形態では、電子デバイスは、移動閾値を下回って留まっている間に、なんらかの移動を検出することができる。いくつかの実施形態では、視覚インジケーションが第1の時間に表示された後に、第1の時間とは異なる時間に、かつ視覚インジケーションを表示している間に、電子デバイスは、メディアのキャプチャの終了を検出し、メディアのキャプチャの終了を検出したことに応じて、電子デバイスは、表示デバイスを介して、視覚インジケーションを停止する。いくつかの実施形態では、電子デバイスは、電子デバイスの検出された移動が移動閾値よりも大きい第2の移動閾値(例えば、視覚インジケーションが表示されているときに満たされる移動閾値)を上回るとき、メディアをキャプチャすることを停止する。いくつかの実施形態では、視覚インジケーションは、第1の部分及び第2の部分を含む。いくつかの実施形態では、第1の部分は、静的である視覚インジケーションの一部分である。いくつかの実施形態では、第2の部分は、静的ではない視覚インジケーションの一部分である。いくつかの実施形態では、第1及び第2の部分は、静的ではない。いくつかの実施形態では、第1の部分は、電子デバイスの現在のポーズを表し、第2の部分は、メディアのキャプチャが開始されたときの電子デバイスのポーズを表す、又はその逆である。 In response to detecting (4010) movement of the electronic device (e.g., 600) at a first time after initiating capture of media, and in accordance with a determination (e.g., in FIG. 39C ) that a set of guidance criteria is not met (e.g., because the device has moved less than a movement threshold amount and/or because the capture duration for capturing the media falls below a duration threshold), the electronic device (e.g., 600) ceases to display (4016) via the display device a visual indication of one or more differences between the pose (e.g., 2668b) of the electronic device (e.g., 600) when capture of the media was initiated and the current pose (e.g., 2668c) of the electronic device (e.g., 600) (e.g., no visual guidance is displayed in FIG. 39C ). In some embodiments, the electronic device can detect any movement while remaining below the movement threshold. In some embodiments, after the visual indication is displayed at a first time, at a time different from the first time and while displaying the visual indication, the electronic device detects an end of the capture of the media, and in response to detecting an end of the capture of the media, the electronic device stops the visual indication via the display device. In some embodiments, the electronic device stops capturing the media when the detected movement of the electronic device exceeds a second movement threshold that is greater than the movement threshold (e.g., the movement threshold that is met when the visual indication is displayed). In some embodiments, the visual indication includes a first portion and a second portion. In some embodiments, the first portion is a portion of the visual indication that is static. In some embodiments, the second portion is a portion of the visual indication that is not static. In some embodiments, the first and second portions are not static. In some embodiments, the first portion represents a current pose of the electronic device and the second portion represents a pose of the electronic device when the capture of the media was initiated, or vice versa.

いくつかの実施形態では、メディアキャプチャユーザインタフェースは、メディアキャプチャアフォーダンス(例えば、610)(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、シャッターボタン)を含む。いくつかの実施形態では、メディアをキャプチャする要求を受信することの一部として、電子デバイス(例えば、600)は、メディアキャプチャアフォーダンス(例えば、610)の選択(例えば、3950a及び3950n)(例えば、アフォーダンス上のタップ)を検出する。 In some embodiments, the media capture user interface includes a media capture affordance (e.g., 610) (e.g., a selectable user interface object) (e.g., a shutter button). In some embodiments, as part of receiving a request to capture media, the electronic device (e.g., 600) detects a selection (e.g., 3950a and 3950n) of the media capture affordance (e.g., 610) (e.g., a tap on the affordance).

いくつかの実施形態では、電子デバイス(例えば、600)のポーズ(例えば、2668b、2668c)が第1の様式で変化した(例えば、図Eにおける2668b及び/又は2668c)(例えば、第1の軸の周りの回転又は第1の方向の平行移動)との判定に従って、メディアのキャプチャが開始されたときの電子デバイス(例えば、600)のポーズと電子デバイス(例えば、600)の現在のポーズとの間の1つ以上の差の視覚インジケーション(例えば、視覚ガイダンスの3970b)を表示することの一部として、電子デバイスは、外観の第1の変化を伴う視覚インジケーション(例えば、図39Eの視覚ガイダンスの3970b)を表示する。いくつかの実施形態では、外観の第1の変化の大きさ及び/又は方向は、第1の様式での電子デバイスのポーズの変化の大きさ及び/又は方向に基づく。いくつかの実施形態では、電子デバイス(例えば、600)のポーズ(例えば、2668b、2668c)が第1の様式とは異なる第2の様式(例えば、図39G及び/又は図39Jの2668b及び/又は2668c)で変化した(例えば、第1の軸とは異なる第2の軸の周りの回転、又は第1の方向とは異なる第2の方向の平行移動)との判定に従って、電子デバイス(例えば、600)は、外観の第2の変化を伴う視覚インジケーション(例えば、図39G及び/又は図39Jの視覚ガイダンスの3970b)を表示する。いくつかの実施形態では、外観の第1の変化の大きさ及び/又は方向は、第1の様式での電子デバイスのポーズの変化の大きさ及び/又は方向に基づく。いくつかの実施形態では、視覚インジケーションは、デバイスのポーズの変化の異なる様式(例えば、ヨー、ピッチ、ロール、及び/又はデバイスの原点からのx軸、y軸、若しくはz軸に沿った平行移動)に基づいて、3、4、5、又は6次元で変化する。いくつかの実施形態では、視覚インジケーションは、ある時点におけるデバイスのポーズの変化の1つの様式のみに応じて変化する。いくつかの実施形態では、視覚インジケーションは、ある時点におけるデバイスのポーズの変化の複数の様式に応じて変化する。 In some embodiments, pursuant to a determination that the pose (e.g., 2668b, 2668c) of the electronic device (e.g., 600) has changed in a first manner (e.g., rotation about a first axis or translation in a first direction) (e.g., 2668b and/or 2668c in FIG. E), as part of displaying a visual indication (e.g., 3970b of the visual guidance) of one or more differences between the pose of the electronic device (e.g., 600) when the capture of the media was initiated and the current pose of the electronic device (e.g., 600), the electronic device displays a visual indication (e.g., 3970b of the visual guidance in FIG. 39E) with a first change in appearance. In some embodiments, the magnitude and/or direction of the first change in appearance is based on the magnitude and/or direction of the change in the pose of the electronic device in the first manner. In some embodiments, pursuant to a determination that the pose (e.g., 2668b, 2668c) of the electronic device (e.g., 600) has changed in a second manner (e.g., 2668b and/or 2668c of FIG. 39G and/or FIG. 39J) different from the first manner (e.g., rotation about a second axis different from the first axis, or translation in a second direction different from the first direction), the electronic device (e.g., 600) displays a visual indication (e.g., 3970b of the visual guidance of FIG. 39G and/or FIG. 39J) with a second change in appearance. In some embodiments, the magnitude and/or direction of the first change in appearance is based on the magnitude and/or direction of the change in the pose of the electronic device in the first manner. In some embodiments, the visual indication changes in three, four, five, or six dimensions based on the different manners of change in the pose of the device (e.g., yaw, pitch, roll, and/or translation along the x-axis, y-axis, or z-axis from the origin of the device). In some embodiments, the visual indication changes in response to only one manner of change in the pose of the device at a time. In some embodiments, the visual indication changes in response to multiple manners of change in the pose of the device at a time.

いくつかの実施形態では、メディアのキャプチャが開始されたときの電子(例えば、デバイスのポーズ(例えば、2668b)と電子デバイスの現在のポーズ(例えば、2668c)との間の1つ以上の差の視覚インジケーション(例えば、視覚ガイダンス(例えば、3970b、3870c))を表示することの一部として、電子デバイスは、同時に、メディアのキャプチャが開始されたときの電子デバイスのポーズと電子デバイスの現在のポーズとの間の第1の差を示す視覚特性を有する視覚インジケーション(例えば、図39Gの視覚ガイダンス(例えば、3970cから離れるように平行移動される3970b))(例えば、平行移動の差(例えば、電子デバイスの現在のポーズは、メディアが開始されたときの電子デバイスのポーズから1つ以上の方向(例えば、上、左、右、下、斜め、又はこれらの任意の組み合わせ)に平行移動され、電子デバイスは、それぞれの位置から1つ以上の方向に動いた)(例えば、横方向又は垂直方向の平行移動及び/又は移動)を表示し、メディアのキャプチャが開始されたときの電子デバイスのポーズと電子デバイスの現在のポーズとの間の第2の差を示す視覚特性を有する視覚インジケーション(例えば、図39Gの視覚ガイダンス(例えば、3970cからそれに対して歪められている3970b))(例えば、回転の差(例えば、電子デバイスの現在のポーズは、メディアが開始されたときの電子デバイスのポーズから1つ以上の方向(例えば、時計回り、反時計回り、又は任意の角度での任意の軸の周りのそれらの任意の組み合わせ)に回転され(例えば、傾斜される、歪められる、屈曲される)、電子デバイスは、それぞれの位置)(例えば、向き)から1つ以上の方向に回転されている)を表示し、第1の差及び第2の差は、異なる種類の差(例えば、向きの差、平行移動)である。いくつかの実施形態では、視覚インジケーションは、軸(例えば、電子デバイスの軸)の周りの電子デバイスの回転に基づいて動く(例えば、位置を変更する)(例えば、視覚ガイダンスの一部分が動き、視覚インジケーションの別の部分は同じままである)。いくつかの実施形態では、電子デバイスは、視覚インジケーションの一部分(例えば、電子デバイスの現在のポーズを表す部分)の横方向変位を視覚的に表す。いくつかの実施形態では、固定半径が選択され、視覚インジケーションの動いている部分は、固定半径の中心の周りで回転する。いくつかの実施形態では、視覚インジケーションの動いている部分は、(例えば、固定半径の中心の周りで回転する)この回転の投影として表示される。キャプチャが開始されたときの電子デバイスのポーズとキャプチャが開始された後の電子デバイスのポーズとの間の複数の差を表す視覚ガイダンスインジケーションを表示することにより、複数の視覚ガイダンスインジケーションを表示してより雑然としたユーザインタフェースを提供することなしに、ユーザは、メディアキャプチャを改善するために差を迅速に識別して補正することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。キャプチャが開始されたときの電子デバイスのポーズとキャプチャが開始された後の電子デバイスのポーズとの間の複数の差を表す単一の視覚インジケーションを表示することにより、電子デバイスの現在のポーズを複数の様式でどのように調整するかを判定するために分析することができる1つの位置でのフィードバックを提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, as part of displaying a visual indication (e.g., visual guidance (e.g., 3970b, 3870c)) of one or more differences between the pose of the electronic device (e.g., 2668b) when capture of the media was initiated and the current pose of the electronic device (e.g., 2668c), the electronic device simultaneously displays a visual indication (e.g., visual guidance (e.g., 3970b, 3870c)) having visual characteristics indicative of a first difference between the pose of the electronic device when capture of the media was initiated and the current pose of the electronic device (e.g., the visual guidance of FIG. 39G (e.g., 3970b translated away from 3970c)) (e.g., a translation difference (e.g., the current pose of the electronic device has been translated in one or more directions (e.g., up, left, right, down, diagonally, or any combination thereof) from the pose of the electronic device when capture of the media was initiated and the electronic device has moved in one or more directions from the respective position) (e.g., a lateral or vertical translation and/or movement) and a visual indication (e.g., visual guidance (e.g., 3970b, 3870c)) having visual characteristics indicative of a second difference between the pose of the electronic device when capture of the media was initiated and the current pose of the electronic device (e.g., the pose of the electronic device when capture of the media was initiated and the current pose of the electronic device). For example, the visual guidance of FIG. 39G (e.g., 3970b distorted relative to 3970c) may display a difference in rotation (e.g., the current pose of the electronic device is rotated (e.g., tilted, skewed, bent) in one or more directions (e.g., clockwise, counterclockwise, or any combination thereof about any axis at any angle) from the pose of the electronic device when the media was started, and the electronic device is rotated in one or more directions from the respective position) (e.g., orientation), where the first difference and the second difference are different types of differences (e.g., orientation difference, translation). In some embodiments, the visual indication moves (e.g., changes position) based on a rotation of the electronic device about an axis (e.g., an axis of the electronic device) (e.g., a portion of the visual guidance moves and another portion of the visual indication remains the same). In some embodiments, the electronic device visually represents a lateral displacement of a portion of the visual indication (e.g., the portion representing the current pose of the electronic device). In some embodiments, a fixed radius is selected and the moving portion of the visual indication rotates about a center of the fixed radius. In some embodiments, the moving portion of the visual indication is displayed as a projection of this rotation (e.g., rotating around a center of fixed radius). Displaying visual guidance indications representing multiple differences between the pose of the electronic device when capture was initiated and the pose of the electronic device after capture was initiated allows a user to quickly identify and correct the differences to improve media capture without displaying multiple visual guidance indications to provide a more cluttered user interface. Providing improved visual feedback to the user improves device usability and provides a more efficient user-device interface (e.g., by assisting the user in providing appropriate inputs and reducing user errors when operating/interacting with the device), which in turn reduces device power usage and improves battery life by allowing the user to use the device more quickly and efficiently. Displaying a single visual indication representing multiple differences between the pose of the electronic device when capture was initiated and the pose of the electronic device after capture was initiated provides feedback in one location that can be analyzed to determine how to adjust the current pose of the electronic device in multiple ways. Providing improved visual feedback to the user improves usability of the device and makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs and reducing user errors when operating/interacting with the device), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、視覚インジケーションは、メディアのキャプチャが開始されたときの電子デバイスのポーズを表す視覚インジケーションの第1の部分(例えば、3970b)(例えば、第1の1組の1つ以上の形状(例えば、第1のボックス、十字形、円/楕円、1つ以上の線))と、電子デバイスの現在のポーズを表す視覚インジケーションの第2の部分(例えば、3970c)(例えば、第2の1組の1つ以上の形状(例えば、第2のボックス、十字形、円/楕円、1つ以上の線))と、を含む。いくつかの実施形態では、メディアのキャプチャを開始した後の第1の時間における電子デバイスの移動(例えば、回転移動(例えば、電子デバイスの向き(例えば、現在の向き)を変更する移動))を検出したことに応じて、視覚インジケーションを表示することの一部として、電子デバイスは、メディアのキャプチャが開始された後の電子デバイスのポーズの変化に応じて変化する外観(例えば、図39F~図39Gの3970c)で(かつ、いくつかの実施形態では、視覚インジケーションの別の部分の外観を変更することなく)視覚インジケーションの第1の部分(例えば、3790b)及び第2の部分(例えば、3790c)のうちの少なくとも1つを表示する。 In some embodiments, the visual indication includes a first portion (e.g., 3970b) of the visual indication representing a pose of the electronic device when media capture was initiated (e.g., a first set of one or more shapes (e.g., a first box, cross, circle/oval, one or more lines)) and a second portion (e.g., 3970c) of the visual indication representing a current pose of the electronic device (e.g., a second set of one or more shapes (e.g., a second box, cross, circle/oval, one or more lines)). In some embodiments, as part of displaying a visual indication in response to detecting a movement of the electronic device (e.g., a rotational movement (e.g., a movement that changes the orientation (e.g., current orientation) of the electronic device) at a first time after initiating capture of media, the electronic device displays at least one of a first portion (e.g., 3790b) and a second portion (e.g., 3790c) of the visual indication with an appearance (e.g., 3970c in FIGS. 39F-39G) that changes in response to a change in the pose of the electronic device after capture of media is initiated (and in some embodiments, without changing the appearance of another portion of the visual indication).

いくつかの実施形態では、視覚インジケーションは、視覚インジケーションの一部分(例えば、3970b)(例えば、電子デバイスの元のポーズ又は現在のポーズを表す)(例えば、1つ以上の形状(例えば、第2のボックス、十字形、円/楕円、1つ以上の線))を含む。いくつかの実施形態では、メディアのキャプチャを開始した後の第1の時間における電子デバイスの移動(例えば、回転移動(例えば、電子デバイスの向き(例えば、現在の向き)を変更する移動))を検出したことに応じて、視覚インジケーションを表示することの一部として、電子デバイスは、電子デバイスの回転量に基づいて判定される第1の回転量(例えば、回転量(例えば、1、2、5、10、15、25、45度))(例えば、ピッチ、ヨー、ロール回転、又はこれらの任意の組み合わせ)、回転された視覚インジケーションの一部分(例えば、39I又は39Gの3970b)を表示する。いくつかの実施形態では、視覚インジケーションは、メディアのキャプチャが開始されたときの電子デバイスのポーズを表す視覚インジケーションの第1の部分(例えば、1組の1つ以上の形状(例えば、ボックス、十字形、円/楕円、又は1つ以上の線))を含む。いくつかの実施形態では、視覚インジケーションは、電子デバイスの現在のポーズを表す視覚インジケーションの第2の部分(例えば、1組の1つ以上の形状(例えば、ボックス、十字形、円、又は1つ以上の線))を含む。いくつかの実施形態では、視覚インジケーションの第2の部分は、第1の部分の周りの第1の回転に対して回転される。いくつかの実施形態では、第1の部分は、回転され、第2の部分は、静的である(例えば、回転しない)。いくつかの実施形態では、第2の部分は、回転され、第1の部分は、静的である(例えば、回転しない)。いくつかの実施形態では、第1の部分及び第2の部分は、回転される。いくつかの実施形態では、第1の部分は、静的である視覚インジケーションの一部分である。いくつかの実施形態では、第2の部分は、静的ではない視覚インジケーションの一部分である。キャプチャが開始されたときの電子デバイスのポーズを表す一部分及びキャプチャが開始された後の電子デバイスのポーズを表す一部分を含む視覚ガイダンスを表示することにより、ユーザは、電子デバイスのポーズの関係的な変化を迅速に識別することができ、これにより、(メディアをキャプチャするプロセス全体を通してデバイスがより安定したポーズに留まることができるため、使用可能な写真をキャプチャするために要する回数が低減されるように)ユーザは、メディアキャプチャを改善するためにポーズを迅速に補正することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the visual indication includes a portion (e.g., 3970b) of the visual indication (e.g., representing an original pose or a current pose of the electronic device) (e.g., one or more shapes (e.g., a second box, a cross, a circle/oval, one or more lines)). In some embodiments, as part of displaying the visual indication in response to detecting a movement of the electronic device (e.g., a rotational movement (e.g., a movement that changes an orientation (e.g., a current orientation) of the electronic device) at a first time after starting to capture media), the electronic device displays a rotated portion (e.g., 3970b of 39I or 39G) of the visual indication based on a first amount of rotation (e.g., an amount of rotation (e.g., 1, 2, 5, 10, 15, 25, 45 degrees)) determined based on an amount of rotation of the electronic device (e.g., pitch, yaw, roll rotation, or any combination thereof). In some embodiments, the visual indication includes a first portion of the visual indication (e.g., a set of one or more shapes (e.g., a box, a cross, a circle/oval, or one or more lines)) that represents a pose of the electronic device when capture of the media was initiated. In some embodiments, the visual indication includes a second portion of the visual indication (e.g., a set of one or more shapes (e.g., a box, a cross, a circle, or one or more lines)) that represents a current pose of the electronic device. In some embodiments, the second portion of the visual indication is rotated relative to the first rotation about the first portion. In some embodiments, the first portion is rotated and the second portion is static (e.g., does not rotate). In some embodiments, the second portion is rotated and the first portion is static (e.g., does not rotate). In some embodiments, the first portion and the second portion are rotated. In some embodiments, the first portion is a portion of the visual indication that is static. In some embodiments, the second portion is a portion of the visual indication that is not static. By displaying visual guidance that includes a portion representative of the pose of the electronic device when capture is initiated and a portion representative of the pose of the electronic device after capture is initiated, a user can quickly identify relative changes in the pose of the electronic device, which can allow the user to quickly correct the pose to improve media capture (such that the device can remain in a more stable pose throughout the media capture process, thereby reducing the number of times it takes to capture a usable photograph). Providing improved visual feedback to the user can improve device usability and provide a more efficient user-device interface (e.g., by assisting the user in providing appropriate inputs and reducing user errors when operating/interacting with the device), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1の回転量だけ回転された(例えば、図39Iのように)(例えば、ピッチ、ヨー、ロール回転、又はそれらの任意の組み合わせ)視覚インジケーションの一部分を表示している間に、回転された視覚インジケーションの一部分を表示することの一部として、電子デバイスは、メディアのキャプチャを開始した後の第2の時間における電子デバイスの回転移動(例えば、回転又は向きの変化)を検出する。いくつかの実施形態では、メディアのキャプチャを開始した後の第1の時間は、メディアのキャプチャを開始した後の第2の時間の前である。いくつかの実施形態では、メディアのキャプチャを開始した後の第2の時間における電子デバイスの回転移動(例えば、図39Gの2668b、2668c)(例えば、ジャイロスコープによって検出された回転の変化などの回転の変化(例えば、ヨー、ピッチ、ロール))を検出したことに応じて、電子デバイスは、検出された回転移動の量に基づいて判定される第2の回転量(例えば、回転量(例えば、1、2、5、10、15、25、45度))、視覚インジケーションの一部分(例えば、39Gの3970b)を回転させる(例えば、ヨー、ピッチ、ロール(又はこれらの任意の組み合わせ)回転を介して変更する)。(例えば、メディアのキャプチャを開始した後の第2の時間における電子デバイスの回転量)、第2の回転量は、第1の回転量とは異なる(例えば、より多い又はより少ない)。いくつかの実施形態では、メディアのキャプチャを開始した後の第1の時間は、メディアのキャプチャを開始した後の第2の時間の前である。いくつかの実施形態では、電子デバイスは、視覚インジケーションの第1の部分(及び/又は第2の部分)に対して(例えば、その周りで)回転された視覚インジケーションの第2の部分(及び/又は第1の部分)を表示する(例えば、メディアのキャプチャを開始した後の第2の時間における電子デバイスの回転移動を検出したことに応じて)。いくつかの実施形態では、電子デバイスは、視覚インジケーションの第1の部分(及び/又は第2の部分)に対して第1の回転量から第2の回転量に回転する第2の部分(及び/又は第1の部分)のアニメーションを表示する。いくつかの実施形態では、電子デバイスの現在のポーズ(例えば、第2の時間における電子デバイスのポーズ)が、メディアのキャプチャが開始されたときの電子デバイスのポーズから電子デバイスの以前のポーズ(例えば、第1の時間における電子デバイスのポーズ)よりも更に回転された(又はより大きい回転角度を有する)(又はより小さい)とき、視覚インジケーションの第2の部分は、視覚インジケーションの第1の部分に対してより大きく(又はより小さく)回転される(又は、換言すれば、第2の回転量は、第1の回転量よりも大きい(又は、視覚インジケーションの第2の部分がより小さく歪められたとき、より小さい))、又はその逆である。電子デバイスの回転に基づいて視覚ガイダンスの一部分を回転させることにより、キャプチャが開始されたときの電子デバイスの向き及び電子デバイスの現在のポーズに関する情報をユーザに提供し、ユーザは、電子デバイスのポーズの回転変化を迅速に識別することができ、これにより、(メディアをキャプチャするプロセス全体を通してデバイスがより安定したポーズに留まることができるため、使用可能な写真をキャプチャするために要する回数が低減されるように)ユーザは、メディアキャプチャを改善するためにポーズを迅速に補正することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, while displaying a portion of the visual indication rotated (e.g., as in FIG. 39I) by a first rotational amount (e.g., pitch, yaw, roll rotation, or any combination thereof), as part of displaying the portion of the visual indication that is rotated, the electronic device detects a rotational movement (e.g., a change in rotation or orientation) of the electronic device at a second time after initiating capture of media. In some embodiments, the first time after initiating capture of media is before the second time after initiating capture of media. In some embodiments, in response to detecting a rotational movement (e.g., 2668b, 2668c of FIG. 39G) of the electronic device (e.g., a rotational change (e.g., yaw, pitch, roll) such as a change in rotation detected by a gyroscope) at a second time after initiating capture of media, the electronic device rotates (e.g., modifies via a yaw, pitch, roll (or any combination thereof) rotation) a portion (e.g., 3970b of FIG. 39G) of the visual indication a second rotation amount (e.g., a rotation amount (e.g., 1, 2, 5, 10, 15, 25, 45 degrees)) determined based on the amount of the detected rotational movement (e.g., the amount of rotation of the electronic device at a second time after initiating capture of media), the second rotation amount being different (e.g., more or less) than the first rotation amount. In some embodiments, the first time after initiating capture of media is prior to the second time after initiating capture of media. In some embodiments, the electronic device displays the second portion (and/or the first portion) of the visual indication rotated relative to (e.g., about) the first portion (and/or the second portion) of the visual indication (e.g., in response to detecting a rotational movement of the electronic device at a second time after starting to capture the media). In some embodiments, the electronic device displays an animation of the second portion (and/or the first portion) rotating from a first amount of rotation to a second amount of rotation relative to the first portion (and/or the second portion) of the visual indication. In some embodiments, when the current pose of the electronic device (e.g., the pose of the electronic device at the second time) is rotated further (or has a larger rotation angle) (or is smaller) from the pose of the electronic device when capture of the media was initiated than a previous pose of the electronic device (e.g., the pose of the electronic device at the first time), the second portion of the visual indication is rotated more (or less) relative to the first portion of the visual indication (or, in other words, the second amount of rotation is greater (or is smaller when the second portion of the visual indication is less distorted) than the first amount of rotation), or vice versa. Rotating a portion of the visual guidance based on the rotation of the electronic device provides the user with information regarding the orientation of the electronic device when capture was initiated and the current pose of the electronic device, allowing the user to quickly identify rotational changes in the pose of the electronic device, which in turn allows the user to quickly correct the pose to improve media capture (such that the device can remain in a more stable pose throughout the process of capturing media, thereby reducing the number of times it takes to capture a usable photograph). Providing improved visual feedback to the user improves usability of the device and makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、視覚インジケーションは、視覚インジケーションの一部分(例えば、39Fの3970b)(例えば、メディアのキャプチャが開始されたときの電子デバイスのポーズを表す部分(例えば、39Fの3970b)又は電子デバイスの現在のポーズを表す視覚インジケーションの一部分(例えば、39Fの3970c))を含む。いくつかの実施形態では、メディアのキャプチャを開始した後の第1の時間における電子デバイスの移動(例えば、回転移動(例えば、電子デバイスの向き(例えば、現在の向き)を変更する移動))を検出したことに応じて、視覚インジケーションを表示することの一部として、電子デバイスは、第1のスキュー量(例えば、別の部分(例えば、39Fの3970c)に対して第1の量(例えば、屈曲の角度量(例えば、1~180度)))を有する(又は歪められた)部分(例えば、39Fの3970b)を表示する。 In some embodiments, the visual indication includes a portion of the visual indication (e.g., 3970b of 39F) (e.g., a portion representing a pose of the electronic device when media capture was initiated (e.g., 3970b of 39F) or a portion of the visual indication representing a current pose of the electronic device (e.g., 3970c of 39F). In some embodiments, as part of displaying the visual indication in response to detecting a movement of the electronic device (e.g., a rotational movement (e.g., a movement that changes an orientation (e.g., current orientation) of the electronic device)) at a first time after media capture was initiated, the electronic device displays a portion (e.g., 3970b of 39F) that has a first skew amount (e.g., a first amount (e.g., an angular amount of bending (e.g., 1-180 degrees))) relative to another portion (e.g., 3970c of 39F)).

いくつかの実施形態では、第1のスキュー量を有する一部分を表示することの一部として、電子デバイスは、メディアのキャプチャを開始した後の第3の時間における電子デバイスの移動(例えば、回転、傾斜、スキュー移動)(例えば、図39Gの傾斜(例えば、2668b及び2668cによって示される))(例えば、向きの変化)を検出する。いくつかの実施形態では、メディアのキャプチャを開始した後の第1の時間は、メディアのキャプチャを開始した後の第3の時間の前である。いくつかの実施形態では、メディアのキャプチャを開始した後の第3の時間における電子デバイスの移動を検出したことに応じて、電子デバイスは、(例えば、別の部分(例えば、図39Gの3970b)に対して)第2のスキュー量を有する(又は歪められた)一部分(例えば、図39Gの3970c)を表示し(例えば、歪める)、第2のスキュー量は、第1のスキュー量とは異なる(例えば、より大きい又はより小さい)(例えば、屈曲の角度量(例えば、1~180度))。いくつかの実施形態では、メディアのキャプチャを開始した後の第1の時間は、メディアのキャプチャを開始した後の第3の時間の前である。いくつかの実施形態では、電子デバイスは、視覚インジケーションの第1の部分(又は第2の部分)の周りに(又はそれから離れるように)歪められた又は屈曲された視覚インジケーションの第2の部分(又は第1の部分)を表示する(例えば、メディアのキャプチャを開始した後の第3の時間における電子デバイスの回転移動を検出したことに応じて)。いくつかの実施形態では、電子デバイスは、第1のスキュー量から第2のスキュー量に屈曲する又は歪められる第1の部分(又は第2の部分)のアニメーションを表示する。いくつかの実施形態では、電子デバイスの現在のポーズ(例えば、第3の時間における電子デバイスのポーズ)が、メディアのキャプチャが開始されたときの電子デバイスのポーズから電子デバイスの以前のポーズ(例えば、第1の時間における電子デバイスのポーズ)よりも更に回転された(例えば、より大きい回転角度を有する)(又はより小さい)とき、視覚インジケーションの第2の部分(又は第1の部分)は、より大きく(又はより小さく)歪められる又は屈曲される(又は、換言すれば、第2のスキュー量は、第1のスキュー量よりも大きい(又は、視覚インジケーションの第2の部分がより小さく歪められた又は屈曲されたとき、より小さい))。電子デバイスの回転に基づいて視覚ガイダンスの一部分を歪めることにより、キャプチャが開始されたときの電子デバイスの向き及びキャプチャが開始された後の電子デバイスのポーズを表す第2に関する情報をユーザに提供し、ユーザは、電子デバイスのポーズのスキュー変化を迅速に識別することができ、これにより、(メディアをキャプチャするプロセス全体を通してデバイスがより安定したポーズに留まることができるため、使用可能な写真をキャプチャするために要する回数が低減されるように)ユーザは、メディアキャプチャを改善するためにポーズを迅速に補正することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, as part of displaying the portion having the first amount of skew, the electronic device detects a movement (e.g., rotation, tilt, skew movement) of the electronic device (e.g., tilt (e.g., as shown by 2668b and 2668c) in FIG. 39G) (e.g., a change in orientation) at a third time after initiating capture of the media. In some embodiments, the first time after initiating capture of the media is prior to a third time after initiating capture of the media. In some embodiments, in response to detecting a movement of the electronic device at a third time after initiating capture of the media, the electronic device displays (e.g., distorts) the portion (e.g., 3970c in FIG. 39G) having a second amount of skew (or distorted) (e.g., relative to another portion (e.g., 3970b in FIG. 39G)), the second amount of skew being different (e.g., greater or less) than the first amount of skew (e.g., an angular amount of bend (e.g., between 1 and 180 degrees)). In some embodiments, the first time after initiating capture of the media is prior to a third time after initiating capture of the media. In some embodiments, the electronic device displays the second portion (or the first portion) of the visual indication distorted or bent around (or away from) the first portion (or the second portion) of the visual indication (e.g., in response to detecting a rotational movement of the electronic device at a third time after initiating capture of the media). In some embodiments, the electronic device displays an animation of the first portion (or the second portion) being bent or distorted from a first skew amount to a second skew amount. In some embodiments, the second portion (or the first portion) of the visual indication is distorted or bent more (or less) when a current pose of the electronic device (e.g., the pose of the electronic device at the third time) is rotated further (e.g., has a larger rotation angle) (or less) from the pose of the electronic device when capture of the media was initiated than a previous pose of the electronic device (e.g., the pose of the electronic device at the first time) (or in other words, the second skew amount is greater than the first skew amount (or less when the second portion of the visual indication is distorted or bent less)). Distorting a portion of the visual guidance based on the rotation of the electronic device provides the user with second information representative of the orientation of the electronic device when capture was initiated and the pose of the electronic device after capture was initiated, allowing the user to quickly identify skew changes in the pose of the electronic device, which allows the user to quickly correct the pose to improve media capture (such that the device can remain in a more stable pose throughout the media capture process, thereby reducing the number of times it takes to capture a usable photograph). Providing the user with improved visual feedback improves usability of the device and provides a more efficient user-device interface (e.g., by assisting the user in providing appropriate inputs and reducing user errors when operating/interacting with the device), which in turn reduces the power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、視覚インジケーションは、視覚インジケーションの一部分(例えば、図39Dの3970b)(例えば、電子デバイスの元のポーズ(又は現在のポーズ)を表す(例えば、1組の1つ以上の形状(例えば、ボックス、十字形、円/楕円、1つ以上の線)))を含む。いくつかの実施形態では、メディアのキャプチャを開始した後の第1の時間における電子デバイスの移動(例えば、図39Dの2668b及び2668c)(例えば、平行移動)を検出したことに応じて、視覚インジケーションを表示することの一部として、電子デバイスは、視覚インジケーションの一部分を第1の位置(例えば、図39Dの3970b)(例えば、電子デバイスの位置(例えば、2668c)に基づいて判定される位置(例えば、表示デバイス上の)(かつ、いくつかの実施形態では、一部分の重心は、第1の位置にある))に表示する。いくつかの実施形態では、第1の距離の量は、メディアのキャプチャが開始されたときの電子デバイスのポーズから電子デバイスの現在のポーズへの電子デバイスの平行移動の量に基づく。いくつかの実施形態では、視覚インジケーションの一部分の位置は、電子デバイスが移動した方向に基づく。いくつかの実施形態では、視覚インジケーションは、メディアのキャプチャが開始されたときの電子デバイスのポーズを表す視覚インジケーションの第1の部分(例えば、1組の1つ以上の形状(例えば、ボックス、十字形、円/楕円、1つ以上の線))を含む。いくつかの実施形態では、視覚インジケーションは、電子デバイスの現在のポーズを表す視覚インジケーションの第2の部分(例えば、1組の1つ以上の形状(例えば、ボックス、十字形、円/楕円、1つ以上の線))を含む。いくつかの実施形態では、視覚インジケーションの第2の部分は、第1の部分に対して平行移動される。いくつかの実施形態では、第1の部分は、平行移動され、第2の部分は、静的である。いくつかの実施形態では、第2の部分は、平行移動され、第1の部分は、静的である。いくつかの実施形態では、第1の部分及び第2の部分は、平行移動される。いくつかの実施形態では、視覚インジケーションの一部分は、第1の部分又は第2の部分から第1の距離(例えば、各部分の中心(例えば、部分の重心)からの距離)である。 In some embodiments, the visual indication includes a portion of the visual indication (e.g., 3970b of FIG. 39D ) (e.g., a set of one or more shapes (e.g., box, cross, circle/oval, one or more lines)) that represents the original pose (or current pose) of the electronic device. In some embodiments, as part of displaying the visual indication in response to detecting a movement (e.g., 2668b and 2668c of FIG. 39D ) (e.g., translation) of the electronic device at a first time after initiating media capture, the electronic device displays the portion of the visual indication at a first location (e.g., 3970b of FIG. 39D ) (e.g., a location (e.g., on a display device) that is determined based on the position (e.g., 2668c) of the electronic device (and in some embodiments, a center of gravity of the portion is at the first location). In some embodiments, the first amount of distance is based on an amount of translation of the electronic device from a pose of the electronic device when media capture was initiated to a current pose of the electronic device. In some embodiments, the location of the portion of the visual indication is based on a direction in which the electronic device moved. In some embodiments, the visual indication includes a first portion of the visual indication (e.g., a set of one or more shapes (e.g., a box, a cross, a circle/ellipse, one or more lines)) that represents a pose of the electronic device when capture of the media was initiated. In some embodiments, the visual indication includes a second portion of the visual indication (e.g., a set of one or more shapes (e.g., a box, a cross, a circle/ellipse, one or more lines)) that represents a current pose of the electronic device. In some embodiments, the second portion of the visual indication is translated relative to the first portion. In some embodiments, the first portion is translated and the second portion is static. In some embodiments, the second portion is translated and the first portion is static. In some embodiments, the first portion and the second portion are translated. In some embodiments, a portion of the visual indication is a first distance from the first portion or the second portion (e.g., a distance from a center of each portion (e.g., a center of gravity of the portion)).

いくつかの実施形態では、第1の位置(例えば、図39Dの3970b)に視覚インジケーションの一部分を表示することの一部として、電子デバイスは、メディアのキャプチャを開始した後の第4の時間における電子デバイスの平行移動(例えば、図39Fの2668b、2668c)(例えば、1つ以上の方向(例えば、上、左、右、下、斜め、又はこれらの任意の組み合わせ)の移動)を検出する。いくつかの実施形態では、メディアのキャプチャを開始した後の第1の時間は、メディアのキャプチャを開始した後の第4の時間の前である。いくつかの実施形態では、メディアのキャプチャを開始した後の第4の時間における電子デバイスの平行移動を検出したことに応じて、電子デバイスは、視覚インジケーションの一部分を第2の位置(例えば、図39Eの3970b)(例えば、位置(例えば、表示デバイス上の又はシーンに対する)(及び、いくつかの実施形態では、一部分の重心は、第1の位置にある))に(例えば、平行移動、移動、又はシフトを介して)表示し、第2の部分は、電子デバイスの平行移動に基づいて判定される電子デバイスの平行移動(例えば、第4の時間における電子デバイスの位置)に基づく第1の位置から第2の位置までの距離、平行移動され、第2の位置は、第1の位置とは異なる。いくつかの実施形態では、メディアのキャプチャを開始した後の第4の時間における電子デバイスの平行移動を検出したことに応じて、電子デバイスは、視覚インジケーションの別の部分から第2の距離に視覚インジケーションの一部分を平行移動させ(例えば、動かす、シフトさせる)、第2の距離は、第1の距離とは異なる(例えば、それよりも大きい又はそれよりも小さい)。いくつかの実施形態では、電子デバイスは、視覚インジケーションの第1の部分に対して(例えば、それから離れるように、近づくように)平行移動された視覚インジケーションの第2の部分を表示する(例えば、メディアのキャプチャを開始した後の第4の時間における電子デバイスの平行移動を検出したことに応じて)。いくつかの実施形態では、電子デバイスは、視覚インジケーションの第1の(又は第2の)部分から離れる第1の距離である位置から視覚インジケーションの第1の(又は第2の)部分から離れる第2の距離である位置に動く第2の(又は第1の)部分のアニメーションを表示する。いくつかの実施形態では、電子デバイスの現在のポーズ(例えば、第4の時間における電子デバイスのポーズ)が、メディアのキャプチャが開始されたときの電子デバイスのポーズから電子デバイスの以前のポーズ(例えば、第1の時間における電子デバイスのポーズ)よりも更に(又はより小さく)平行移動された(例えば、横方向に平行移動された)とき、視覚インジケーションの第2の部分は、視覚インジケーションの第1の部分から更に離れている(又はより近い)(又は、換言すれば、第2の距離は、第1の距離よりも大きい(又は、視覚インジケーションの第2の部分が視覚インジケーションの第1の部分により近いとき、より小さい))、又はその逆である。電子デバイスの平行移動に基づいて視覚ガイダンスの一部分を平行移動させることにより、キャプチャが開始されたときの電子デバイスの向き及びキャプチャが開始された後の電子デバイスのポーズを表す第2に関する情報をユーザに提供し、ユーザは、電子デバイスのポーズの平行移動変化を迅速に識別することができ、これにより、(メディアをキャプチャするプロセス全体を通してデバイスがより安定したポーズに留まることができるため、使用可能な写真をキャプチャするために要する回数が低減されるように)ユーザは、メディアキャプチャを改善するためにポーズを迅速に補正することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, as part of displaying a portion of the visual indication at a first location (e.g., 3970b of FIG. 39D), the electronic device detects translational movement (e.g., 2668b, 2668c of FIG. 39F) (e.g., movement in one or more directions (e.g., up, left, right, down, diagonally, or any combination thereof)) of the electronic device at a fourth time after initiating capture of the media. In some embodiments, the first time after initiating capture of the media is before the fourth time after initiating capture of the media. In some embodiments, in response to detecting a translation of the electronic device at a fourth time after starting to capture media, the electronic device displays (e.g., via translation, movement, or shift) a portion of the visual indication at a second location (e.g., 3970b of FIG. 39E ) (e.g., a position (e.g., on the display device or relative to the scene) (and in some embodiments, a center of gravity of the portion is at the first location)), where the second portion is translated a distance from the first location to the second location based on the translation of the electronic device (e.g., the position of the electronic device at the fourth time) determined based on the translation of the electronic device, where the second location is different from the first location. In some embodiments, in response to detecting a translation of the electronic device at a fourth time after starting to capture media, the electronic device translates (e.g., moves, shifts) a portion of the visual indication to a second distance from another portion of the visual indication, where the second distance is different (e.g., greater than or less than) the first distance. In some embodiments, the electronic device displays a second portion of the visual indication translated relative to (e.g., away from, toward) the first portion of the visual indication (e.g., in response to detecting translation of the electronic device at a fourth time after starting to capture the media). In some embodiments, the electronic device displays an animation of the second (or first) portion moving from a position that is a first distance away from the first (or second) portion of the visual indication to a position that is a second distance away from the first (or second) portion of the visual indication. In some embodiments, when a current pose of the electronic device (e.g., the pose of the electronic device at the fourth time) is translated (e.g., translated laterally) further (or less) from the pose of the electronic device when capture of the media was initiated than a previous pose of the electronic device (e.g., the pose of the electronic device at the first time), the second portion of the visual indication is further away (or closer) from the first portion of the visual indication (or, in other words, the second distance is greater than the first distance (or less when the second portion of the visual indication is closer to the first portion of the visual indication)), or vice versa. Translating a portion of the visual guidance based on the translation of the electronic device provides the user with second information representative of the orientation of the electronic device when capture was initiated and the pose of the electronic device after capture was initiated, allowing the user to quickly identify translational changes in the pose of the electronic device, which in turn allows the user to quickly correct the pose to improve media capture (such that the device may remain in a more stable pose throughout the process of capturing media, thereby reducing the number of times it takes to capture a usable photograph). Providing improved visual feedback to the user improves usability of the device and makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、視覚インジケーションは、1つ以上の差の大きさ(例えば、3970cと比較したときの3970b)(例えば、電子デバイスの現在の(例えば、又は以前の)ポーズとメディアのキャプチャが開始されたときの電子デバイスのポーズとの間の距離又は角度)を示す。いくつかの実施形態では、1つ以上の差の大きさは、複数の差の組み合わされた大きさである。いくつかの実施形態では、大きさは、1つ以上の差のそれぞれの差の大きさである。 In some embodiments, the visual indication indicates a magnitude of one or more differences (e.g., 3970b as compared to 3970c) (e.g., a distance or angle between a current (e.g., or previous) pose of the electronic device and a pose of the electronic device when media capture was initiated). In some embodiments, the magnitude of the one or more differences is a combined magnitude of multiple differences. In some embodiments, the magnitude is a respective difference magnitude of the one or more differences.

いくつかの実施形態では、電子デバイスのポーズがメディアのキャプチャが開始されたときの電子デバイスのポーズと異なる第1の時間において、視覚インジケーションは、メディアキャプチャユーザインタフェース上の第1の位置に表示された、メディアのキャプチャが開始されたときの電子デバイスのポーズを表す視覚インジケーションの第1の部分(例えば、3970b)を含み、視覚インジケーションは、メディアキャプチャユーザインタフェース上の第1の位置とは異なるメディアキャプチャユーザインタフェース上の第2の位置に、電子デバイスの現在のポーズを表す視覚インジケーションの第2の部分(例えば、3970c)を含む。 In some embodiments, at a first time when the pose of the electronic device is different from the pose of the electronic device when media capture was initiated, the visual indication includes a first portion (e.g., 3970b) of the visual indication representing the pose of the electronic device when media capture was initiated displayed at a first location on the media capture user interface, and the visual indication includes a second portion (e.g., 3970c) of the visual indication representing the current pose of the electronic device at a second location on the media capture user interface that is different from the first location on the media capture user interface.

いくつかの実施形態では、第1の位置に視覚インジケーションの第1の部分(例えば、図39Gの3970b)を表示し、かつ第2の位置に視覚インジケーションの第2の部分(例えば、図39Gの3970c)を表示した後に、かつメディアをキャプチャしている間に、電子デバイスは、メディアのキャプチャを開始した後の第5の時間における電子デバイスの移動を検出する(かつ/又は電子デバイスのポーズ(例えば、位置又は向き)の変化を検出する)。いくつかの実施形態では、メディアのキャプチャを開始した後の第1の時間は、メディアのキャプチャを開始した後の第5の時間の前である。いくつかの実施形態では、メディアのキャプチャが開始されたときの電子デバイスのポーズと、メディアのキャプチャを開始した後の第1の時間における電子デバイスのポーズと間の差が存在するときに、ディスプレイ上の第2の位置(例えば、オフセット位置)は、メディアキャプチャユーザインタフェース上の第1の位置とは異なる。いくつかの実施形態では、メディアのキャプチャを開始した後の第5の時間における電子デバイスの移動を検出したことに応じて、かつメディアのキャプチャが開始されたときの電子デバイスのポーズと電子デバイスの現在のポーズとの間の1つ以上の差が1つ以上の閾値量差未満(又は内)であるとの判定に従って(例えば、電子デバイスの現在の回転及び/又は現在の平行移動は、メディアのキャプチャが開始されたときの電子デバイスの回転及び平行移動の閾値回転及び閾値平行移動とともにある)、メディアカメラユーザインタフェース上の第2の位置(例えば、図39Hの3970c)に電子デバイスは、視覚インジケーションの第1の部分(例えば、図39Hの3970b)(例えば、第1の1つ以上の形状)を表示し、視覚インジケーションの第1の部分(例えば、第1の1組の1つ以上の形状)及び視覚インジケーションの第2の部分(例えば、第2の1組の1つ以上の形状)は、互いに重なり合う(例えば、1つの部分が別の部分の上に重ね合わされる)。いくつかの実施形態では、視覚インジケーションの第1の部分及び視覚インジケーションの第2の部分のうちの少なくとも1つは、第1の部分及び第2の部分が互いに重なり合う又は重ね合わされたときに、半透明である。いくつかの実施形態では、メディアのキャプチャが開始されたときの電子デバイスのポーズと電子デバイスの現在のポーズとの間の1つ以上の差が1つ以上の閾値差量内にないとの判定に従って、電子デバイスは、第1の位置とは異なるメディアカメラユーザインタフェース上の位置に視覚インジケーションの第2の部分を表示し、視覚インジケーションの第1の部分及び視覚インジケーションの第2の部分は、互いに重ならない。 In some embodiments, after displaying a first portion of the visual indication (e.g., 3970b of FIG. 39G) at a first location and a second portion of the visual indication (e.g., 3970c of FIG. 39G) at a second location, and while capturing the media, the electronic device detects a movement of the electronic device (and/or detects a change in the pose (e.g., position or orientation) of the electronic device at a fifth time after initiating capture of the media). In some embodiments, the first time after initiating capture of the media is before the fifth time after initiating capture of the media. In some embodiments, the second position (e.g., offset position) on the display is different from the first position on the media capture user interface when a difference exists between the pose of the electronic device when capture of the media was initiated and the pose of the electronic device at the first time after capture of the media was initiated. In some embodiments, in response to detecting a movement of the electronic device at a fifth time after initiating capture of the media, and in accordance with a determination that one or more differences between the pose of the electronic device when capture of the media was initiated and the current pose of the electronic device are less than (or within) one or more threshold amount differences (e.g., the current rotation and/or the current translation of the electronic device is along with the threshold rotation and threshold translation of the rotation and translation of the electronic device when capture of the media was initiated), the electronic device displays a first portion of a visual indication (e.g., 3970b of FIG. 39H) (e.g., a first one or more shapes) at a second location (e.g., 3970c of FIG. 39H) on the media camera user interface, wherein the first portion of the visual indication (e.g., a first set of one or more shapes) and the second portion of the visual indication (e.g., a second set of one or more shapes) overlap each other (e.g., one portion is superimposed on another portion). In some embodiments, at least one of the first portion of the visual indication and the second portion of the visual indication is semi-transparent when the first portion and the second portion overlap or are superimposed on one another. In some embodiments, pursuant to a determination that one or more differences between a pose of the electronic device when capture of the media was initiated and a current pose of the electronic device are not within one or more threshold difference amounts, the electronic device displays the second portion of the visual indication at a location on the media camera user interface different from the first location, and the first portion of the visual indication and the second portion of the visual indication do not overlap one another.

いくつかの実施形態では、メディアのキャプチャを開始した後の第7の時間において、電子デバイスは、電子デバイスの移動を検出する(例えば、電子デバイスのポーズ(例えば、位置又は向き)の変化を検出する)。いくつかの実施形態では、メディアのキャプチャを開始した後の第1の時間は、メディアのキャプチャを開始した後の第6の時間の前である。いくつかの実施形態では、メディアのキャプチャを開始した後の第7の時間における電子の移動を検出したことに応じて、かつ電子デバイスのメディアのキャプチャを開始した後の第7の時間における検出された移動が第2の移動閾値(例えば、非ゼロ移動閾値(例えば、メディアのキャプチャが開始されたときの電子デバイスのポーズと電子デバイスの現在のポーズとの間の1つ以上の差が1つ以上の閾値差量(例えば、1つ以上の非ゼロ閾値距離量)内(又は未満)である))を上回らないとの判定に従って、視覚インジケーションの表示を停止する(例えば、図39Iで視覚ガイダンスがない)(例えば、視覚インジケーションの表示をフェードアウトする(例えば、非ゼロ期間にわたって視覚インジケーションを漸進的にフェードアウトする(例えば、その視覚プロミネンスを漸進的に減少させる))。いくつかの実施形態では、電子デバイスのメディアのキャプチャを開始した後の第7の時間における検出された移動が第2の移動閾値を上回らないとの判定に従って、電子デバイスは、視覚インジケーションを表示し続ける(又は視覚インジケーションの表示をフェードアウトしない)。いくつかの実施形態では、電子デバイスが戻る(又はその元のポーズの閾値距離以内にある)と、電子デバイスは、視覚インジケーションを表示することを停止する。所定の条件が満たされているときに、視覚ガイダンスを表示することを停止することにより、ユーザは、バッテリ寿命を無駄にすることなく、かつ視覚ガイダンスがそれほど有用でない状況で視覚注意散漫を引き起こすことなく(例えば、これらの条件が満たされていないときに視覚ガイダンスを提供することによって)、いつ電子デバイスがその元の位置に戻ったかを、迅速に認識することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。所定の条件が満たされているときに、視覚ガイダンスの表示をフェードアウトすることにより、ユーザは、バッテリ寿命を無駄にすることなく、かつ視覚ガイダンスがそれほど有用でない状況で視覚注意散漫を引き起こすことなく(例えば、これらの条件が満たされていないときに視覚ガイダンスを提供することによって)、いつ電子デバイスがその元の位置に戻ったかを、迅速に認識することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。所定の条件が満たされているときに視覚ガイダンスの表示をフェードアウトすることにより、キャプチャされたメディアの表示を妨げることがある表示デバイス上の不必要なユーザインタフェース要素を表示することなく、キャプチャされたメディアに関して明確なフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, at a seventh time after initiating capture of the media, the electronic device detects movement of the electronic device (e.g., detects a change in the pose (e.g., position or orientation) of the electronic device). In some embodiments, the first time after initiating capture of the media is prior to the sixth time after initiating capture of the media. In some embodiments, in response to detecting movement of the electronic device at the seventh time after initiating capture of the media, and in accordance with a determination that the detected movement at the seventh time after initiating capture of the media of the electronic device does not exceed a second movement threshold (e.g., a non-zero movement threshold (e.g., one or more differences between the pose of the electronic device when capture of the media was initiated and the current pose of the electronic device are within (or less than) one or more threshold difference amounts (e.g., one or more non-zero threshold distance amounts))), the electronic device stops displaying the visual indication (e.g., no visual guidance in FIG. 39I) (e.g., no display of the visual indication). In some embodiments, pursuant to a determination that the detected movement at the seventh time after the electronic device begins capturing media does not exceed the second movement threshold, the electronic device continues to display the visual indication (or does not fade out the display of the visual indication). In some embodiments, when the electronic device returns (or is within a threshold distance of its original pose), the electronic device stops displaying the visual indication. By ceasing to display the visual guidance when certain conditions are met, the user can quickly recognize when the electronic device has returned to its original position without wasting battery life and without causing visual distraction in situations where visual guidance is less useful (e.g., by providing visual guidance when these conditions are not met). By performing an optimized action when a set of conditions is met without requiring further user input, the user can improve usability of the device, make the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduce power usage and improve the battery life of the device by allowing the user to use the device more quickly and efficiently. By fading out the display of visual guidance when certain conditions are met, the user can quickly recognize when the electronic device has returned to its original position without wasting battery life and without causing visual distraction in situations where visual guidance is less useful (e.g., by providing visual guidance when these conditions are not met). By performing an optimized action when a set of conditions are met without requiring further user input, the device's usability is improved, the user-device interface is more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and the device's power usage is reduced and battery life is improved by allowing the user to use the device more quickly and efficiently. By fading out the display of visual guidance when a predetermined condition is met, the device provides clear feedback to the user regarding the captured media without displaying unnecessary user interface elements on the display device that may interfere with the display of the captured media. By providing the user with improved visual feedback, the device's usability is improved, the user-device interface is more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and the device's power usage is reduced and battery life is improved by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、メディアのキャプチャを開始した後の第7の時間における電子デバイスの移動を検出したことに応じて、かつ電子デバイスのメディアのキャプチャを開始した後の第7の時間における検出された移動が第2の移動閾値(例えば、非ゼロ移動閾値(例えば、メディアのキャプチャが開始されたときの電子デバイスのポーズと電子デバイスの現在のポーズとの間の1つ以上の差が1つ以上の閾値差量(例えば、1つ以上の非ゼロ閾値距離量)内ではない(又は未満ではない)))を上回るとの判定に従って、視覚インジケーション(例えば、視覚ガイダンス(例えば、3970b、3970c))の表示を継続する(例えば、表示を維持する)(例えば、視覚インジケーションの表示をフェードアウトしない)。いくつかの実施形態では、電子デバイスが戻らない(又はその元のポーズの閾値距離以内にない)と、電子デバイスは、視覚インジケーションを表示し続ける。 In some embodiments, in response to detecting movement of the electronic device at a seventh time after initiating capture of media, and in accordance with a determination that the detected movement at the seventh time after initiating capture of media of the electronic device exceeds a second movement threshold (e.g., a non-zero movement threshold (e.g., one or more differences between the pose of the electronic device when capture of media was initiated and the current pose of the electronic device are not within (or are not less than) one or more threshold difference amounts (e.g., one or more non-zero threshold distance amounts))), the visual indication (e.g., visual guidance (e.g., 3970b, 3970c)) continues to be displayed (e.g., does not fade out the display of the visual indication). In some embodiments, if the electronic device does not return (or is not within a threshold distance of its original pose), the electronic device continues to display the visual indication.

いくつかの実施形態では、1組のガイダンス基準は、低光モードがアクティブである(例えば、602cによって示される)ときに(例えば、1つ以上のカメラのうちの少なくとも1つが低光環境でメディアをキャプチャするように構成されている場合に)満たされる基準を含む。いくつかの実施形態では、低光カメラモードは、低光条件が満たされているときにアクティブである。いくつかの実施形態では、低光条件は、1つ以上のカメラの視野内の周辺光がそれぞれの閾値を下回るとき、電子デバイスが低光モードで動作していることを示す低光状態インジケータをユーザが選択する(例えば、オンにする)とき、低光カメラモードをアクティブ化する設定をユーザがオンにする、又はアクティブ化するとき、に満たされる条件を低光条件が含むときに満たされる。いくつかの実施形態では、電子デバイスの検出された移動が移動閾値を上回り、かつ低光モードがアクティブでない場合、電子デバイスは、表示デバイスを介して、メディアのキャプチャが開始されたときの電子デバイスのポーズと電子デバイスの現在のポーズとの間の1つ以上の差の視覚インジケーションの表示をやめる。 In some embodiments, the set of guidance criteria includes criteria that are met when the low light mode is active (e.g., as indicated by 602c) (e.g., when at least one of the one or more cameras is configured to capture media in a low light environment). In some embodiments, the low light camera mode is active when low light conditions are met. In some embodiments, the low light conditions are met when the low light conditions include conditions that are met when ambient light in the field of view of one or more cameras falls below a respective threshold, when a user selects (e.g., turns on) a low light status indicator that indicates that the electronic device is operating in low light mode, and when a user turns on or activates a setting that activates the low light camera mode. In some embodiments, if the detected movement of the electronic device exceeds a movement threshold and the low light mode is not active, the electronic device ceases to display, via the display device, a visual indication of one or more differences between the pose of the electronic device when the capture of media was initiated and the current pose of the electronic device.

いくつかの実施形態では、1組のガイダンス基準は、電子デバイスが閾値持続時間(例えば、0.1、0.25、0.5、1、2、3、5、8、10、15、20、30、60秒)を上回るキャプチャ持続時間(例えば、図39Aでは5秒に対して、図39Nでは2秒)にわたって複数の画像をキャプチャするように構成されているときに満たされる基準を含む。いくつかの実施形態では、メディアをキャプチャするキャプチャ持続時間を調整するコントロール(例えば、スライダ)は、第1のキャプチャ持続時間のインジケーション(例えば、スライダバー)を含む。コントロールにより、電子デバイスをインジケーションの持続時間に対応する持続時間(例えば、第1のキャプチャ持続時間)に構成させる。いくつかの実施形態では、閾値持続時間は、非ゼロ持続時間である。所定の条件が満たされているときに、視覚ガイダンスを提供することにより、ユーザは、バッテリ寿命を無駄にすることなく、かつ視覚ガイダンスがそれほど有用でない状況で視覚注意散漫を引き起こすことなく(例えば、これらの条件が満たされていないときに視覚ガイダンスを提供することによって)、キャプチャ持続時間が閾値キャプチャ持続時間を上回る場合、いつ電子デバイスがその元の位置から動いたかを、迅速に認識することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。所定の条件が満たされたときに視覚ガイダンスを提供することにより、1つ以上の差の視覚インジケーションが表示されたときに、改善された視覚的フィードバックをユーザ提供し、キャプチャされているメディアの表現を妨げることがある追加のユーザインタフェース要素を提供することを回避し、1つ以上の差の視覚インジケーションの表示が必要でないときに、キャプチャされたメディアを不必要に雑然とさせることを回避する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the set of guidance criteria includes criteria that are met when the electronic device is configured to capture a plurality of images for a capture duration (e.g., 5 seconds in FIG. 39A vs. 2 seconds in FIG. 39N) that exceeds a threshold duration (e.g., 0.1, 0.25, 0.5, 1, 2, 3, 5, 8, 10, 15, 20, 30, 60 seconds). In some embodiments, a control (e.g., a slider) for adjusting a capture duration for capturing media includes an indication (e.g., a slider bar) of a first capture duration. The control causes the electronic device to be configured for a duration (e.g., the first capture duration) that corresponds to the duration of the indication. In some embodiments, the threshold duration is a non-zero duration. By providing visual guidance when predetermined conditions are met, a user can quickly recognize when the electronic device has moved from its original position if the capture duration exceeds a threshold capture duration without wasting battery life and without causing visual distraction in situations where visual guidance is less useful (e.g., by providing visual guidance when these conditions are not met). By performing an optimized operation when a set of conditions are met without requiring further user input, it improves usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently. By providing visual guidance when predetermined conditions are met, it provides the user with improved visual feedback when one or more visual indications of differences are displayed, avoids providing additional user interface elements that may interfere with the presentation of the media being captured, and avoids unnecessarily cluttering the captured media when the display of one or more visual indications of differences is not necessary. Providing improved visual feedback to the user improves usability of the device and makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、視覚インジケーション(例えば、視覚ガイダンス(例えば、3970b、3970c))は、1つ以上のカメラの視野の表現(例えば、630)上に(例えば、その上に、その上に重ね合わせて)表示される。いくつかの実施形態では、視覚インジケーション(例えば、視覚インジケーションの一部分又は視覚インジケーション全体)は、1つ以上のカメラの視野の表現の上に重ね合わされる。1つ以上のカメラの視野の表現上に視覚ガイダンスを表示することにより、電子デバイスによってキャプチャされている情報(例えば、対象又はシーン)からの注意散漫を最小限に抑えながら、電子デバイスのポーズをどのように補正するかに関する情報を提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。1つ以上のカメラの視野の表現上に視覚インジケーションを同時に表示することにより、視覚インジケーション及び1つ以上のカメラの視野の表現の両方に関する視覚的フィードバックをユーザに提供し、これにより、メディアを見ている間に、キャプチャされたメディアの改善を可能にすることができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the visual indication (e.g., visual guidance (e.g., 3970b, 3970c)) is displayed on (e.g., on, superimposed on) the representation of the field of view of one or more cameras (e.g., 630). In some embodiments, the visual indication (e.g., a portion of the visual indication or the entire visual indication) is superimposed on the representation of the field of view of one or more cameras. Displaying the visual guidance on the representation of the field of view of one or more cameras provides information on how to correct the pose of the electronic device while minimizing distraction from the information (e.g., object or scene) being captured by the electronic device. Providing improved visual feedback to the user improves device usability and makes the user-device interface more efficient (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently. Simultaneously displaying visual indications over the representation of the field of view of one or more cameras may provide visual feedback to the user regarding both the visual indications and the representation of the field of view of one or more cameras, thereby enabling enhancements to the captured media while viewing the media. Providing improved visual feedback to the user may improve usability of the device, provide a more efficient user-device interface (e.g., by assisting the user in providing appropriate inputs and reducing user errors when operating/interacting with the device), which may further reduce power usage and improve battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、1つ以上のカメラを介して、メディアのキャプチャを開始した(例えば、メディアのキャプチャを開始した、1つ以上のカメラを初期化した、メディアをキャプチャする要求を受信したことに応じてメディアキャプチャインタフェースを表示又は更新した)後の(例えば、第1の時間の前、後、又は第1の時間と同じ)第8の時間において、電子デバイスは、電子デバイスの移動を検出する(例えば、電子デバイスの位置及び/又は向きの変化を検出する)。いくつかの実施形態では、電子デバイスが、表示デバイスを介して、表現を含むメディアキャプチャユーザインタフェースを表示している間に、電子デバイスの移動が検出される。いくつかの実施形態では、メディアのキャプチャを開始した後の第8の時間における電子デバイスの移動を検出したことに応じて、かつ電子デバイスの検出された移動が第2の移動閾値(例えば、検出された移動がガイダンス基準(例えば、移動の値又は大きさに基づく閾値、現在のポーズと元のポーズとの間の移動のパーセンテージに基づく閾値(例えば、10%、15%、18%差)、非ゼロ移動閾値)を満たす、移動閾値よりも大きい移動閾値)を上回るとの判定に従って、電子デバイスは、メディアのキャプチャを停止する(例えば、止める)(例えば、例えば図18R~図18Sに関連して説明したように)。いくつかの実施形態では、電子デバイスの検出された移動が第2の移動閾値を上回るとの判定に従って、かつメディアのキャプチャが開始されたときの電子デバイスのポーズと電子デバイスの現在のポーズとの間の1つ以上の差の視覚インジケーションが表示されている間に、電子デバイスは、表示デバイスを介して、メディアのキャプチャが開始されたときの電子デバイスのポーズと電子デバイスの現在のポーズとの間の1つ以上の差の視覚インジケーションの表示を停止する。 In some embodiments, at an eighth time (e.g., before, after, or the same as the first time) after initiating capture of media via one or more cameras (e.g., initiating capture of media, initializing one or more cameras, displaying or updating a media capture interface in response to receiving a request to capture media), the electronic device detects movement of the electronic device (e.g., detects a change in position and/or orientation of the electronic device). In some embodiments, the movement of the electronic device is detected while the electronic device is displaying a media capture user interface including a representation via a display device. In some embodiments, in response to detecting movement of the electronic device at the eighth time after initiating capture of media, and pursuant to a determination that the detected movement of the electronic device exceeds a second movement threshold (e.g., a movement threshold greater than a movement threshold that satisfies a guidance criterion (e.g., a threshold based on a value or magnitude of movement, a threshold based on a percentage of movement between a current pose and an original pose (e.g., a 10%, 15%, 18% difference), a non-zero movement threshold), the electronic device stops (e.g., stops) capturing media (e.g., as described in connection with, e.g., FIGS. 18R-18S). In some embodiments, pursuant to a determination that the detected movement of the electronic device exceeds the second movement threshold, and while the visual indication of the one or more differences between the pose of the electronic device when the capture of the media was initiated and the current pose of the electronic device is being displayed, the electronic device ceases displaying, via the display device, the visual indication of the one or more differences between the pose of the electronic device when the capture of the media was initiated and the current pose of the electronic device.

方法4000に関して上述された処理(例えば、図40A~図40C)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2500、2700、2800、3000、3200、3400、3600、3800、及び4200は、方法4000を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法2700及び2800は、任意選択的に、方法4000に関連して上述したように、メディアキャプチャ技術を採用する。簡潔にするために、これらの詳細は、以下で繰り返さない。 It should be noted that the details of the processes (e.g., FIGS. 40A-40C) described above with respect to method 4000 are also applicable in a similar manner to the methods described above. For example, methods 700, 900, 1100, 1300, 1500, 1700, 1900, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3400, 3600, 3800, and 4200 optionally include one or more of the characteristics of the various methods described above with reference to method 4000. For example, methods 2700 and 2800 optionally employ media capture techniques as described above with respect to method 4000. For the sake of brevity, these details will not be repeated below.

図41A~図41Fは、1組の条件に基づいてメディアキャプチャモードを自動的に管理するための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図42A~図42Bにおける処理を含む、以下で説明する処理を例示するために使用される。 FIGS. 41A-41F show example user interfaces for automatically managing media capture modes based on a set of conditions. The user interfaces in these figures are used to illustrate the processes described below, including the processes in FIGS. 42A-42B.

図41Aは、ライブプレビュー630を含むカメラユーザインタフェースを表示する電子デバイス600を示す。カメラユーザインタフェースは、図41Aでデバイス600の上部からデバイス600の底部まで延びる。ライブプレビュー630は、1つ以上のカメラセンサ(例えば、及び/又はカメラ)によって検出された画像に基づき、FOVの表現である。いくつかの実施形態では、ライブプレビュー630は、デバイス600の上部及び/又は底部まで延びない、スクリーンの一部分のみである。いくつかの実施形態では、デバイス600は、複数のカメラセンサ(例えば、デバイスの同じ側の異なる複数のカメラセンサ)を使用して画像をキャプチャし、それらを組み合わせてライブプレビュー630(例えば、ライブプレビュー630の異なる部分)を表示する。いくつかの実施形態では、デバイス600は、単一のカメラセンサを使用して画像をキャプチャして、ライブプレビュー630を表示する。 FIG. 41A shows electronic device 600 displaying a camera user interface including live preview 630. The camera user interface extends from the top of device 600 to the bottom of device 600 in FIG. 41A. Live preview 630 is a representation of the FOV based on images detected by one or more camera sensors (e.g., and/or cameras). In some embodiments, live preview 630 is only a portion of the screen that does not extend to the top and/or bottom of device 600. In some embodiments, device 600 captures images using multiple camera sensors (e.g., different camera sensors on the same side of the device) and combines them to display live preview 630 (e.g., different portions of live preview 630). In some embodiments, device 600 captures images using a single camera sensor to display live preview 630.

図41Aのカメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含み、これらは、インジケータ及びコントロールがライブプレビュー630と同時に表示され得るように、ライブプレビュー630上に重ね合わされる。カメラディスプレイ領域604は、インジケータ領域602とコントロール領域606との間に位置する。カメラディスプレイ領域604は、インジケータ又はコントロールと実質的に重ね合わされない。 The camera user interface of FIG. 41A includes an indicator region 602 and a control region 606 that are overlaid on the live preview 630 such that the indicators and controls may be displayed simultaneously with the live preview 630. A camera display region 604 is located between the indicator region 602 and the control region 606. The camera display region 604 is not substantially overlaid with the indicators or controls.

図41Aに示すように、カメラディスプレイ領域604は、ライブプレビュー630及びズームアフォーダンス2622を含み、ズームアフォーダンス2622は、0.5×ズームアフォーダンス2622a、1×ズームアフォーダンス2622b、及び2×ズームアフォーダンス2622cを含む。図41Aでは、(例えば、図31Fで)上述したものと同様の技術を使用して、ライブプレビュー630が2×ズームレベルで表示されていることを示す、2×ズームアフォーダンス2622cが選択されている。図41Aのいくつかの実施形態では、デバイス600は、(例えば、図31Fに関連して)上述したように、望遠写真カメラ3180c(図示せず)を使用して、ライブプレビュー630の一部分(例えば、カメラディスプレイ領域604内のライブプレビュー630)を表示し、広角カメラ3180bを使用して、ライブプレビュー630の別の部分(例えば、インジケータ領域602及びコントロール領域606内のライブプレビュー630)を表示する。 As shown in FIG. 41A, the camera display area 604 includes a live preview 630 and a zoom affordance 2622, which includes a 0.5× zoom affordance 2622a, a 1× zoom affordance 2622b, and a 2× zoom affordance 2622c. In FIG. 41A, the 2× zoom affordance 2622c is selected, indicating that the live preview 630 is displayed at a 2× zoom level, using a technique similar to that described above (e.g., in FIG. 31F). In some embodiments of FIG. 41A, the device 600 uses a telephoto camera 3180c (not shown) to display a portion of the live preview 630 (e.g., the live preview 630 in the camera display area 604) and a wide-angle camera 3180b to display another portion of the live preview 630 (e.g., the live preview 630 in the indicator area 602 and the control area 606), as described above (e.g., in connection with FIG. 31F).

図41Aに示すように、インジケータ領域602は、ライブプレビュー630上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。インジケータ領域602は、フラッシュ状態インジケータ602aを含む。フラッシュ状態インジケータ602aは、フラッシュモード(例えば、メディアをキャプチャする要求に応じて、フラッシュ動作を制御するモード)が自動モード、オン、オフ、又は別のモード(例えば、赤目低減モード)であるかどうかを示す。図41Aに示すように、フラッシュインジケータ602aは、現在、非アクティブ状態で表示されている。 41A, indicator area 602 is superimposed on live preview 630 and optionally includes a colored (e.g., gray, semi-transparent) overlay. Indicator area 602 includes a flash status indicator 602a. Flash status indicator 602a indicates whether the flash mode (e.g., a mode that controls flash operation in response to a request to capture media) is in auto mode, on, off, or another mode (e.g., red-eye reduction mode). As shown in FIG. 41A, flash indicator 602a is currently displayed in an inactive state.

図41Aに示すように、インジケータ領域602はまた、(例えば、図26Hで)上述したものと同様の技術を使用して、低光モード状態インジケーション602cを含む。例えば、デバイス600が低光環境で動作しており、フラッシュモードが非アクティブであるため、低光モード状態インジケータ602cは、アクティブ状態で表示される。ここで、0.5ルクスのFOV内の光量が閾値を下回る(例えば、20ルクス未満)ため、デバイス600は、低光環境で動作している。低光モード状態インジケータ602cはまた、5秒のキャプチャ持続時間(例えば、低光モード状態インジケータ602c内に表示された「5秒」)と共に表示される。低光モード状態インジケータ602cがアクティブであり、かつ5秒のキャプチャ持続時間と共に表示されている間に、デバイス600は、(例えば、図18J~図18U、図26J~図26S、及び図39A~図39Qで)上述したものと同様の技術を使用してメディアをキャプチャすることができる。この実施例では、低光モード状態インジケータ602cはまた、(図41Bに関連して以下に更に説明するように)デバイス600が「Photo」モードで動作しているため、表示される。 As shown in FIG. 41A, the indicator area 602 also includes a low light mode status indication 602c, using techniques similar to those described above (e.g., in FIG. 26H). For example, the low light mode status indicator 602c is displayed in an active state because the device 600 is operating in a low light environment and the flash mode is inactive. Here, the device 600 is operating in a low light environment because the amount of light within the 0.5 lux FOV is below a threshold (e.g., less than 20 lux). The low light mode status indicator 602c is also displayed with a 5 second capture duration (e.g., "5 seconds" displayed within the low light mode status indicator 602c). While the low light mode status indicator 602c is active and displayed with the 5 second capture duration, the device 600 can capture media using techniques similar to those described above (e.g., in FIG. 18J-18U, FIG. 26J-26S, and FIG. 39A-39Q). In this example, low light mode status indicator 602c is also displayed because device 600 is operating in "Photo" mode (as described further below in connection with FIG. 41B).

いくつかの実施形態では、他のインジケータ(例えば、インジケータ602b、602d~602f)もまた、インジケータ領域602に含まれる。 In some embodiments, other indicators (e.g., indicators 602b, 602d-602f) are also included in indicator region 602.

41Aに示すように、コントロール領域606は、ライブプレビュー630上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。コントロール領域606は、(例えば、図35Aで)上述したように、カメラモードアフォーダンス620を含む。カメラモードアフォーダンス620a~620d及び620fが表示され、「Photo」カメラモードは、テキストを太字にすること、及び/又はコントロール領域606の中央に写真カメラモードアフォーダンス620cをセンタリングすることによって、カメラが動作している現在のモードであるとして示される。カメラモードが現在選択されている(又は電子デバイスがカメラモードで動作している)とき、電子デバイス600は、少なくともその特定のカメラモードのカメラ設定を使用して、メディアをキャプチャするように構成される。 41A, the control area 606 is superimposed on the live preview 630 and optionally includes a colored (e.g., gray, semi-transparent) overlay. The control area 606 includes camera mode affordances 620, as described above (e.g., in FIG. 35A). Camera mode affordances 620a-620d and 620f are displayed, and the "Photo" camera mode is indicated as being the current mode in which the camera is operating by bolding the text and/or centering the photo camera mode affordance 620c in the center of the control area 606. When a camera mode is currently selected (or the electronic device is operating in a camera mode), the electronic device 600 is configured to capture media using at least the camera settings of that particular camera mode.

41Aに示すように、コントロール領域606はまた、メディアコレクション624、シャッターアフォーダンス610、カメラスイッチャアフォーダンス612などの複数のコントロールも含む。図41Aでは、デバイス600が「Photo」モードで動作しているため、シャッターアフォーダンス610は、有効状態で表示される。いくつかの実施形態では、「Photo」モードで動作している間に、シャッターアフォーダンス610は、デバイス600が2×ズームレベルでライブプレビュー630を表示しているかどうかにかからわず、有効状態で表示される。いくつかの実施形態では、シャッターアフォーダンス610が有効状態にある間に(例えば、タップジェスチャ4150a1を介して)選択されると、デバイス600は、(例えば、図18J~図18U、図26J~図26S、及び図39A~図39Qで)上述したものと同様の技術を使用して、メディアのキャプチャを開始する。いくつかの実施形態では、タップジェスチャ4150a1に応じて、デバイス600は、5秒のキャプチャ持続時間にわたって複数の画像のキャプチャを開始する。いくつかの実施形態では、複数の画像のキャプチャを開始した後に、デバイス600は、キャプチャされた画像の少なくとも一部のコンテンツを含む合成画像を生成し(例えば、図18J~図18U、図26J~図26S、及び図39A~図39Qに関連して上述したように)、合成画像は、複数の画像のうちの1つ以上よりも視覚的に明るい。 41A, the control area 606 also includes a number of controls, such as a media collection 624, a shutter affordance 610, and a camera switcher affordance 612. In FIG. 41A, the shutter affordance 610 is displayed in an enabled state because the device 600 is operating in a “Photo” mode. In some embodiments, while operating in a “Photo” mode, the shutter affordance 610 is displayed in an enabled state regardless of whether the device 600 is displaying a live preview 630 at a 2× zoom level. In some embodiments, when the shutter affordance 610 is selected (e.g., via a tap gesture 4150a1) while in an enabled state, the device 600 begins capturing media using techniques similar to those described above (e.g., in FIGS. 18J-18U, 26J-26S, and 39A-39Q). In some embodiments, in response to the tap gesture 4150a1, the device 600 begins capturing multiple images over a 5 second capture duration. In some embodiments, after initiating capture of the multiple images, the device 600 generates a composite image that includes content of at least some of the captured images (e.g., as described above in connection with FIGS. 18J-18U, 26J-26S, and 39A-39Q), where the composite image is visually brighter than one or more of the multiple images.

図41Aでは、デバイス600は、ポートレートカメラモードアフォーダンス620dに対応する位置でのタップジェスチャ4150a2を検出する。 In FIG. 41A, the device 600 detects a tap gesture 4150a2 at a location corresponding to the portrait camera mode affordance 620d.

図41Bに示すように、タップジェスチャ4150a2を検出したことに応じて、デバイス600は、(例えば、図8A~図8U及び図35A~図35Iに関連して)上述したものと同様の技術を使用して、ポートレートカメラモードでメディアをキャプチャするように構成される。この新たな構成を示すために、デバイス600は、カメラアフォーダンス620を左にスライドして、それにより、ポートレートモードアフォーダンス620dが中心に置かれて選択され(例えば、太字にされる)、かつ写真カメラモードアフォーダンス620cが選択されず(例えば、太字にされない)、ポートレートモードアフォーダンス620dの左になる。 As shown in FIG. 41B, in response to detecting tap gesture 4150a2, device 600 is configured to capture media in portrait camera mode using techniques similar to those described above (e.g., in connection with FIGS. 8A-8U and 35A-35I). To indicate this new configuration, device 600 slides camera affordance 620 to the left, such that portrait mode affordance 620d is centered and selected (e.g., bolded), and photo camera mode affordance 620c is unselected (e.g., not bolded) and to the left of portrait mode affordance 620d.

図41Bに示すように、ライブプレビュー630のズームレベルは、2×ズームレベルで表示されたままであり、タップジェスチャ4150a2を検出したことに応じて変化しない。したがって、いくつかの実施形態では、デバイス600は、望遠写真カメラ3180cを使用し続けて、ライブプレビュー630の一部分(例えば、カメラディスプレイ領域604内のライブプレビュー630)を表示し、広角カメラ3180bを使用し続けて、ライブプレビュー630の別の部分(例えば、インジケータ領域602及びコントロール領域606内のライブプレビュー630)を表示する。 41B, the zoom level of the live preview 630 remains displayed at the 2x zoom level and does not change in response to detecting the tap gesture 4150a2. Thus, in some embodiments, the device 600 continues to use the telephoto camera 3180c to display a portion of the live preview 630 (e.g., the live preview 630 in the camera display area 604) and continues to use the wide-angle camera 3180b to display another portion of the live preview 630 (e.g., the live preview 630 in the indicator area 602 and the control area 606).

図41Bに示すように、デバイス600は、シャッターアフォーダンス610を無効化し、シャッターアフォーダンス610は、図41Aのシャッターアフォーダンス610の有効化されたバージョンと比較したときに、図41Bで暗くされている。いくつかの実施形態では、シャッターアフォーダンス610が無効状態にある間に(例えば、タップジェスチャ4150b1を介して)選択されると、デバイス600は、メディアのキャプチャを開始しない。 As shown in FIG. 41B, the device 600 disables the shutter affordance 610, which is darkened in FIG. 41B when compared to the enabled version of the shutter affordance 610 in FIG. 41A. In some embodiments, when the shutter affordance 610 is selected (e.g., via a tap gesture 4150b1) while in the disabled state, the device 600 does not initiate capture of media.

ここで、デバイス600は、その現在の状態で、例えば、暗い又はぼけた画像をキャプチャすることを回避するために、デバイス600が低光モードを介してメディアをキャプチャするように構成されるべきではないと判定されるときに、シャッターアフォーダンス610を無効化する。図41Bでは、デバイス600が望遠写真カメラ3180cを使用してカメラディスプレイ領域604内に表示されたライブプレビュー630の一部分をキャプチャするように現在構成されているため、デバイス600が低光モードを介してメディアをキャプチャするように構成されるべきではないと判定される。この実施例では、デバイス600は、カメラディスプレイ領域604内に表示されたライブプレビュー630を表すポートレートメディアをキャプチャするために望遠写真カメラ3180cが使用されているときに、低光モードを介して正確な深度情報をキャプチャするように構成されていない深度センサを含む。したがって、図41Bでは、デバイス600は、デバイス600がこの現在の状態(例えば、2×ズームレベルでの低光環境)である間に、低光メディアのキャプチャを無効化する(例えば、図41Bの無効化されたシャッターアフォーダンス610)。 Here, the device 600 disables the shutter affordance 610 when it is determined that the device 600 should not be configured to capture media via low light mode in its current state, e.g., to avoid capturing a dark or blurry image. In FIG. 41B, it is determined that the device 600 should not be configured to capture media via low light mode because the device 600 is currently configured to capture a portion of the live preview 630 displayed in the camera display area 604 using the telephoto camera 3180c. In this example, the device 600 includes a depth sensor that is not configured to capture accurate depth information via low light mode when the telephoto camera 3180c is being used to capture portrait media representing the live preview 630 displayed in the camera display area 604. Thus, in FIG. 41B, the device 600 disables capturing low light media while the device 600 is in this current state (e.g., low light environment at 2x zoom level) (e.g., the disabled shutter affordance 610 in FIG. 41B).

いくつかの実施形態では、他の理由のために低光モードを介してメディアをキャプチャするようにデバイス600が構成されるべきではないと判定される。例えば、いくつかの実施形態では、深度センサは、望遠写真カメラ3180cが使用されているときに正確な深度情報をキャプチャするように構成することができ、低光モードを介してメディアをキャプチャするようにデバイス600が構成されるべきであると判定される。いくつかの実施形態では、デバイスがメディアをキャプチャするために現在使用している1つ以上のカメラが、デバイスがメディアをキャプチャするために使用するように構成され得る1つ以上のカメラよりも劣るメディアキャプチャ性能を有するため、低光モードを介してメディアをキャプチャするようにデバイス600が構成されるべきではないと判定される。いくつかの実施形態では、特定のタイプのカメラ(例えば、望遠写真、広角、超広角)を使用している間に、かつ、いくつかの実施形態では、それぞれの対応するシナリオに対する1つ以上の深度センサの性能に基づいて、特定のズームレベル(例えば、0.5×、1×、2×)で特定の種類の低光メディア(例えば、写真、ポートレート、ビデオメディア)をキャプチャするようにデバイス600が構成されている場合、低光モードを介してメディアをキャプチャするようにデバイス600が構成されるべきではないと判定される。 In some embodiments, it is determined that device 600 should not be configured to capture media via low light mode for other reasons. For example, in some embodiments, the depth sensor may be configured to capture accurate depth information when telephoto camera 3180c is being used, and it is determined that device 600 should be configured to capture media via low light mode. In some embodiments, it is determined that device 600 should not be configured to capture media via low light mode because one or more cameras that the device is currently using to capture media have inferior media capture performance than one or more cameras that the device may be configured to use to capture media. In some embodiments, it is determined that device 600 should not be configured to capture media via low light mode if device 600 is configured to capture a particular type of low light media (e.g., photo, portrait, video media) at a particular zoom level (e.g., 0.5x, 1x, 2x) while using a particular type of camera (e.g., telephoto, wide angle, ultra wide angle) and, in some embodiments, based on the performance of one or more depth sensors for each corresponding scenario.

図41Bに示すように、その現在の状態で低光モードを介してメディアをキャプチャするようにデバイス600が構成されるべきではないと判定されたため、デバイス600は、低光ズームアフォーダンス4122及びガイダンス4102を表示する。 As shown in FIG. 41B, because it has been determined that the device 600 should not be configured to capture media via low light mode in its current state, the device 600 displays low light zoom affordance 4122 and guidance 4102.

上述したように(例えば、図6R及び図8H)、照明効果コントロール628の表示のためにスペースをあけるために、低光ズームアフォーダンス4122は、ズームアフォーダンス2622が図41Aで表示された位置の左に表示される。低光ズームアフォーダンス4122は、ライブプレビュー630の現在のズームレベルのインジケーション(例えば、2×)、並びに低光モードに関連付けられたインジケーション(例えば、低光ズームアフォーダンス4122内の半月)を含む。図41Bでは、低光モードに関連付けられたインジケーションは、図41Aで以前に表示されていた低光モード状態インジケータ602cの一部分(例えば、半月)に視覚的に似ている。いくつかの実施形態では、低光ズームアフォーダンス4122は、デバイス600が低光モードを介してメディアをキャプチャするために、現在のズームレベルを切り替える必要があることを示す。 As discussed above (e.g., FIGS. 6R and 8H), to make room for the display of the lighting effects control 628, the low light zoom affordance 4122 is displayed to the left of where the zoom affordance 2622 was displayed in FIG. 41A. The low light zoom affordance 4122 includes an indication of the current zoom level of the live preview 630 (e.g., 2×), as well as an indication associated with low light mode (e.g., a half moon in the low light zoom affordance 4122). In FIG. 41B, the indication associated with low light mode visually resembles a portion (e.g., a half moon) of the low light mode status indicator 602c previously displayed in FIG. 41A. In some embodiments, the low light zoom affordance 4122 indicates that the device 600 should switch the current zoom level in order to capture media via low light mode.

ガイダンス4102は、「ポートレートモードを使用するためには、ズームアウトする又はフラッシュをオンにしてください」と書かれたテキストである。そのように、ガイダンス4102は、デバイス600がメディアをキャプチャするように構成されるために、デバイス600の現在の状態を変更する必要があることを示す。具体的には、デバイス600は、デバイス600がメディアをキャプチャするように構成されるために、ズームレベルを変更する必要がある、又はフラッシュをオンにする必要があることを示す。 Guidance 4102 is text that reads, "To use portrait mode, zoom out or turn on flash." As such, guidance 4102 indicates that the current state of device 600 needs to change in order for device 600 to be configured to capture media. Specifically, device 600 indicates that the zoom level needs to change or the flash needs to be turned on in order for device 600 to be configured to capture media.

図41Bに示すように、デバイス600は、低光ズームアフォーダンス4122を表示しているときに、低光モード状態インジケータ602cを表示することを停止する。しかしながら、いくつかの実施形態では、低光モード状態インジケータ602cは、表示され続けるが、無効化されて、デバイス600がその現在の状態で動作している間に(例えば、2×ズームレベルでメディアをキャプチャするために特定の1組のカメラを使用している間に、かつポートレートモードにある間に)、低光モードをオンにすることができないことをユーザに示す。図41Bでは、デバイス600は、低光ズームアフォーダンス4122に対応する位置でのタップジェスチャ4150b2を検出する。 As shown in FIG. 41B, the device 600 stops displaying the low light mode status indicator 602c when it displays the low light zoom affordance 4122. However, in some embodiments, the low light mode status indicator 602c continues to be displayed but is disabled to indicate to the user that low light mode cannot be turned on while the device 600 is operating in its current state (e.g., while using a particular set of cameras to capture media at a 2x zoom level and while in portrait mode). In FIG. 41B, the device 600 detects a tap gesture 4150b2 at a location corresponding to the low light zoom affordance 4122.

図41Cに示すように、低光ズームアフォーダンス4122に対応する位置でのタップジェスチャ4150b2を検出したことに応じて、デバイス600は、2×ズームレベルから1×ズームレベルにライブプレビュー630のズームレベルを変更する。デバイス600が異なる組のカメラ(例えば、カメラディスプレイ領域604内に表示されたライブプレビュー630の一部分を表示するための広角カメラ3180b、及びインジケータ領域602及びコントロール領域606内に表示されたライブプレビュー630の一部分を表示するための超広角カメラ3180a)を使用しているため、デバイス600がその現在の状態で低光モードを介してメディアをキャプチャするように構成されるべきであると判定される。この実施例では、デバイス600は、カメラディスプレイ領域604内に表示されたライブプレビュー630を表すポートレートメディアをキャプチャするために広角カメラ3180bが使用されているときに、低光モードを介して正確な深度情報をキャプチャするように構成された深度センサを含み、したがって、デバイス600が低光モードを介してメディアをキャプチャするように構成されるべきであると判定される。 41C, in response to detecting a tap gesture 4150b2 at a location corresponding to the low light zoom affordance 4122, the device 600 changes the zoom level of the live preview 630 from a 2x zoom level to a 1x zoom level. Because the device 600 is using a different set of cameras (e.g., the wide-angle camera 3180b for displaying a portion of the live preview 630 displayed in the camera display area 604 and the ultra-wide-angle camera 3180a for displaying a portion of the live preview 630 displayed in the indicator area 602 and the control area 606), it is determined that the device 600 should be configured to capture media via a low light mode in its current state. In this example, the device 600 includes a depth sensor configured to capture accurate depth information via a low light mode when the wide-angle camera 3180b is being used to capture portrait media representing the live preview 630 displayed in the camera display area 604, and therefore it is determined that the device 600 should be configured to capture media via a low light mode.

図41Cに示すように、この判定のため、デバイス600は、ライブプレビュー630のズームレベルを制御する別個のアフォーダンスを表示する。具体的には、デバイス600は、デバイス600の現在のズームレベルを示すために、低光ズームアフォーダンス4122が以前に表示されていた位置に1×ズームアフォーダンス2622bを表示し、インジケータ領域602内に低光キャプチャインジケータ602cを再表示する。 41C, to determine this, the device 600 displays a separate affordance that controls the zoom level of the live preview 630. Specifically, the device 600 displays a 1x zoom affordance 2622b in the location where the low-light zoom affordance 4122 was previously displayed, and redisplays the low-light capture indicator 602c in the indicator area 602 to indicate the current zoom level of the device 600.

この判定のため、デバイス600はまた、ガイダンス4102を表示することを停止し、シャッターアフォーダンス610を有効化する。図41Cでは、シャッターアフォーダンス610は、図41Bのものよりも暗くない(かつ図41Aで有したのと同じ視覚外観を有する)。いくつかの実施形態では、シャッターアフォーダンス610が有効状態にある間に(例えば、タップジェスチャ4150c1を介して)選択されると、デバイス600は、(例えば、図18J~図18U、図26J~図26S、及び図39A~図39Qで)上述したものと同様の技術を使用して、1×ズームレベルでメディアのキャプチャを開始する。いくつかの実施形態では、低光ズームアフォーダンス4122に対応する位置でのタップジェスチャ4150b2を検出したことに応じて、デバイス600は、調整可能な低光コントロール1804を表示する。図41Cでは、デバイス600は、1×ズームアフォーダンス2622bに対応する位置での1つ以上のタップジェスチャ4150c2を検出する。 Due to this determination, the device 600 also stops displaying the guidance 4102 and enables the shutter affordance 610. In FIG. 41C, the shutter affordance 610 is less dark than that of FIG. 41B (and has the same visual appearance it had in FIG. 41A). In some embodiments, when the shutter affordance 610 is selected (e.g., via a tap gesture 4150c1) while in an enabled state, the device 600 begins capturing media at a 1x zoom level using techniques similar to those described above (e.g., in FIGS. 18J-18U, 26J-26S, and 39A-39Q). In some embodiments, in response to detecting a tap gesture 4150b2 at a location corresponding to the low light zoom affordance 4122, the device 600 displays the adjustable low light control 1804. In FIG. 41C, the device 600 detects one or more tap gestures 4150c2 at a location corresponding to the 1x zoom affordance 2622b.

図41Dに示すように、1つ以上のタップジェスチャ4150c2を検出したことに応じて、デバイス600は、2×ズームレベルでライブプレビュー630を再表示する。いくつかの実施形態では、デバイス600は、(例えば、図33A~図33Dで)上述したものと同様の技術を使用して、図41Dの2×ズームレベルでライブプレビュー630を表示する前に、1つ以上のタップジェスチャ4150c2に応じて、他のズームレベルでライブプレビュー630を表示する。 As shown in FIG. 41D, in response to detecting one or more tap gestures 4150c2, device 600 re-displays live preview 630 at the 2x zoom level. In some embodiments, device 600 uses techniques similar to those described above (e.g., in FIGS. 33A-33D) to display live preview 630 at other zoom levels in response to one or more tap gestures 4150c2 before displaying live preview 630 at the 2x zoom level of FIG. 41D.

図41Dに示すように、デバイス600が2×ズームレベルでライブプレビュー630を表示している間に、デバイス600が図41Bの状態に戻っていると判定される。したがって、この判定のため、デバイス600は、図41Bに関連して上述したものと同様の技術を使用して、低光ズームアフォーダンス4122及びガイダンス4102を再表示し、シャッターアフォーダンス610を無効化する。図41Dでは、デバイス600は、フラッシュインジケータ602aに対応する位置でのタップジェスチャ4150dを検出する。 As shown in FIG. 41D, while the device 600 is displaying the live preview 630 at a 2x zoom level, it is determined that the device 600 has reverted to the state of FIG. 41B. Thus, due to this determination, the device 600 redisplays the low-light zoom affordance 4122 and guidance 4102 and disables the shutter affordance 610 using a technique similar to that described above in connection with FIG. 41B. In FIG. 41D, the device 600 detects a tap gesture 4150d at a location corresponding to the flash indicator 602a.

図41Eに示すように、フラッシュインジケータ602aに対応する位置でのタップジェスチャ4150dを検出したことに応じて、デバイス600は、(例えば、図18Vで)上述したものと同様の技術を使用して、フラッシュモードを有効化し、これにより、低光モードを無効化する。フラッシュモードを有効化することによって、デバイス600の現在の状態は、変更され、ズームレベルが2×にある間、低光モードが無効化されているため、(例えば、シャッターアフォーダンス610が選択されたときに)その現在の状態でメディアをキャプチャするようにデバイス600を構成すると判定される。したがって、この判定のため、デバイス600は、低光ズームアフォーダンス4122を表示することを停止し、2×ズームアフォーダンス2622cを再表示する。 41E, in response to detecting a tap gesture 4150d at a location corresponding to the flash indicator 602a, the device 600 enables the flash mode, thereby disabling the low light mode, using a technique similar to that described above (e.g., in FIG. 18V). By enabling the flash mode, the current state of the device 600 is determined to be changed, configuring the device 600 to capture media in its current state (e.g., when the shutter affordance 610 is selected) since low light mode is disabled while the zoom level is at 2x. Thus, due to this determination, the device 600 ceases displaying the low light zoom affordance 4122 and redisplays the 2x zoom affordance 2622c.

図41Fは、図41Dのジェスチャが受信されなかったシナリオを示す。図41Dでは、デバイス600は、FOV内の光量が変化していることを検出する。 Figure 41F illustrates a scenario in which the gesture of Figure 41D is not received. In Figure 41D, the device 600 detects that the amount of light within the FOV is changing.

図41Fに示すように、FOV内の光量の変化を検出したことに応じて、デバイス600は、FOV内の光量が0.5ルクス(例えば、図41Eの2680d)から25ルクス(例えば、図41Fの2680a)に変化したと判定する。25ルクスが光量の閾値(例えば、20ルクス)を上回るため、デバイス600が低光環境で動作すべきでないと判定される。したがって、デバイス600の現在の状態は、変更され、(例えば、低光モードが無効化されているため)デバイス600がその現在の状態でメディア(例えば、ポートレートメディア)をキャプチャするように構成することができると判定される。また、この判定のため、デバイス600は、低光ズームアフォーダンス4122を表示することを停止し、2×ズームアフォーダンス2622cを再表示する。換言すれば、FOV内の光レベルが閾値レベルを上回る場合、ズームアフォーダンス2622a~2622bは、それらの通常の機能に戻る。いくつかの実施形態では、ポートレートモードで動作している間に、光レベルが閾値レベルを下回って戻ると、デバイス600は、図41B及び図41Dに関連して説明したのと同様のカメラユーザインタフェースを表示する。 41F, in response to detecting a change in the amount of light within the FOV, the device 600 determines that the amount of light within the FOV has changed from 0.5 lux (e.g., 2680d in FIG. 41E) to 25 lux (e.g., 2680a in FIG. 41F). Because 25 lux exceeds a threshold amount of light (e.g., 20 lux), it is determined that the device 600 should not operate in a low light environment. Thus, the current state of the device 600 is changed and it is determined that the device 600 can be configured to capture media (e.g., portrait media) in its current state (e.g., because low light mode is disabled). Also, because of this determination, the device 600 stops displaying the low light zoom affordance 4122 and re-displays the 2x zoom affordance 2622c. In other words, when the light level within the FOV is above a threshold level, the zoom affordances 2622a-2622b return to their normal functionality. In some embodiments, while operating in portrait mode, when the light level falls back below the threshold level, the device 600 displays a camera user interface similar to that described in connection with FIGS. 41B and 41D.

図42A~図42Bは、いくつかの実施形態による、メディアをキャプチャしている間にガイダンスを提供するための方法を示すフロー図である。方法4200は、コンピュータシステムで実行される。コンピュータシステムは、1つ以上のカメラを含む。コンピュータシステムは、1つ以上の表示デバイス(例えば、タッチ感知ディスプレイ)及び1つ以上の入力デバイスと通信している。方法4200のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 42A-42B are flow diagrams illustrating a method for providing guidance while capturing media, according to some embodiments. Method 4200 is performed on a computer system. The computer system includes one or more cameras. The computer system is in communication with one or more display devices (e.g., a touch-sensitive display) and one or more input devices. Some operations of method 4200 are optionally combined, the order of some operations is optionally changed, and some operations are optionally omitted.

いくつかの実施形態では、コンピュータシステム(例えば、600)は、任意選択的に、ディスプレイ生成構成要素(例えば、表示デバイス)と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the computer system (e.g., 600) is optionally in communication (e.g., wired communication, wireless communication) with a display generation component (e.g., a display device) and with one or more input devices. The display generation component is configured to provide visual output, such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. The one or more input devices are configured to receive input, such as a touch-sensitive surface that receives user input. In some embodiments, the one or more input devices are integrated with the computer system. In some embodiments, the one or more input devices are separate from the computer system. Thus, the computer system can transmit data (e.g., image data or video data) via a wired or wireless connection to the integrated or external display generation component to visually generate content (e.g., using the display device) and can receive wired or wireless connection input from the one or more input devices.

後述するように、方法4200は、メディアをキャプチャしている間にガイダンスを提供するための直感的な仕方を提供する。この方法は、メディアをキャプチャしている間にガイダンスを提供する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアを管理することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, method 4200 provides an intuitive way to provide guidance while capturing media. The method reduces the cognitive burden on the user in providing guidance while capturing media, thereby creating a more efficient human-machine interface. For battery-operated computing devices, it conserves power and extends the time between battery charges by enabling the user to manage media more quickly and efficiently.

コンピュータシステムは、第1のズームレベル(例えば、図41Bの630、同じく図41Bの4122に表される)(例えば、2×ズームレベル、低光メディアキャプチャモードが有効化されている間にメディアをキャプチャするために最適化されていないズームレベル(例えば、1つ以上の深度センサが最適化されていない))でメディアをキャプチャするためのカメラプレビュー(例えば、630)を有する(例えば、それを表示することを含む)カメラユーザインタフェースを表示する(4202)。カメラユーザインタフェースは、(例えば、カメラプレビューの)ズームレベルを変更するための選択可能ユーザインタフェースオブジェクト(例えば、4122、2622a~2622c)(例えば、ズームアフォーダンス(例えば、ズームアフォーダンス2622のうちの1つ))を含む。いくつかの実施形態では、カメラプレビューは、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の第1の表現を含む。 The computer system displays (4202) a camera user interface having (including, e.g., displaying) a camera preview (e.g., 630) for capturing media at a first zoom level (e.g., 630 of FIG. 41B, also represented at 4122 of FIG. 41B) (e.g., a 2× zoom level, a zoom level that is not optimized for capturing media while a low-light media capture mode is enabled (e.g., one or more depth sensors are not optimized)). The camera user interface includes selectable user interface objects (e.g., 4122, 2622a-2622c) (e.g., a zoom affordance (e.g., one of zoom affordances 2622)) for changing the zoom level (e.g., of the camera preview). In some embodiments, the camera preview includes a first representation of at least a portion of the field of view of the one or more cameras displayed at the first zoom level.

コンピュータシステムは、(例えば、第1のズームレベルで(例えば、表示された)メディアをキャプチャするためのカメラプレビューを有する)カメラユーザインタフェースを表示している間に、選択可能ユーザインタフェースオブジェクト(例えば、4122、2622a~2622c)の選択に対応する入力(例えば、4150b2、4150c2)(例えば、タップ入力、ドラッグ入力)を検出する(4204)。 The computer system detects (4204) an input (e.g., 4150b2, 4150c2) (e.g., a tap input, a drag input) corresponding to a selection of a selectable user interface object (e.g., 4122, 2622a-2622c) while displaying a camera user interface (e.g., having a camera preview for capturing (e.g., displayed) media at a first zoom level).

選択可能ユーザインタフェースオブジェクトの選択に対応する入力(例えば、タップ入力、ドラッグ入力)を検出したことに応じて(4206)(例えば、かつ第1のモード(例えば、ポートレートモード(例えば、620c)で動作している間に、又はコンピュータシステムが第1のカメラ(例えば、第1のズームレベルでメディアをキャプチャするために使用される)を介してメディアをキャプチャするように構成されている間に、コンピュータシステムが第1のカメラセンサを介してメディアをキャプチャするように構成されているときに、コンピュータシステムの1つ以上の深度センサは、最適化された深度データをキャプチャするように構成されていない)、かつ利用可能な光(例えば、2680d)(例えば、1つ以上のカメラの視野内の光量(例えば、周辺光))が閾値(例えば、20ルクス、10ルクス、5ルクス、1ルクス)を下回るとの判定に従って(4208)、コンピュータシステムは、(例えば、カメラプレビューの)ズームレベルを第2のズームレベル(例えば、図41Cの630、2622bによっても表される)(例えば、1xズーム、第1のズームレベル(例えば、2×ズーム)とは異なる、又はコンピュータシステムが(例えば、第2のズームレベルでメディアをキャプチャするために使用される)第2のカメラを介してメディアをキャプチャするように構成されている間に、コンピュータシステムが第1のカメラセンサを介してメディアをキャプチャするように構成されているときに、コンピュータシステムの1つ以上の深度センサは、最適化された深度データをキャプチャするように構成されている)に変更し(4210)、低光キャプチャモードを有効化する(4212)。(カメラプレビューが第1のズームレベルで表示されている間の利用可能な光に基づいて)所定の条件が満たされるときにのみ低光キャプチャモードを自動的に有効化することにより、コンピュータシステムのユーザが追加のユーザ入力を提供する必要がある、低光キャプチャモードでメディアをキャプチャするようにコンピュータシステムを自動的に構成する(又は構成しない)ことを可能にする。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In response to detecting an input (e.g., a tap input, a drag input) corresponding to a selection of a selectable user interface object (4206) (e.g., and when the computer system is configured to capture media via a first camera sensor while operating in a first mode (e.g., a portrait mode (e.g., 620c) or while the computer system is configured to capture media via a first camera (e.g., used to capture media at a first zoom level), one or more depth sensors of the computer system capture optimized depth data. 41C ) (e.g., one or more cameras are not configured to capture media at the first zoom level (e.g., 2622b), and pursuant to a determination (4208) that the amount of light (e.g., ambient light) in the field of view of one or more cameras is below a threshold (e.g., 20 lux, 10 lux, 5 lux, 1 lux), the computer system may change the zoom level (e.g., of the camera preview) to a second zoom level (e.g., also represented by 630, 2622b in FIG. 41C ) (e.g., 1x zoom, different from the first zoom level (e.g., 2x zoom), or the computer system may configure a second camera (e.g., to be used to capture media at the second zoom level). When the computer system is configured to capture media via a first camera sensor, while the computer system is configured to capture media via a second camera sensor, the one or more depth sensors of the computer system are configured to capture optimized depth data (4210) and a low-light capture mode is enabled (4212). Automatically enabling the low-light capture mode only when a predetermined condition is met (based on available light while the camera preview is displayed at the first zoom level) allows the computer system to automatically configure (or not configure) to capture media in a low-light capture mode without requiring a user of the computer system to provide additional user input. Performing an optimized operation when a set of conditions is met without requiring further user input improves usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves the battery life of the device by allowing the user to use the device more quickly and efficiently.

選択可能ユーザインタフェースオブジェクトの選択に対応する入力(例えば、タップ入力、ドラッグ入力)を検出したことに応じて(4206)(例えば、かつ第1のモード(例えば、ポートレートモード(例えば、630)で動作している間に、又はコンピュータシステムが第1のカメラ(例えば、第1のズームレベルでメディアをキャプチャするために使用される)を介してメディアをキャプチャするように構成されている間に、コンピュータシステムが第1のカメラセンサを介してメディアをキャプチャするように構成されているときに、コンピュータシステムの1つ以上の深度センサは、最適化された深度データをキャプチャするように構成されていない)、かつ利用可能な光(例えば、2680a)が閾値(例えば、20ルクス、10ルクス、5ルクス、1ルクス)を上回るとの判定に従って(4214)、コンピュータシステムは、低光キャプチャモードを有効化することなく、(例えば、カメラプレビューの)ズームレベルを(例えば、第1のズームレベル(例えば、2×ズームレベル)とは異なる第2のズームレベル(例えば、1xズーム)に)変更する(4216)。いくつかの実施形態では、ズームレベルを変更することは、第1のズームレベルとは異なる第2のズームレベルで第1の表現を表示することを含む。 In response to detecting an input (e.g., a tap input, a drag input) corresponding to a selection of a selectable user interface object (4206) (e.g., and one or more depth sensors of the computer system are not configured to capture optimized depth data when the computer system is configured to capture media via a first camera sensor while operating in a portrait mode (e.g., 630) or while the computer system is configured to capture media via a first camera (e.g., used to capture media at a first zoom level)) and in response to a determination that the available light (e.g., 2680a) is above a threshold value (e.g., 20 lux, 10 lux, 5 lux, 1 lux) (4214), the computer system changes the zoom level (e.g., of the camera preview) (e.g., to a second zoom level (e.g., 1x zoom) that is different from the first zoom level (e.g., 2x zoom level)) without enabling a low-light capture mode (4216). In some embodiments, changing the zoom level includes displaying the first representation at the second zoom level that is different from the first zoom level.

いくつかの実施形態では、カメラユーザインタフェースは、メディア(例えば、610)をキャプチャするための選択可能ユーザインタフェースオブジェクト(例えば、メディアキャプチャアフォーダンス)を含む(例えば、それを表示することを含む)。いくつかの実施形態では、メディアをキャプチャする選択可能ユーザインタフェースオブジェクトは、現在カメラプレビューと共に表示されている。いくつかの実施形態では、カメラプレビューが第1のズームレベルで表示されている間に、かつ利用可能な光が閾値を下回るとの判定に従って、メディアをキャプチャするための選択可能ユーザインタフェースオブジェクトは、無効化される(例えば、図41Bの610)(例えば、非アクティブ(例えば、非アクティブ状態にある))。いくつかの実施形態では、カメラプレビューが第1のズームレベルで表示されている間に、かつ利用可能な光が閾値を上回るとの判定に従って、メディアをキャプチャするための選択可能ユーザインタフェースオブジェクトは、有効化される(例えば、図41Fの610)(例えば、アクティブ(例えば、アクティブ状態にある))。いくつかの実施形態では、コンピュータシステムは、メディアをキャプチャするための選択可能ユーザインタフェースオブジェクトの選択に対応する入力を受信する。いくつかの実施形態では、メディアをキャプチャするための選択可能ユーザインタフェースオブジェクト上のタップに対応する入力を受信したことに応じて、かつ入力が受信されたときに、メディアをキャプチャするための選択可能ユーザインタフェースオブジェクトが有効化されていたとの判定に従って、コンピュータシステムは、メディアのキャプチャを開始する。いくつかの実施形態では、メディアをキャプチャするための選択可能ユーザインタフェースオブジェクトの選択に対応する入力を受信したことに応じて、かつ入力が受信されたときに、メディアをキャプチャするための選択可能ユーザインタフェースオブジェクトが無効化されていたとの判定に従って、コンピュータシステムは、メディアのキャプチャの開始をやめる。いくつかの実施形態では、メディアをキャプチャするための選択可能ユーザインタフェースオブジェクトが無効化されている(例えば、非アクティブ)(例えば、図41Bの610)との判定に従って、メディアをキャプチャするための選択可能ユーザインタフェースオブジェクトは、第1の視覚外観(例えば、図41Bの610)(例えば、第1の色、半透明でない、押圧状態)で表示される。いくつかの実施形態では、メディアをキャプチャするための選択可能ユーザインタフェースオブジェクトが有効化されている(例えば、アクティブ)(例えば、図41Fの610)との判定に従って、メディアをキャプチャするための選択可能ユーザインタフェースオブジェクトは、第1の視覚外観とは異なる第2の視覚外観(例えば、図41Fの610)(例えば、第1の色とは異なる第2の色、半透明、押圧されていない状態)で表示される。(カメラプレビューが第1のズームレベルで表示されている間の利用可能な光に基づいて)所定の条件が満たされているときにのみメディアキャプチャアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)を有効化又は無効化することにより、コンピュータシステムの構成及びコンピュータのカメラの視野内の環境条件に基づいて、システムがメディアのキャプチャを許可する/無効化することを可能にする(かつメディアのキャプチャを実行することができる/できないことをユーザが迅速に認識することを可能にする)。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。メディアキャプチャアフォーダンスが有効化されているかを又は無効化されているかを反映するように、(カメラプレビューが第1のズームレベルで表示されている間の利用可能な光に基づいて)メディアキャプチャアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)の視覚特性を更新することにより、ユーザがメディアキャプチャアフォーダンスの選択を介して動作を実行するための入力を意図せずに提供することを回避するのを支援する一方で、同時に、コンピュータシステムの構成及びコンピュータシステムのカメラの視野内の環境条件に基づいて、メディアのキャプチャを実行することができる/できないことをユーザが認識できるようにすることによって、デバイスのより多くのコントロールをユーザに提供する。表示される追加のコントロールによってUIを雑然とさせることなく、コンピュータシステムの追加のコントロールを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the camera user interface includes (e.g., includes displaying) a selectable user interface object (e.g., a media capture affordance) for capturing media (e.g., 610). In some embodiments, the selectable user interface object for capturing media is currently displayed with the camera preview. In some embodiments, while the camera preview is displayed at a first zoom level and pursuant to a determination that the available light is below a threshold, the selectable user interface object for capturing media is disabled (e.g., 610 of FIG. 41B) (e.g., inactive (e.g., in an inactive state)). In some embodiments, while the camera preview is displayed at a first zoom level and pursuant to a determination that the available light is above a threshold, the selectable user interface object for capturing media is enabled (e.g., 610 of FIG. 41F) (e.g., active (e.g., in an active state)). In some embodiments, the computer system receives an input corresponding to a selection of the selectable user interface object for capturing media. In some embodiments, in response to receiving an input corresponding to a tap on a selectable user interface object for capturing media and in accordance with a determination that the selectable user interface object for capturing media was enabled when the input was received, the computer system initiates capturing of media. In some embodiments, in response to receiving an input corresponding to a selection of a selectable user interface object for capturing media and in accordance with a determination that the selectable user interface object for capturing media was disabled when the input was received, the computer system ceases initiating capturing of media. In some embodiments, in response to a determination that the selectable user interface object for capturing media is disabled (e.g., inactive) (e.g., 610 of FIG. 41B), the selectable user interface object for capturing media is displayed in a first visual appearance (e.g., 610 of FIG. 41B) (e.g., a first color, not translucent, pressed). In some embodiments, pursuant to a determination that a selectable user interface object for capturing media is enabled (e.g., active) (e.g., 610 of FIG. 41F), the selectable user interface object for capturing media is displayed with a second visual appearance (e.g., 610 of FIG. 41F) different from the first visual appearance (e.g., a second color different from the first color, semi-transparent, unpressed). Enabling or disabling a media capture affordance (e.g., a selectable user interface object) only when a predetermined condition is met (based on available light while the camera preview is displayed at the first zoom level) allows the system to allow/disable capture of media (and allows the user to quickly recognize that media capture can/cannot be performed) based on the configuration of the computer system and environmental conditions within the field of view of the computer's camera. Improve usability of the device by performing an optimized action when a set of conditions are met without requiring further user input, make the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and reduce power usage and improve battery life of the device by allowing the user to use the device more quickly and efficiently. Updating the visual characteristics of a media capture affordance (e.g., a selectable user interface object) to reflect whether the media capture affordance is enabled or disabled (based on available light while the camera preview is displayed at a first zoom level) helps the user avoid unintentionally providing input to perform an action via selection of a media capture affordance, while at the same time providing the user with more control over the device by allowing the user to know that capture of media can/cannot be performed based on the configuration of the computer system and environmental conditions within the field of view of the computer system's camera. Providing additional control of a computer system without cluttering the UI with additional controls that are displayed enhances usability of the device, makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), and also reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、カメラユーザインタフェースは、メディア(例えば、610)をキャプチャするための選択可能ユーザインタフェースオブジェクト(例えば、メディアキャプチャアフォーダンス)を含む(例えば、それを表示することを含む)。いくつかの実施形態では、メディアをキャプチャする選択可能ユーザインタフェースオブジェクトは、現在カメラプレビューと共に表示されている。いくつかの実施形態では、カメラプレビューが(例えば、第1のズームレベルとは異なる)第2のズームレベル(例えば、図41Cの630)で表示されている間に、メディアをキャプチャするための選択可能ユーザインタフェースオブジェクト(例えば、図41Cの610)は、利用可能な光量が閾値を上回る(又は上回らない)かどうかに関係なく(例えば、利用可能な光量にかかわらず)、有効化される(例えば、アクティブ)(例えば、第2の視覚外観(例えば、第1の色とは異なる第2の色、半透明、押圧されていない状態)で表示される)。 In some embodiments, the camera user interface includes (e.g., includes displaying) a selectable user interface object (e.g., a media capture affordance) for capturing media (e.g., 610). In some embodiments, the selectable user interface object for capturing media is currently displayed along with the camera preview. In some embodiments, while the camera preview is displayed at a second zoom level (e.g., 630 in FIG. 41C) (e.g., different from the first zoom level), the selectable user interface object for capturing media (e.g., 610 in FIG. 41C) is enabled (e.g., active) (e.g., displayed with a second visual appearance (e.g., a second color different from the first color, semi-transparent, not pressed)) regardless of whether the amount of available light is above (or not above) a threshold (e.g., regardless of the amount of available light).

いくつかの実施形態では、カメラプレビュー(例えば、41B内の630)が第1のズームレベルで表示されている間に、かつ利用可能な光が閾値を下回るとの判定に従って、コンピュータシステムは、ズームレベルを切り替えるためのガイダンス(例えば、4102)(例えば、「ポートレートモードを使用するためには、ズームアウトしてください」)を表示する。いくつかの実施形態では、ズームレベルを切り替えるためのガイダンスは、カメラプレビュー上に重ね合わされる。いくつかの実施形態では、カメラプレビューが第1のズームレベルで表示されている間に、かつ利用可能な光が閾値を上回るとの判定に従って、コンピュータシステムは、ズームレベルを切り替えるためのガイダンスの表示をやめる。(カメラプレビューが第1のズームレベルで表示されている間の利用可能な光に基づいて)ズームレベルを切り替えるためのガイダンスを表示する(又は表示しない)ことにより、コンピュータシステムの現在の状態に関するフィードバックをユーザに提供し、カメラプレビューが第1のズームレベルで表示されている間の利用可能な光に基づいて、メディアのキャプチャを最適化するために行うことができるアクションに関する視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, while the camera preview (e.g., 630 in 41B) is displayed at the first zoom level and pursuant to a determination that the available light falls below the threshold, the computer system displays guidance (e.g., 4102) (e.g., "Zoom out to use portrait mode"). In some embodiments, the guidance for switching zoom levels is superimposed on the camera preview. In some embodiments, while the camera preview is displayed at the first zoom level and pursuant to a determination that the available light exceeds the threshold, the computer system ceases to display guidance for switching zoom levels. Displaying (or not displaying) guidance for switching zoom levels (based on the available light while the camera preview is displayed at the first zoom level) provides feedback to the user regarding the current state of the computer system and provides visual feedback to the user regarding actions that can be taken to optimize the capture of media based on the available light while the camera preview is displayed at the first zoom level. Providing improved visual feedback to the user improves usability of the device and makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、カメラプレビュー(例えば、図41Cの630)が(例えば、第1のズームレベルとは異なる)第2のズームレベルで表示されている間に、コンピュータシステムは、利用可能な光が閾値を上回る(又は上回らない)かどうかに関係なく(例えば、利用可能な光量にかかわらず)、ズームレベルを切り替えるためのガイダンス(例えば、4102)(例えば、「ポートレートモードを使用するためには、ズームアウトしてください」)の表示をやめる。いくつかの実施形態では、利用可能な光が閾値を下回るとの判定に従って、コンピュータシステムは、(例えば、ズームアフォーダンスとは別個の)低光モードを有効化するための低光モードアフォーダンス(例えば、ズームレベルのインジケーションを含まない)を表示する。カメラプレビューが第2のズームレベルで表示されているときにズームレベルを切り替えるためのガイダンスを表示しないことにより、コンピュータシステムの現在の状態に関するフィードバックをユーザに提供し、ユーザがメディアをキャプチャする前に不必要な調整を行うのを支援する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, while the camera preview (e.g., 630 in FIG. 41C) is displayed at a second zoom level (e.g., different from the first zoom level), the computer system ceases to display guidance (e.g., 4102) (e.g., “Zoom out to use portrait mode”) for switching zoom levels, regardless of whether the available light is (or is not) above a threshold (e.g., regardless of the amount of available light). In some embodiments, pursuant to a determination that the available light is below a threshold, the computer system displays a low light mode affordance (e.g., separate from the zoom affordance) for enabling low light mode (e.g., not including an indication of the zoom level). Not displaying guidance for switching zoom levels while the camera preview is displayed at the second zoom level provides feedback to the user regarding the current state of the computer system and assists the user in making unnecessary adjustments before capturing media. Providing improved visual feedback to the user improves usability of the device and makes the user-device interface more efficient (e.g., by assisting the user in providing appropriate inputs when operating/interacting with the device and reducing user errors), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、カメラプレビュー(例えば、630)が第1のズームレベルで表示されている間に、かつ利用可能な光が閾値を下回るとの判定に従って、コンピュータシステムは、フラッシュモードを有効化する(例えば、アクティブ化する)ためのガイダンス(例えば、4102)(例えば、「ポートレートモードを使用するためには、フラッシュをオンにしてください」)を表示する。いくつかの実施形態では、ズームレベルを切り替えるためのガイダンスは、カメラプレビュー上に重ね合わされる。いくつかの実施形態では、カメラプレビューが第1のズームレベルで表示されている間に、かつ利用可能な光が閾値を上回るとの判定に従って、コンピュータシステムは、フラッシュモードをアクティブ化するためのガイダンスの表示をやめる。いくつかの実施形態では、フラッシュモードを有効化するためのガイダンスは、ズームレベルを切り替えるためのガイダンスと同時に表示される。いくつかの実施形態では、フラッシュモード有効化するためのガイダンス及びズームレベルを切り替えるためのガイダンスを含むガイダンス(例えば、「ポートレートモードを使用するためには、ズームアウトする又はフラッシュをオンにしてください」)は、カメラプレビューが第1のズームレベルで表示されている間に、かつ利用可能な光が閾値を下回るとの判定に従って、表示される。いくつかの実施形態では、カメラプレビューが第1のズームで表示されている間に、フラッシュモードを有効化するためのガイダンスは、利用可能な光量が閾値を上回る(又は上回らない)かどうかに関係なく(例えば、利用可能な光量にかかわらず)、表示されない。(カメラプレビューが第1のズームレベルで表示されている間の利用可能な光に基づいて)フラッシュモードを有効化するガイダンスを表示する(又は表示しない)ことにより、コンピュータシステムの現在の状態に関するフィードバックをユーザに提供し、カメラプレビューが第1のズームレベルで表示されている間の利用可能な光に基づいて、メディアのキャプチャを最適化するために行うことができるアクションに関する視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, while the camera preview (e.g., 630) is displayed at the first zoom level and pursuant to a determination that the available light is below the threshold, the computer system displays guidance (e.g., 4102) for enabling (e.g., activating) a flash mode (e.g., “Turn on flash to use portrait mode”). In some embodiments, the guidance for switching zoom levels is superimposed on the camera preview. In some embodiments, while the camera preview is displayed at the first zoom level and pursuant to a determination that the available light is above the threshold, the computer system ceases displaying guidance for activating a flash mode. In some embodiments, the guidance for enabling a flash mode is displayed simultaneously with guidance for switching zoom levels. In some embodiments, guidance including guidance for enabling a flash mode and guidance for switching zoom levels (e.g., “Zoom out or turn on flash to use portrait mode”) is displayed while the camera preview is displayed at the first zoom level and pursuant to a determination that the available light is below the threshold. In some embodiments, while the camera preview is displayed at the first zoom, guidance to enable the flash mode is not displayed (e.g., regardless of the amount of available light), regardless of whether the amount of available light is (or is not) above a threshold. Displaying (or not displaying) guidance to enable the flash mode (based on the available light while the camera preview is displayed at the first zoom level) provides the user with feedback regarding the current state of the computer system and provides the user with visual feedback regarding actions that can be taken to optimize media capture based on the available light while the camera preview is displayed at the first zoom level. Providing the user with improved visual feedback improves usability of the device and provides a more efficient user-device interface (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のズームレベルは、第2のズームレベルよりも大きい(例えば、第2のズームレベルよりも高い(例えば、2×ズームレベルは、1xズームレベルよりも大きい))。いくつかの実施形態では、第2のズームレベルは、第1のズームレベルよりも大きく、したがって、視野内のオブジェクトの表現は、第2のズームレベルよりも第1のズームレベルで大きく表示される。いくつかの実施形態では、第2のズームレベルは、第1のズームレベルよりも小さく、したがって、視野内のオブジェクトの表現は、第2のズームレベルよりも第1のズームレベルで小さく表示される。 In some embodiments, the first zoom level is greater than the second zoom level (e.g., greater than the second zoom level (e.g., a 2x zoom level is greater than a 1x zoom level)). In some embodiments, the second zoom level is greater than the first zoom level, and thus representations of objects in the field of view are displayed larger at the first zoom level than at the second zoom level. In some embodiments, the second zoom level is less than the first zoom level, and thus representations of objects in the field of view are displayed smaller at the first zoom level than at the second zoom level.

いくつかの実施形態では、コンピュータシステムは、1つ以上の深度センサ(例えば、1つ以上のカメラの視野に少なくとも部分的に重なり合う視野の深度データ(例えば、情報)をキャプチャするための1つ以上のセンサ)を含む。いくつかの実施形態では、カメラプレビューが第1のズームレベルで表示されている間に、かつ利用可能な光が閾値を下回るとの判定に従って、1つ以上の深度センサは、第1の精度での第1のズームレベルにおける1つ以上のカメラの視野に関する深度情報の判定を有効化する。いくつかの実施形態では、カメラプレビューが第2のズームレベルで表示されている間に、かつ利用可能な光が閾値を下回るとの判定に従って、1つ以上の深度センサは、第1の精度よりも高い第2の精度での第2のズームレベルにおける1つ以上のカメラの視野に関する深度情報の判定を有効化する。 In some embodiments, the computer system includes one or more depth sensors (e.g., one or more sensors for capturing depth data (e.g., information) for a field of view that at least partially overlaps the field of view of one or more cameras). In some embodiments, while the camera preview is displayed at a first zoom level and pursuant to a determination that the available light is below a threshold, the one or more depth sensors enable a determination of depth information for the field of view of the one or more cameras at the first zoom level with a first accuracy. In some embodiments, while the camera preview is displayed at a second zoom level and pursuant to a determination that the available light is below a threshold, the one or more depth sensors enable a determination of depth information for the field of view of the one or more cameras at the second zoom level with a second accuracy that is higher than the first accuracy.

いくつかの実施形態では、カメラプレビュー(例えば、630)が第1のズームレベルで表示されている間に、かつ利用可能な光が閾値を下回るとの判定に従って、ズームレベルを変更するための選択可能ユーザインタフェースオブジェクト(例えば、4122)は、低光キャプチャモードに対応する(例えば、低光キャプチャモードに関連付けられた)インジケーション(例えば、低光キャプチャモードに関連付けられたグラフィカルインジケータ、1つ以上の文字)を含む。いくつかの実施形態では、カメラプレビューが第1のズームレベルで表示されている間に、かつ利用可能な光が閾値を上回るとの判定に従って、ズームレベルを変更するための選択可能ユーザインタフェースオブジェクトは、低光キャプチャモードに対応するインジケーションを含まない。いくつかの実施形態では、低光キャプチャモードに対応するインジケーションは、低光キャプチャモードが有効化されていることを示す。いくつかの実施形態では、カメラプレビューが第1のズームレベルで表示されている間に、利用可能な光が閾値を下回るとの判定に従って、かつフラッシュモードが有効化されているとの判定に従って、低光キャプチャモードに対応するインジケーションは、ズームレベルを変更するための選択可能ユーザインタフェースオブジェクト内に表示されることを停止する(任意選択的に、消える)。(カメラプレビューが変更されたズームレベルで表示されている間に、かつ利用可能な低光が閾値を下回るときに)低光モードに対応するインジケーションと共にズームアフォーダンスを表示することにより、低光キャプチャモードの現在の状態に関するフィードバックをユーザに提供し、ユーザがズームアフォーダンスをアクティブ化する場合に、ズームアフォーダンスに関連付けられたどの動作が実行されることになるか(例えば、低光モードが有効化され、ズームレベルが変化する)を示す視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, while the camera preview (e.g., 630) is displayed at the first zoom level and pursuant to a determination that the available light falls below a threshold, a selectable user interface object (e.g., 4122) for changing the zoom level includes an indication (e.g., a graphical indicator, one or more characters associated with the low-light capture mode) corresponding to the low-light capture mode (e.g., associated with the low-light capture mode). In some embodiments, while the camera preview is displayed at the first zoom level and pursuant to a determination that the available light is above the threshold, a selectable user interface object for changing the zoom level does not include an indication corresponding to the low-light capture mode. In some embodiments, the indication corresponding to the low-light capture mode indicates that the low-light capture mode is enabled. In some embodiments, while the camera preview is displayed at the first zoom level and pursuant to a determination that the available light falls below a threshold and pursuant to a determination that the flash mode is enabled, the indication corresponding to the low-light capture mode ceases to be displayed (optionally disappears) within the selectable user interface object for changing the zoom level. Displaying the zoom affordance along with an indication corresponding to low light mode (while the camera preview is displayed at the changed zoom level and when the available low light falls below a threshold) provides the user with feedback regarding the current state of the low light capture mode and provides the user with visual feedback indicating what action associated with the zoom affordance will be performed if the user activates the zoom affordance (e.g., low light mode is enabled and the zoom level changes). Providing the user with improved visual feedback improves usability of the device and provides a more efficient user-device interface (e.g., by helping the user provide appropriate inputs and reducing user errors when operating/interacting with the device), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、カメラプレビューが第2のズームレベルで表示されている間に、ズームレベルを変更するための選択可能ユーザインタフェースオブジェクト(例えば、図41Cの2622b)は、利用可能な光量が閾値を上回る(又は、上回らない)かどうかに関係なく(例えば、利用可能な光量にかかわりなく)、低光キャプチャモードに対応するインジケーション(例えば、低光キャプチャモードに関連付けられたグラフィカルインジケータ、1つ以上の文字)を含まない。カメラプレビューが変更されたズームレベルで表示されている間に、低光モードに対応するインジケーションなしにズームアフォーダンスを表示することにより、ズームアフォーダンスの現在の状態に関するフィードバックをユーザに提供し、ユーザがズームアフォーダンスをアクティブ化する場合に、ズームアフォーダンスに関連付けられたどの動作が実行されることになるか(例えば、ズームレベルが変化し、低光モードが有効化されない)を示す視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the selectable user interface object for changing the zoom level (e.g., 2622b in FIG. 41C) while the camera preview is displayed at the second zoom level does not include an indication corresponding to the low-light capture mode (e.g., a graphical indicator, one or more characters associated with the low-light capture mode), regardless of whether the amount of available light is (or is not) above a threshold (e.g., regardless of the amount of available light). Displaying the zoom affordance without an indication corresponding to the low-light mode while the camera preview is displayed at the changed zoom level provides the user with feedback regarding the current state of the zoom affordance and provides the user with visual feedback indicating what action associated with the zoom affordance will be performed (e.g., the zoom level will change and low-light mode will not be enabled) if the user activates the zoom affordance. Providing the user with improved visual feedback improves device usability and makes the user-device interface more efficient (e.g., by assisting the user in making appropriate inputs and reducing user errors when operating/interacting with the device), which in turn reduces the device's power usage and improves battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、低光キャプチャモードが有効化されている間に、コンピュータシステムは、メディアをキャプチャする要求(例えば、4150c1)(例えば、有効化されたメディアをキャプチャするための選択可能ユーザインタフェースオブジェクト(例えば、610)(例えば、メディアアフォーダンス)上のタップ)を受信する。いくつかの実施形態では、メディアをキャプチャする要求を受信したことに応じて、コンピュータシステムは、キャプチャ持続時間にわたる複数の画像のキャプチャを開始する。いくつかの実施形態では、キャプチャ持続時間にわたる複数の画像のキャプチャを開始した後に、コンピュータシステムは、複数の画像の少なくとも一部のコンテンツを含む合成画像を生成し(例えば、図18J~図18U、図26J~図26S、及び図39A~図39Qに関連して上述したように)、合成画像は、複数の画像のうちの1つ以上よりも視覚的に明るい。いくつかの実施形態では、合成画像を生成することは、複数の画像の少なくとも一部のコンテンツをマージすることを含む。いくつかの実施形態では、コンピュータシステムは、メディアをキャプチャする要求を受信する。メディアをキャプチャする要求を受信したことに応じて、かつ低光キャプチャモードが有効化されているとの判定に従って、コンピュータシステムは、キャプチャ持続時間にわたって、キャプチャ持続時間にわたってキャプチャされた複数の画像の各画像よりも視覚的に明るい合成画像に組み合わされることになる複数の画像のキャプチャを開始する。メディアをキャプチャする要求を受信したことに応じて、かつ低光キャプチャモードが有効化されていないとの判定に従って、コンピュータシステムは、キャプチャ持続時間にわたってキャプチャされた複数の画像の各画像よりも視覚的に明るい合成画像に複数の画像を組み合わせることなく、キャプチャ持続時間にわたって複数の画像のキャプチャを開始する。いくつかの実施形態では、複数の画像は、異なるキャプチャ持続時間にわたってキャプチャされた異なる画像を含む。 In some embodiments, while the low light capture mode is enabled, the computer system receives a request to capture media (e.g., 4150c1) (e.g., a tap on a selectable user interface object (e.g., 610) (e.g., a media affordance) to capture the enabled media). In some embodiments, in response to receiving the request to capture media, the computer system initiates capture of a plurality of images over a capture duration. In some embodiments, after initiating capture of the plurality of images over a capture duration, the computer system generates a composite image including at least some content of the plurality of images (e.g., as described above in connection with FIGS. 18J-18U, 26J-26S, and 39A-39Q), the composite image being visually brighter than one or more of the plurality of images. In some embodiments, generating the composite image includes merging at least some content of the plurality of images. In some embodiments, the computer system receives the request to capture media. In response to receiving a request to capture media and in accordance with a determination that low light capture mode is enabled, the computer system begins capturing a plurality of images over the capture duration that will be combined into a composite image that is visually brighter than each image of the plurality of images captured over the capture duration. In response to receiving a request to capture media and in accordance with a determination that low light capture mode is not enabled, the computer system begins capturing a plurality of images over the capture duration without combining the plurality of images into a composite image that is visually brighter than each image of the plurality of images captured over the capture duration. In some embodiments, the plurality of images includes different images captured over different capture durations.

方法4200に関して上述された処理(例えば、図42A~図42B)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2500、2700、2800、3000、3200、3400、3600、3800、及び4000は、方法4200を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法2700及び2800は、任意選択的に、方法4200に関連して上述したように、メディアキャプチャ技術を採用する。簡潔にするために、これらの詳細は、以下で繰り返さない。 It should be noted that the details of the processes (e.g., FIGS. 42A-42B) described above with respect to method 4200 are also applicable in a similar manner to the methods described above. For example, methods 700, 900, 1100, 1300, 1500, 1700, 1900, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3400, 3600, 3800, and 4000 optionally include one or more of the characteristics of the various methods described above with reference to method 4200. For example, methods 2700 and 2800 optionally employ media capture techniques as described above with respect to method 4200. For the sake of brevity, these details will not be repeated below.

上記は、説明を目的として、特定の実施形態を参照して記述されている。しかしながら、上記の例示的な論考は、網羅的であること、又は開示される厳密な形態に本発明を限定することを意図するものではない。上記の教示を考慮して、多くの修正及び変形が可能である。これらの実施形態は、本技術の原理、及びその実際の適用を最もよく説明するために、選択及び記載されている。それにより、他の当業者は、意図された具体的な用途に適するような様々な修正を用いて、本技術及び様々な実施形態を最も良好に利用することが可能となる。 The above has been described with reference to specific embodiments for purposes of explanation. However, the illustrative discussion above is not intended to be exhaustive or to limit the invention to the precise form disclosed. Many modifications and variations are possible in light of the above teachings. The embodiments have been chosen and described in order to best explain the principles of the technology and its practical application so that others skilled in the art can best utilize the technology and various embodiments with various modifications as suited to the particular applications intended.

添付図面を参照して、本開示及び例を十分に説明してきたが、様々な変更及び修正が、当業者には明らかとなるであろうことに留意されたい。そのような変更及び修正は、特許請求の範囲によって定義されるような、本開示及び例の範囲内に含まれるものとして理解されたい。 Although the present disclosure and examples have been fully described with reference to the accompanying drawings, it should be noted that various changes and modifications will be apparent to those skilled in the art. Such changes and modifications are to be understood as being included within the scope of the present disclosure and examples, as defined by the claims.

上述したように、本技術の一態様は、メディアを管理するための様々なソースから入手可能なデータを収集及び使用することである。本開示は、いくつかの例において、この収集されたデータは、特定の人を一意に識別する個人情報データ、又は特定の人に連絡する若しくはその所在を突き止めるために使用できる個人情報データを含み得ることを想到している。このようなパーソナル情報データとしては、位置ベースデータ、又は任意の他の識別情報若しくはパーソナル情報を挙げることができる。 As discussed above, one aspect of the present technology is the collection and use of data available from various sources to manage media. The present disclosure contemplates that in some examples, this collected data may include personal information data that uniquely identifies a particular person or that can be used to contact or locate a particular person. Such personal information data may include location-based data, or any other identifying or personal information.

本開示は、本技術におけるそのような個人情報データの使用がユーザの利益になる使用であり得る点を認識するものである。例えば、個人情報データは、より良くメディア管理できるようにするために使用することができる。したがって、そのような個人情報データの使用により、ユーザは、メディアにより容易にキャプチャ、編集、及びアクセスできる。更には、ユーザに利益をもたらす、個人情報データに関する他の使用もまた、本開示によって想到される。 This disclosure recognizes that the use of such personal information data in the present technology may be used to the benefit of the user. For example, the personal information data may be used to enable better media management, thus allowing the user to more easily capture, edit, and access media. Moreover, other uses of personal information data that benefit the user are also contemplated by this disclosure.

本開示は、そのような個人情報データの収集、分析、開示、伝送、記憶、又は他の使用に関与するエンティティが、確固たるプライバシーポリシー及び/又はプライバシー慣行を遵守するものとなることを想到する。具体的には、そのようなエンティティは、個人情報データを秘密として厳重に保守するための、業界又は政府の要件を満たしているか又は上回るものとして一般に認識されている、プライバシーのポリシー及び慣行を実施し、一貫して使用するべきである。そのようなポリシーは、ユーザによって容易にアクセス可能とするべきであり、データの収集及び/又は使用が変化するにつれて更新されるべきである。ユーザからの個人情報は、そのエンティティの合法的かつ正当な使用のために収集されるべきであり、それらの合法的使用を除いては、共有又は販売されるべきではない。更には、そのような収集/共有は、ユーザに告知して同意を得た後に実施されるべきである。更には、そのようなエンティティは、そのような個人情報データへのアクセスを保護して安全化し、その個人情報データへのアクセスを有する他者が、それらのプライバシーポリシー及び手順を遵守することを保証するための、あらゆる必要な措置を講じることを考慮するべきである。更には、そのようなエンティティは、広く受け入れられているプライバシーのポリシー及び慣行に対する自身の遵守を証明するために、第三者による評価を自らが受けることができる。更には、ポリシー及び慣行は、収集及び/又はアクセスされる具体的な個人情報データのタイプに適合されるべきであり、また、管轄権固有の考慮事項を含めた、適用可能な法令及び規格に適合されるべきである。例えば、アメリカ合衆国では、特定の健康データの収集又はアクセスは、医療保険の相互運用性と説明責任に関する法律(Health Insurance Portability and Accountability Act、HIPAA)などの、連邦法及び/又は州法によって管理することができ、その一方で、他国における健康データは、他の規制及びポリシーの対象となり得るものであり、それに従って対処されるべきである。それゆえ、各国の異なる個人データのタイプに関して、異なるプライバシー慣行が保たれるべきである。 This disclosure contemplates that entities involved in the collection, analysis, disclosure, transmission, storage, or other use of such personal information data will adhere to robust privacy policies and/or practices. Specifically, such entities should implement and consistently use privacy policies and practices that are generally recognized as meeting or exceeding industry or government requirements for keeping personal information data confidential and secure. Such policies should be easily accessible by users and should be updated as data collection and/or use changes. Personal information from users should be collected for the entity's lawful and legitimate use and should not be shared or sold except for those lawful uses. Furthermore, such collection/sharing should be conducted after notifying and obtaining consent from the user. Furthermore, such entities should consider taking all necessary measures to protect and secure access to such personal information data and ensure that others having access to that personal information data adhere to their privacy policies and procedures. Furthermore, such entities may subject themselves to third-party assessments to attest to their adherence to widely accepted privacy policies and practices. Moreover, policies and practices should be adapted to the specific types of personal information data collected and/or accessed, and should conform to applicable laws and standards, including jurisdiction-specific considerations. For example, in the United States, collection or access of certain health data may be governed by federal and/or state laws, such as the Health Insurance Portability and Accountability Act (HIPAA), while health data in other countries may be subject to other regulations and policies and should be addressed accordingly. Therefore, different privacy practices should be maintained with respect to different types of personal data in each country.

前述のことがらにも関わらず、本開示はまた、個人情報データの使用又は個人情報データへのアクセスを、ユーザが選択的に阻止する実施形態も想到する。すなわち、本開示は、そのような個人情報データへのアクセスを防止又は阻止するように、ハードウェア要素及び/又はソフトウェア要素を提供することができると想到する。例えば、ロケーションサービスの場合において、本技術は、ユーザが、サービスの登録中又はその後のいつでも、個人情報データの収集への参加の「オプトイン」又は「オプトアウト」を選択できるように構成され得る。「オプトイン」及び「オプトアウト」の選択肢を提供することに加えて、本開示は、個人情報のアクセス又は使用に関する通知を提供することを想到する。例えば、ユーザの個人情報データにアクセスすることとなるアプリのダウンロード時にユーザに通知され、その後、個人情報データがアプリによってアクセスされる直前に再びユーザに注意してもよい。 Notwithstanding the foregoing, the present disclosure also contemplates embodiments in which a user selectively blocks use of or access to personal information data. That is, the present disclosure contemplates that hardware and/or software elements may be provided to prevent or block access to such personal information data. For example, in the case of location services, the present technology may be configured to allow a user to select to "opt-in" or "opt-out" of participating in the collection of personal information data during registration for the service or at any time thereafter. In addition to providing "opt-in" and "opt-out" options, the present disclosure contemplates providing notifications regarding access or use of personal information. For example, the user may be notified upon download of an app that will access the user's personal information data, and then the user may be reminded again immediately before the personal information data is accessed by the app.

更には、本開示の意図は、個人情報データを、非意図的若しくは無許可アクセス又は使用の危険性を最小限に抑える方法で、管理及び処理するべきであるという点である。データの収集を制限し、データがもはや必要とされなくなった時点で削除することによって、危険性を最小限に抑えることができる。更には、適用可能な場合、特定の健康関連アプリケーションにおいて、ユーザのプライバシーを保護するために、データの非特定化を使用することができる。非特定化は、適切な場合には、特定の識別子(例えば、生年月日など)を除去すること、記憶されたデータの量又は特異性を制御すること(例えば、位置データを住所レベルよりも都市レベルで収集すること)、データがどのように記憶されるかを制御すること(例えば、データをユーザ全体にわたって情報集約すること)及び/又は他の方法によって、容易にすることができる。 Further, it is the intent of this disclosure that personal information data should be managed and processed in a manner that minimizes the risk of unintended or unauthorized access or use. Risk can be minimized by limiting collection of data and deleting it when it is no longer needed. Furthermore, where applicable, de-identification of data can be used to protect user privacy in certain health-related applications. De-identification can be facilitated by removing certain identifiers (e.g., date of birth, etc.) where appropriate, controlling the amount or specificity of data stored (e.g., collecting location data at a city level rather than an address level), controlling how data is stored (e.g., aggregating data across users), and/or other methods.

それゆえ、本開示は、1つ以上の様々な開示された実施形態を実施するための、個人情報データの使用を広範に網羅するものではあるが、本開示はまた、そのような個人情報データにアクセスすることを必要とせずに、それらの様々な実施形態を実施することもまた可能であることを想到している。すなわち、本技術の様々な実施形態は、そのような個人情報データの全て又は一部分が欠如することにより、実施不可能となるものではない。例えば、メディアは、ユーザに関連付けられたデバイスにより要求されたコンテンツ、サービスで使用可能な他の非個人情報、若しくは公的に使用可能な情報などの、非個人情報データ又は個人情報の最小限の量のみに基づいて嗜好を推測することにより、キャプチャされ、アクセスされ、及び編集され得る。
[項目1]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
複数のコントロールアフォーダンスを含むカメラコントロール領域と、
を含む、ことと、
第1の既定の条件及び第2の既定の条件が満たされていない間に、前記第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ前記第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示することと、
前記第1のコントロールアフォーダンスを表示することなく、かつ前記第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示している間に、条件の変化を検出することと、
条件の前記変化を検出したことに応じて、
前記第1の既定の条件が満たされているとの判定に従って、前記第1のコントロールアフォーダンスを表示することと、
前記第2の既定の条件が満たされているとの判定に従って、前記第2のコントロールアフォーダンスを表示することと、
を含む、方法。
[項目2]
条件の前記変化を検出したことに応じて、
前記第1及び第2の既定の条件が満たされているとの判定に従って、前記第1のコントロールアフォーダンス及び前記第2のコントロールアフォーダンスを同時に表示すること、
を更に含む、項目1に記載の方法。
[項目3]
条件の前記変化を検出したことに応じて、
前記第1の既定の条件が満たされており、かつ前記第2の既定の条件が満たされていないとの判定に従って、前記第1のコントロールアフォーダンスを表示する一方で、前記第2のコントロールアフォーダンスを表示することをやめることと、
前記第1の既定の条件が満たされておらず、かつ前記第2の既定の条件が満たされているとの判定に従って、前記第2のコントロールアフォーダンスを表示する一方で、前記第1のコントロールアフォーダンスを表示することをやめることと、
を更に含む、項目1又は2に記載の方法。
[項目4]
前記1つ以上のカメラの前記視野内の光量が第1の所定の閾値を下回ると、前記第1の既定の条件が満たされ、前記第1のコントロールアフォーダンスは、フラッシュ動作を制御するアフォーダンスである、項目1から3のいずれか一項に記載の方法。
[項目5]
前記電子デバイスが第1のタイプのアクセサリに接続されていると、前記第1の既定の条件が満たされ、前記第1のコントロールアフォーダンスは、タイマー動作を制御するアフォーダンスである、項目1から4のいずれか一項に記載の方法。
[項目6]
前記1つ以上のカメラの前記視野内の光量が第2の所定の閾値を下回ると、前記第1の既定の条件が満たされ、前記第1のコントロールアフォーダンスは、低光キャプチャモードを制御するアフォーダンスである、項目1から5のいずれか一項に記載の方法。
[項目7]
第1のキャプチャモードで画像をキャプチャするように前記電子デバイスが構成されているときに、前記第1の既定の条件が満たされ、前記第1のコントロールアフォーダンスは、照明効果動作を制御するアフォーダンスである、項目1から6のいずれか一項に記載の方法。
[項目8]
前記照明効果動作を制御する前記アフォーダンスを表示している間に、前記照明効果動作を制御する前記アフォーダンスの選択を受信することと、
前記照明効果動作を制御する前記アフォーダンスの前記選択を受信したことに応じて、調整されると、前記1つ以上のカメラの前記視野の前記表現に適用された照明効果を調整する、前記照明効果動作を調整するアフォーダンスを表示することと、
を更に含む、項目7に記載の方法。
[項目9]
前記第1のコントロールアフォーダンスを表示している間に、同時に、前記第1のコントロールアフォーダンスに関連付けられた前記電子デバイスの特性の現在の状態のインジケーションを表示すること、
を更に含む、項目1から8のいずれか一項に記載の方法。
[項目10]
前記特性は、1つ以上のアクティブ状態及び1つ以上の非アクティブ状態を有し、前記インジケーションを表示することは、前記特性が前記1つ以上のアクティブ状態のうちの少なくとも1つにあるとの判定に従う、項目9に記載の方法。
[項目11]
前記特性は、第1のフラッシュ動作設定であり、前記特性の前記現在の状態は、フラッシュ動作が有効化されていることである、項目9又は10に記載の方法。
[項目12]
前記特性は、第2のフラッシュ動作設定であり、前記特性の前記現在の状態は、フラッシュ動作が無効化されていることである、項目9に記載の方法。
[項目13]
前記特性は、画像キャプチャモード設定であり、前記特性の前記現在の状態は、前記画像キャプチャモードが有効化されていることであり、前記電子デバイスは、メディアをキャプチャする要求に対応する入力に応じて、静止画像及びビデオをキャプチャするように構成されている、項目9から12のいずれか一項に記載の方法。
[項目14]
前記特性は、第2の画像キャプチャモード設定であり、前記特性の前記現在の状態は、前記第2の画像キャプチャモードが有効化されていることであり、前記電子デバイスは、メディアをキャプチャする要求に対応する入力に応じて、高ダイナミックレンジイメージング効果を使用してメディアをキャプチャするように構成されている、項目9から13のいずれか一項に記載の方法。
[項目15]
前記カメラコントロール領域は、前記表示デバイスの第1の側に隣接して表示され、前記インジケーションは、前記第1の側とは反対側の前記表示デバイスの第2の側に隣接して表示される、項目9から14のいずれか一項に記載の方法。
[項目16]
前記1つ以上のカメラの前記視野の前記表現は、前記第1のコントロールアフォーダンス及び/又は前記第2のコントロールアフォーダンスを含む前記カメラユーザインタフェースの一部分にわたって延びる、項目1から15のいずれか一項に記載の方法。
[項目17]
前記第1のコントロールアフォーダンスを表示したことに応じて、
前記第1のコントロールアフォーダンスが第1のタイプのものであるとの判定に従って、前記第1のコントロールアフォーダンスに関連付けられた第2のインジケーションを表示することと、
前記第1のコントロールアフォーダンスが前記第1のタイプとは異なる第2のタイプのものであるとの判定、及び前記第1のコントロールアフォーダンスに関連付けられた前記電子デバイスの第2の特性がアクティブ状態にあるとの判定に従って、前記第1のコントロールアフォーダンスに関連付けられた前記第2のインジケーションを表示することと、
前記第1のコントロールアフォーダンスが前記第1のタイプとは異なる第2のタイプのものであるとの判定、及び前記第1のコントロールアフォーダンスに関連付けられた前記電子デバイスの前記第2の特性が非アクティブ状態にあるとの判定に従って、前記第1のコントロールアフォーダンスに関連付けられた前記第2のインジケーションの表示をやめることと、
を更に含む、項目1から16のいずれか一項に記載の方法。
[項目18]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目1から17のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目19]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、前記1つ以上のプログラムは、項目1から17のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目20]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目1から17のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目21]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
複数のコントロールアフォーダンスを含むカメラコントロール領域と、
を含むカメラユーザインタフェースを表示し、
第1の既定の条件及び第2の既定の条件が満たされていない間に、前記第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ前記第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示し、
前記第1のコントロールアフォーダンスを表示することなく、かつ前記第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示している間に、条件の変化を検出し、
条件の前記変化を検出したことに応じて、
前記第1の既定の条件が満たされているとの判定に従って、前記第1のコントロールアフォーダンスを表示し、
前記第2の既定の条件が満たされているとの判定に従って、前記第2のコントロールアフォーダンスを表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目22]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
複数のコントロールアフォーダンスを含むカメラコントロール領域と、
を含むカメラユーザインタフェースを表示し、
第1の既定の条件及び第2の既定の条件が満たされていない間に、前記第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ前記第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示し、
前記第1のコントロールアフォーダンスを表示することなく、かつ前記第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示している間に、条件の変化を検出し、
条件の前記変化を検出したことに応じて、
前記第1の既定の条件が満たされているとの判定に従って、前記第1のコントロールアフォーダンスを表示し、
前記第2の既定の条件が満たされているとの判定に従って、前記第2のコントロールアフォーダンスを表示する、
命令を含む、電子デバイス。
[項目23]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
複数のコントロールアフォーダンスを含むカメラコントロール領域と、
を含む、手段と、
第1の既定の条件及び第2の既定の条件が満たされていない間に、前記第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ前記第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示する手段と、
前記第1のコントロールアフォーダンスを表示することなく、かつ前記第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示している間に、条件の変化を検出する手段と、
条件の前記変化を検出したことに応じて、
前記第1の既定の条件が満たされているとの判定に従って、前記第1のコントロールアフォーダンスを表示し、
前記第2の既定の条件が満たされているとの判定に従って、前記第2のコントロールアフォーダンスを表示する、
手段と、
を備える、電子デバイス。
[項目24]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含む、ことと、
前記カメラユーザインタフェースを表示している間に、前記カメラユーザインタフェース上の第1のジェスチャを検出することと、
前記第1のジェスチャを検出したことに応じて、前記カメラコントロール領域の外観を修正することであって、
前記第1のジェスチャが第1のタイプのジェスチャであるとの判定に従って、前記第1の位置に1つ以上の追加のカメラモードアフォーダンスを表示することと、
前記第1のジェスチャが前記第1のタイプとは異なる第2のタイプのジェスチャであるとの判定に従って、前記複数のカメラモードアフォーダンスを表示することを停止し、前記第1の位置に複数のカメラ設定アフォーダンスを表示することであって、前記カメラ設定アフォーダンスは、現在選択されているカメラモードの画像キャプチャを調整する設定である、ことと、
を含む、ことと、
を含む、方法。
[項目25]
前記カメラコントロール領域は、前記複数のカメラ設定アフォーダンスを表示するアフォーダンスを含み、前記第2のタイプの前記ジェスチャは、前記複数のカメラ設定アフォーダンスを表示する前記アフォーダンスの選択である、項目24に記載の方法。
[項目26]
前記第2のタイプの前記ジェスチャは、前記カメラディスプレイ領域内の接触の移動である、項目24に記載の方法。
[項目27]
前記第1のタイプの前記ジェスチャは、前記複数のカメラモードアフォーダンスのうちの少なくとも1つ上の接触の移動である、項目24から26のいずれか一項に記載の方法。
[項目28]
以前にキャプチャされたメディアの第1の表現を表示する要求に対応する、前記カメラユーザインタフェース上の第2のジェスチャを検出することと、
前記第2のジェスチャを検出したことに応じて、前記以前にキャプチャされたメディアの第1の表現を表示することと、
を更に含む、項目24から27のいずれか一項に記載の方法。
[項目29]
以前にキャプチャされたメディアの表現を表示していない間に、前記1つ以上のカメラを使用して第1のメディアのキャプチャを検出することと、
前記第1のメディアの前記キャプチャを検出したことに応じて、
前記第1のメディアの表現を含む、キャプチャされたメディアの1つ以上の表現を表示することと、
を更に含む、項目24から28のいずれか一項に記載の方法。
[項目30]
前記複数のカメラ設定アフォーダンスは、表示されると、メディアをキャプチャする第1の要求に応じて、第1のアスペクト比で表示されるメディアをキャプチャするように前記電子デバイスを構成するアフォーダンスを含む、項目24から29のいずれか一項に記載の方法。
[項目31]
表示されると、前記第1のアスペクト比で表示されるメディアをキャプチャするように前記電子デバイスが構成されている間に、メディアをキャプチャする第3の要求を受信することと、
メディアをキャプチャする前記第3の要求を受信したことに応じて、前記第1のアスペクト比を有する前記キャプチャされたメディアの表現を表示することと、
前記第1のアスペクト比を有する前記キャプチャされたメディアの前記表現を、第2のアスペクト比を有する前記キャプチャされたメディアの表現に変更する要求を受信することと、
前記第1のアスペクト比を有する前記キャプチャされたメディアの前記表現を前記第2のアスペクト比を有する前記キャプチャされたメディアの前記表現に変更する前記要求を受信したことに応じて、前記第2のアスペクト比を有する前記キャプチャされたメディアの前記表現を表示することと、
を更に含む、項目30に記載の方法。
[項目32]
前記第2のアスペクト比を有する前記キャプチャされたメディアの前記表現は、前記第1のアスペクト比を有する前記キャプチャされたメディアの前記表現内に存在しない視覚コンテンツを含む、項目31に記載の方法。
[項目33]
前記1つ以上のカメラの前記視野の前記表現は、第1のズームレベルで表示され、前記方法は、
前記第1のズームレベルで表示される前記1つ以上のカメラの前記視野の前記表現を表示している間に、前記表現の前記ズームレベルを変更する第1の要求を受信することと、
前記表現の前記ズームレベルを変更する前記第1の要求を受信したことに応じて、
前記表現の前記ズームレベルを変更する前記要求が前記表現の前記ズームレベルを上げる要求に対応するとの判定に従って、前記1つ以上のカメラの第2の表現視野を前記第1のズームレベルよりも大きい第2のズームレベルで表示することと、
前記表現の前記ズームレベルを変更する前記要求が前記表現の前記ズームレベルを下げる要求に対応するとの判定に従って、前記1つ以上のカメラの第3の表現視野を前記第1のズームレベルよりも小さい第3のズームレベルで表示することと、を更に含む、項目24から32のいずれか一項に記載の方法。
[項目34]
第4のズームレベルで表示される前記1つ以上のカメラの前記視野の前記表現を表示している間に、前記表現の前記ズームレベルを変更する第2の要求を受信することと、
前記表現の前記ズームレベルを変更する前記第2の要求を受信したことに応じて、
前記第4のズームレベルが前記第2のズームレベルであるとの判定に従って、前記第3のズームレベルで、前記1つ以上のカメラの前記視野の第4の表現を表示することと、
前記第4のズームレベルが前記第3のズームレベルであるとの判定に従って、前記第1のズームレベルで前記1つ以上のカメラの前記視野の第5の表現を表示することと、
前記第4のズームレベルが前記第1のズームレベルであるとの判定に従って、前記第2のズームレベルで前記1つ以上のカメラの前記視野の第6の表現を表示することと、
を更に含む、項目33に記載の方法。
[項目35]
前記カメラユーザインタフェースを表示することは、キャプチャ設定の状態のグラフィカルインジケーションを含むアフォーダンスを表示することを含み、
前記第2のタイプの前記ジェスチャは、前記グラフィカルインジケーションの選択に対応する、項目24から34のいずれか一項に記載の方法。
[項目36]
前記第1の位置に前記複数のカメラ設定アフォーダンスを表示することは、
前記第2のタイプの前記ジェスチャが検出されていた間に、第1のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されているとの判定に従って、前記第1の位置に第1の1組のカメラ設定アフォーダンスを表示することと、
前記第2のタイプの前記ジェスチャが検出されていた間に、前記第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されているとの判定に従って、前記第1の位置に前記第1の1組のカメラ設定アフォーダンスとは異なる第2の1組のカメラ設定アフォーダンスを表示することと、
を含む、項目24から35のいずれか一項に記載の方法。
[項目37]
前記第1の1組のカメラ設定アフォーダンスは、第1のカメラ設定アフォーダンスを含み、前記第2の1組のカメラ設定アフォーダンスは、前記第1のカメラ設定アフォーダンスを含む、項目36に記載の方法。
[項目38]
第1のカメラモードは、静止写真キャプチャモードであり、前記第1の1組のカメラ設定アフォーダンスは、
フラッシュ設定に対応する視覚インジケーションを含むアフォーダンスと、
ライブ設定に対応する視覚インジケーションを含むアフォーダンスと、
アスペクト比設定に対応する視覚インジケーションを含むアフォーダンスと、
タイマー設定に対応する視覚インジケーションを含むアフォーダンスと、
フィルタ設定に対応する視覚インジケーションを含むアフォーダンスと、
からなる群から選択される1つ以上のアフォーダンスを含む、項目36又は37に記載の方法。
[項目39]
第1のカメラモードは、ポートレートモードであり、前記第1の1組のカメラ設定アフォーダンスは、
深度コントロール設定に対応する視覚インジケーションを含むアフォーダンスと、
フラッシュ設定に対応する視覚インジケーションを含むアフォーダンスと、
タイマー設定に対応する視覚インジケーションを含むアフォーダンスと、
フィルタ設定に対応する視覚インジケーションを含むアフォーダンスと、
照明設定に対応する視覚インジケーションを含むアフォーダンスと、
からなる群から選択される1つ以上のアフォーダンスを含む、項目36又は37に記載の方法。
[項目40]
前記第1のジェスチャは、前記第1のタイプのものであり、前記第1のジェスチャを検出することは、前記第1のジェスチャの第1の部分及び前記第1のジェスチャの第2の部分を検出することを含み、前記方法は、
前記第1のジェスチャの前記第1の部分を検出したことに応じて、前記表示デバイスを介して、前記1つ以上のカメラの前記視野の前記表現の少なくとも一部分を囲む別個の1つ以上の境界部要素を含む境界部を表示することと、
前記第1のジェスチャの前記第2の部分を検出したことに応じて、前記境界部を第1の方向に前記表示デバイスのディスプレイを横切って、前記境界部の少なくとも一部分が前記ディスプレイから外れて平行移動され、表示されることを停止されるまで、平行移動させることと、
を更に含む、項目24から39のいずれか一項に記載の方法。
[項目41]
前記第1のジェスチャの前記第2の部分を検出することは、前記第1の方向に動く第2の接触を検出することを含む、項目40に記載の方法。
[項目42]
前記第2の接触は、前記1つ以上のカメラの前記視野の前記表現上で検出され、
前記境界部を平行移動させることが行われる速度は、前記第1の方向の前記第2の接触の移動速度に比例する、項目41に記載の方法。
[項目43]
前記境界部を平行移動させることは、前記境界部によって囲まれた前記1つ以上のカメラの前記視野の前記表現の前記少なくとも一部分の視覚外観を変更することを含む、項目41に記載の方法。
[項目44]
第3のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されている間に、メディアをキャプチャする第2の要求を検出することと、
メディアをキャプチャする前記第2の要求を受信したことに応じて、前記第3のカメラモードに対応する設定及び前記複数のカメラ設定アフォーダンスのアフォーダンスに対応する少なくとも1つの設定に基づいて、前記1つ以上のカメラを使用してメディアをキャプチャすることと、
を更に含む、項目24から43のいずれか一項に記載の方法。
[項目45]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目24から44のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目46]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目24から44のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目47]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目24から44のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目48]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含むカメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記カメラユーザインタフェース上の第1のジェスチャを検出し、
前記第1のジェスチャを検出したことに応じて、
前記第1のジェスチャが第1のタイプのジェスチャであるとの判定に従って、前記第1の位置に1つ以上の追加のカメラモードアフォーダンスを表示することと、
前記第1のジェスチャが前記第1のタイプとは異なる第2のタイプのジェスチャであるとの判定に従って、前記複数のカメラモードアフォーダンスを表示することを停止し、前記第1の位置に複数のカメラ設定アフォーダンスを表示することであって、前記カメラ設定アフォーダンスは、現在選択されているカメラモードの画像キャプチャを調整する設定である、ことと、
を含む、前記カメラコントロール領域の外観を修正する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目49]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含むカメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記カメラユーザインタフェース上の第1のジェスチャを検出し、
前記第1のジェスチャを検出したことに応じて、
前記第1のジェスチャが第1のタイプのジェスチャであるとの判定に従って、前記第1の位置に1つ以上の追加のカメラモードアフォーダンスを表示することと、
前記第1のジェスチャが前記第1のタイプとは異なる第2のタイプのジェスチャであるとの判定に従って、前記複数のカメラモードアフォーダンスを表示することを停止し、前記第1の位置に複数のカメラ設定アフォーダンスを表示することであって、前記カメラ設定アフォーダンスは、現在選択されているカメラモードの画像キャプチャを調整する設定である、ことと、
を含む、前記カメラコントロール領域の外観を修正する、
命令を含む、電子デバイス。
[項目50]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含む、手段と、
前記カメラユーザインタフェースを表示している間に、前記カメラユーザインタフェース上の第1のジェスチャを検出する手段と、
前記第1のジェスチャを検出したことに応じて、前記カメラコントロール領域の外観を修正する手段であって、
前記第1のジェスチャが第1のタイプのジェスチャであるとの判定に従って、前記第1の位置に1つ以上の追加のカメラモードアフォーダンスを表示することと、
前記第1のジェスチャが前記第1のタイプとは異なる第2のタイプのジェスチャであるとの判定に従って、前記複数のカメラモードアフォーダンスを表示することを停止し、前記第1の位置に複数のカメラ設定アフォーダンスを表示することであって、前記カメラ設定アフォーダンスは、現在選択されているカメラモードの画像キャプチャを調整する設定である、ことと、
を含む、手段と、
を備える、電子デバイス。
[項目51]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
カメラユーザインタフェースを表示する要求を受信することと、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、かつそれぞれの基準が満たされていないとの判定に従って、
前記表示デバイスを介して、前記カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、
前記1つ以上のカメラの前記視野の第2の部分の表現を含む第2の領域であって、前記1つ以上のカメラの前記視野の前記第2の部分は、前記第1の部分と視覚的に区別される、第2の領域と、
を含む、ことと、
前記カメラユーザインタフェースが表示されている間に、前記1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出することと、
前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する前記入力を検出したことに応じて、前記1つ以上のカメラの前記視野の前記第1の部分に対応する視覚コンテンツと、前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、前記1つ以上のカメラでキャプチャすることと、
前記メディアアイテムをキャプチャした後に、前記メディアアイテムを表示する要求を受信することと、
前記メディアアイテムを表示する前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも一部分の表現を表示することなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの第1の表現を表示することと、
を含む、方法。
[項目52]
前記視覚コンテンツの前記第1の表現を表示している間に、前記視覚コンテンツの前記表現を修正する要求に対応する1組の1つ以上の入力を検出することと、
前記1組の1つ以上の入力を検出したことに応じて、前記視覚コンテンツの第2の表現を表示することであって、前記視覚コンテンツの前記第2の表現は、前記1つ以上のカメラの前記視野の前記第1の部分の少なくとも一部分からの視覚コンテンツと、前記視覚コンテンツの前記第1の表現に含まれなかった前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの少なくとも一部分に基づく視覚コンテンツと、を含む、ことと、
を更に含む、項目51に記載の方法。
[項目53]
前記視覚コンテンツの前記第1の表現は、第1の視覚的視点からの表現であり、
前記視覚コンテンツの前記第2の表現は、前記視覚コンテンツの前記第1の表現に含まれなかった、前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの前記少なくとも一部分に基づいて生成された、前記第1の視覚的視点とは異なる第2の視覚的視点からの表現である、項目52に記載の方法。
[項目54]
前記視覚コンテンツの前記第1の表現は、第1の向きの表現であり、
前記視覚コンテンツの前記第2の表現は、前記視覚コンテンツの前記第1の表現に含まれなかった、前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの前記少なくとも一部分に基づいて生成された、前記第1の向きとは異なる第2の向きの表現である、項目52に記載の方法。
[項目55]
前記第1の表現は、第1のズームレベルで表示され、前記方法は、
前記視覚コンテンツの前記第1の表現は、第1のズームレベルの表現であることと、
前記視覚コンテンツの前記第2の表現は、前記視覚コンテンツの前記第1の表現に含まれなかった、前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの前記少なくとも一部分に基づいて生成された、前記第1のズームレベルとは異なる第2のズームレベルの表現であることと、
を更に含む、項目52に記載の方法。
[項目56]
更に、前記視覚コンテンツの前記第1の表現は、前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの少なくとも第2の部分を使用して、デジタル画像安定化動作に少なくとも部分的に基づいて生成される、項目51から55のいずれか一項に記載の方法。
[項目57]
前記メディアアイテムをキャプチャした後に、前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの少なくとも第3の部分を使用して、オブジェクト追跡動作を実行すること、
を更に含む、項目51から56のいずれか一項に記載の方法。
[項目58]
前記メディアアイテムを表示する前記要求は、前記メディアアイテムを表示する第1の要求であり、前記方法は、
前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも一部分の前記表現を表示することなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの前記第1の表現を表示した後に、前記メディアアイテムを表示する第2の要求を受信することと、
前記メディアアイテムを表示する前記第2の要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの前記第1の表現及び前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの前記表現を表示することと、
を更に含む、項目51から57のいずれか一項に記載の方法。
[項目59]
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、かつそれぞれの基準が満たされているとの判定に従って、前記表示デバイスを介して、第2のカメラユーザインタフェースを表示することであって、前記第2のカメラユーザインタフェースは、前記1つ以上のカメラの前記視野の前記第2の部分の前記表現を含むことなく、前記1つ以上のカメラの前記視野の前記第1の部分の前記表現を含む、こと、
を更に含む、項目51から58のいずれか一項に記載の方法。
[項目60]
前記方法は、
以前にキャプチャされたメディアアイテムを表示する要求を受信することと、
前記以前にキャプチャされたメディアアイテムを表示する前記要求を受信したことに応じて、
前記それぞれの基準が満たされなかったときに前記以前にキャプチャされたメディアアイテムがキャプチャされたとの判定に従って、追加のコンテンツのインジケーションを表示することと、
前記それぞれの基準が満たされたときに前記以前にキャプチャされたメディアアイテムがキャプチャされたとの判定に従って、追加のコンテンツのインジケーションの表示をやめることと、
を更に含む、項目59に記載の方法。
[項目61]
前記それぞれの基準は、4000水平ピクセル以上の解像度でメディアアイテムをキャプチャするように前記電子デバイスが構成されているときに満たされる基準を含む、項目59又は60に記載の方法。
[項目62]
前記それぞれの基準は、所定のズームレベルにてポートレートモードで動作するように前記電子デバイスが構成されているときに満たされる基準を含む、項目59から61のいずれか一項に記載の方法。
[項目63]
前記それぞれの基準は、前記1つ以上のカメラのうちの少なくとも1つのカメラが所定の期間にわたって焦点を維持できないときに満たされる基準を含む、項目59から62のいずれか一項に記載の方法。
[項目64]
前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する前記入力は、前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する第1の入力であり、
前記方法は、
前記カメラユーザインタフェースが表示されている間に、前記1つ以上のカメラでメディアをキャプチャする要求に対応する第2の入力を検出することと、
前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する前記第2の入力を検出したことに応じて、
追加のコンテンツ設定に基づいて前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツをキャプチャするように前記電子デバイスが構成されているとの判定に従って、
前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの前記第1の表現をキャプチャし、前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも前記一部分の前記表現をキャプチャすることと、
前記追加のコンテンツ設定に基づいて前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツをキャプチャするように前記電子デバイスが構成されていないとの判定に従って、
前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも前記一部分の前記表現をキャプチャすることなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの前記第1の表現をキャプチャすることと、
を更に含む、項目51から63のいずれか一項に記載の方法。
[項目65]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目51から64のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目66]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目51から64のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目67]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目51から64のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目68]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
カメラユーザインタフェースを表示する要求を受信し、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、かつそれぞれの基準が満たされていないとの判定に従って、
前記表示デバイスを介して、前記カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、
前記1つ以上のカメラの前記視野の第2の部分の表現を含む第2の領域であって、前記1つ以上のカメラの前記視野の前記第2の部分は、前記第1の部分と視覚的に区別される、第2の領域と、
を含む前記カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースが表示されている間に、前記1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出し、
前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する前記入力を検出したことに応じて、前記1つ以上のカメラの前記視野の前記第1の部分に対応する視覚コンテンツと、前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、前記1つ以上のカメラでキャプチャし、
前記メディアアイテムをキャプチャした後に、前記メディアアイテムを表示する要求を受信し、
前記メディアアイテムを表示する前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも一部分の表現を表示することなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの第1の表現を表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目69]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
カメラユーザインタフェースを表示する要求を受信し、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、かつそれぞれの基準が満たされていないとの判定に従って、
前記表示デバイスを介して、前記カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、
前記1つ以上のカメラの前記視野の第2の部分の表現を含む第2の領域であって、前記1つ以上のカメラの前記視野の前記第2の部分は、前記第1の部分と視覚的に区別される、第2の領域と、
を含む前記カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースが表示されている間に、前記1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出し、
前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する前記入力を検出したことに応じて、前記1つ以上のカメラの前記視野の前記第1の部分に対応する視覚コンテンツと、前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、前記1つ以上のカメラでキャプチャし、
前記メディアアイテムをキャプチャした後に、前記メディアアイテムを表示する要求を受信し、
前記メディアアイテムを表示する前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも一部分の表現を表示することなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの第1の表現を表示する、
命令を含む、電子デバイス。
[項目70]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
カメラユーザインタフェースを表示する要求を受信する手段と、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、かつそれぞれの基準が満たされていないとの判定に従って、
前記表示デバイスを介して、前記カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、
前記1つ以上のカメラの前記視野の第2の部分の表現を含む第2の領域であって、前記1つ以上のカメラの前記視野の前記第2の部分は、前記第1の部分と視覚的に区別される、第2の領域と、
を含む、手段と、
前記カメラユーザインタフェースが表示されている間に、前記1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出する手段と、
前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する前記入力を検出したことに応じて、前記1つ以上のカメラの前記視野の前記第1の部分に対応する視覚コンテンツと、前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、前記1つ以上のカメラでキャプチャする手段と、
前記メディアアイテムをキャプチャした後に、前記メディアアイテムを表示する要求を受信する手段と、
前記メディアアイテムを表示する前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも一部分の表現を表示することなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの第1の表現を表示する手段と、
を備える、電子デバイス。
[項目71]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、ことと、
前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする要求を検出することと、
前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする前記要求を検出したことに応じて、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャし、前記キャプチャされたメディアの表現を表示することと、
前記キャプチャされたメディアの前記表現を表示している間に、前記キャプチャされたメディアの前記表現が所定の期間にわたって表示されたことを検出することと、
前記キャプチャされたメディアの前記表現が前記所定の期間にわたって表示されたことを検出したことに応じて、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも第1の部分を表示することを停止することと、
を含む、方法。
[項目72]
前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも前記第1の部分を表示することを停止することは、
前記キャプチャされたメディアの前記表現の少なくとも第2の部分の表示を維持すること、
を含む、項目71に記載の方法。
[項目73]
前記表現の前記第1の部分を表示することを停止する前に、前記キャプチャされたメディアの前記表現が、前記表示デバイス上の第1の位置に表示され、
前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも前記第1の部分を表示することを停止することは、
前記表示デバイス上の前記第1の位置から前記表示デバイスの縁部に対応する前記表示デバイス上の第2の位置に向かって前記キャプチャされたメディアの前記表現を動かすアニメーションを表示すること、
を含む、項目71又は72に記載の方法。
[項目74]
前記キャプチャされたメディアの前記表現は、前記表示デバイス上の第3の位置に表示され、前記方法は、
前記キャプチャされたメディアの第2の表現が表示されている間に、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記第2の表現の少なくとも一部分の表示を停止する要求に対応するユーザ入力を検出することと、
前記第2の表現の少なくとも一部分の表示を停止する前記要求を検出したことに応じて、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記第2の表現の少なくとも一部分を表示することを停止することと、
を含む、項目71から73のいずれか一項に記載の方法。
[項目75]
前記表現の前記第1の部分を表示することを停止した後に、前記表示デバイスの縁部に対応する前記表示デバイス上の第4の位置から、前記表示デバイス上の前記第4の位置とは異なる第5の位置への接触の移動に対応するユーザ入力を受信することと、
前記表示デバイスの前記縁部に対応する前記表示デバイス上の前記第4の位置から、前記表示デバイス上の前記第5の位置への前記接触の移動に対応するユーザ入力を受信したことに応じて、前記表現の前記第1の部分を再表示することと、
を更に含む、項目71から74のいずれか一項に記載の方法。
[項目76]
前記キャプチャされたメディアの前記表現が表示されている間に、前記キャプチャされたメディアの拡大表現を表示する要求に対応するユーザ入力を検出することと、
前記キャプチャされたメディアの前記表現の前記選択に対応するユーザ入力を検出したことに応じて、前記表示デバイスを介して、前記キャプチャされたメディアの拡大表現を表示することと、
を更に含む、項目71から75のいずれか一項に記載の方法。
[項目77]
前記カメラユーザインタフェースが表示されていない間に、前記カメラユーザインタフェースを再表示する要求を受信することと、
前記カメラユーザインタフェースを再表示する前記要求を受信したことに応じて、キャプチャされたメディアの第2の表現を含む、前記カメラユーザインタフェースの第2のインスタンスを表示することと、
を更に含む、項目71から76のいずれか一項に記載の方法。
[項目78]
前記キャプチャされたメディアの前記表現は、前記表示デバイス上の第5の位置に表示され、前記方法は、
前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも前記第1の部分を表示することを停止した後に、前記第5の位置に複数のカメラ設定を制御するアフォーダンスを表示すること、
を更に含む、項目71から77のいずれか一項に記載の方法。
[項目79]
前記1つ以上のカメラの前記視野に対応するメディアをキャプチャすることは、画像のシーケンスをキャプチャすることを含み、
前記キャプチャされたメディアの前記表現を表示することは、少なくとも2つの画像を含む画像の前記キャプチャされたシーケンスの少なくとも一部分を再生することを含む、項目71から78のいずれか一項に記載の方法。
[項目80]
前記所定の期間は、画像の前記キャプチャされたシーケンスの持続時間に基づく、項目79に記載の方法。
[項目81]
前記キャプチャされたメディアの前記表現を表示している間に、前記キャプチャされたメディアを共有するためのオプションを表示する要求に対応するユーザ入力を受信することと、
前記キャプチャされたメディアを共有するためのオプションを表示する前記要求に対応する前記ユーザ入力を受信したことに応じて、前記キャプチャされたメディアを共有するためのユーザインタフェースを表示することと、
を更に含む、項目71から80のいずれか一項に記載の方法。
[項目82]
前記キャプチャされたメディアを共有するための前記ユーザインタフェースは、前記キャプチャされたメディアを共有するための複数のオプションを含む、項目81に記載の方法。
[項目83]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目71から82のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目84]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目71から82のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目85]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目71から82のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目86]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする要求を検出し、
前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする前記要求を検出したことに応じて、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャし、前記キャプチャされたメディアの表現を表示し、
前記キャプチャされたメディアの前記表現を表示している間に、前記キャプチャされたメディアの前記表現が所定の期間にわたって表示されたことを検出し、
前記キャプチャされたメディアの前記表現が前記所定の期間にわたって表示されたことを検出したことに応じて、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも第1の部分を表示することを停止する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目87]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする要求を検出し、
前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする前記要求を検出したことに応じて、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャし、前記キャプチャされたメディアの表現を表示し、
前記キャプチャされたメディアの前記表現を表示している間に、前記キャプチャされたメディアの前記表現が所定の期間にわたって表示されたことを検出し、
前記キャプチャされたメディアの前記表現が前記所定の期間にわたって表示されたことを検出したことに応じて、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも第1の部分を表示することを停止する、
命令を含む、電子デバイス。
[項目88]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、手段と、
前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする要求を検出する手段と、
前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする前記要求を検出したことに応じて、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャし、前記キャプチャされたメディアの表現を表示する手段と、
前記キャプチャされたメディアの前記表現を表示している間に、前記キャプチャされたメディアの前記表現が所定の期間にわたって表示されたことを検出する手段と、
前記キャプチャされたメディアの前記表現が前記所定の期間にわたって表示されたことを検出したことに応じて、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも第1の部分を表示することを停止する手段と、
を備える、電子デバイス。
[項目89]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、ことと、
メディアをキャプチャする要求を受信したことに応じて、第1のアスペクト比でメディアをキャプチャするように前記電子デバイスが構成されている間に、前記1つ以上のカメラの前記視野の前記表現上のそれぞれの位置での第1の接触を含む第1の入力を検出することと、
前記第1の入力を検出したことに応じて、
1組のアスペクト比変化基準が満たされているとの判定に従って、メディアをキャプチャする要求に応じて、前記第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することであって、
前記1組のアスペクト比変化基準は、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応じてキャプチャされる前記メディアの境界部の少なくとも一部分を示す前記カメラディスプレイ領域の既定の部分に対応する第1の位置で前記第1の接触を維持し、続いて、前記第1の位置とは異なる第2の位置への前記第1の接触の移動を検出することを前記第1の入力が含むときに満たされる基準を含む、ことと、
を含む、方法。
[項目90]
前記第1の入力の少なくとも第1の部分を検出したことに応じて、
前記第1の入力の前記第1の部分が少なくとも前記閾値時間量にわたって前記第1の位置で前記第1の接触を維持することを含むとの判定に従って、第1の触知出力を提供すること、
を更に含む、項目89に記載の方法。
[項目91]
前記第1の入力の少なくとも第2の部分を検出したことに応じて、
前記第1の入力の第2の部分が少なくとも前記閾値時間量にわたって前記第1の位置で前記第1の接触を維持することを含むとの判定に従って、メディアをキャプチャする要求に応じてキャプチャされる前記メディアの前記境界部の視覚インジケーションを表示すること、を更に含む、項目89又は90に記載の方法。
[項目92]
前記視覚インジケーションが表示されている間に、かつ前記第1の入力の少なくとも第3の部分を検出したことに応じて、
前記第1の入力の前記第3の部分が前記第1の接触の移動を含むとの判定に従って、前記第1の接触が前記閾値時間量にわたって前記第1の位置で維持された後に、前記第1の接触の前記移動は第1の大きさ及び第1の方向を有し、前記第1の大きさ及び前記第1の方向に基づいて前記視覚インジケーションの外観を修正すること、
を更に含む、項目91に記載の方法。
[項目93]
前記第1の入力の少なくとも第1の部分を検出したことに応じて、
前記第1の入力の前記第1の部分が少なくとも前記閾値時間量にわたって前記第1の位置で前記第1の接触を維持することを含むとの判定に従って、前記視覚インジケーションによって示される前記1つ以上のカメラの前記視野の前記表現の一部分のサイズを縮小することを含むアニメーションを表示すること、
を更に含む、項目91又は92に記載の方法。
[項目94]
前記視覚インジケーションが表示されている間に、かつ前記第1の入力の少なくとも第4の部分を検出したことに応じて、
前記第1の入力の前記第4の部分が前記第1の接触のリフトオフを含むとの判定に従って、前記視覚インジケーションによって示される前記1つ以上のカメラの前記視野の前記表現の一部分のサイズを増大することを含むアニメーションを表示すること、
を更に含む、項目91から93のいずれか一項に記載の方法。
[項目95]
前記1つ以上のカメラの前記視野の前記表現の第1の部分は、前記メディアの前記境界部の前記視覚インジケーションによって選択されたものとして示され、前記1つ以上のカメラの前記視野の前記表現の第2の部分は、前記メディアの前記境界部の前記視覚インジケーションによって選択されたものとして示されず、
前記第2の部分は、前記第1の部分と視覚的に区別される、項目91から94のいずれか一項に記載の方法。
[項目96]
第2のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することは、
第1の移動範囲内にある移動の第1の大きさ及び/又は方向を有する前記第2の位置への前記第1の接触の前記移動に従って、所定のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することと、
前記第1の移動範囲内にない移動の第2の大きさ及び/又は方向を有する前記第2の位置への前記第1の接触の前記移動に従って、所定ではなく、かつ移動の前記第2の大きさ及び/又は方向に基づくアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することと、
を含む、項目90から95のいずれか一項に記載の方法。
[項目97]
前記所定のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することは、1つ以上の触知出力デバイスを介して、第2の触知出力を生成することを含む、項目96に記載の方法。
[項目98]
前記第1の入力を検出する前に、前記電子デバイスは、第1のカメラモードを使用してメディアをキャプチャするように構成されており、前記方法は、
前記第1の入力を検出したことに応じて、
前記第1の入力が前記閾値時間量にわたって前記第1の位置で前記第1の接触を維持することを含まないとの判定、及び前記第1の入力が第1の移動閾値を上回る前記第1の接触の移動を含むとの判定に従って、前記第1のカメラモードとは異なる第2のカメラモードを使用してメディアをキャプチャするように前記電子デバイスを構成すること、
を更に含む、項目89から97のいずれか一項に記載の方法。
[項目99]
前記カメラユーザインタフェースは、第1のメディアキャプチャモードで動作するように前記電子デバイスが構成されているというインジケーションを更に含み、前記方法は、
前記カメラディスプレイ領域上の第2の方向の第4の接触の連続的な移動を検出することを含む、第4の入力を検出することに従って、
メディアキャプチャ動作に関連付けられた特性を調整するコントロールを表示すること、
を更に含む、項目89から98のいずれか一項に記載の方法。
[項目100]
前記第1の入力を検出したことに応じて、
前記第1の入力が前記閾値時間量未満にわたって前記第1の位置で前記第1の接触を検出することを含むとの判定に従って、前記第1の位置に対応する前記1つ以上のカメラの前記視野内の位置でのコンテンツに基づく焦点設定でメディアをキャプチャするように前記電子デバイスを構成することを含む、焦点設定を調整すること、
を更に含む、項目89から99のいずれか一項に記載の方法。
[項目101]
前記第1の入力を検出したことに応じて、
前記第1の入力が、メディアをキャプチャする前記要求に応じてキャプチャされる前記メディアの前記境界部の少なくとも前記一部分を示す、前記カメラディスプレイ領域の既定の部分に対応しない第3の位置で第2の閾値時間量にわたって前記第1の接触を維持することを含むとの判定に従って、前記第3の位置に対応する前記1つ以上のカメラの前記視野内の位置でのコンテンツに基づく第1の露出設定でメディアをキャプチャするように前記電子デバイスを構成すること、
を更に含む、項目89から100のいずれか一項に記載の方法。
[項目102]
前記第3の位置に対応する前記1つ以上のカメラの前記視野内の位置でのコンテンツに基づく前記第1の露出設定でメディアをキャプチャするように前記電子デバイスを構成した後に、前記第3の位置に対応する前記1つ以上のカメラの視野内の前記位置での前記コンテンツを、前記1つ以上のカメラの前記視野内にもはや存在させない、前記1つ以上のカメラの前記視野の前記表現の変化を検出することと、
前記変化を検出したことに応じて、前記第1の露出設定でメディアをキャプチャするように前記電子デバイスを構成し続けることと、
を更に含む、項目101に記載の方法。
[項目103]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目89から102のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目104]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目89から102のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目105]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目89から102のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目106]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示し、
メディアをキャプチャする要求を受信したことに応じて、第1のアスペクト比でメディアをキャプチャするように前記電子デバイスが構成されている間に、前記1つ以上のカメラの前記視野の前記表現上のそれぞれの位置での第1の接触を含む第1の入力を検出し、
前記第1の入力を検出したことに応じて、
1組のアスペクト比変化基準が満たされているとの判定に従って、メディアをキャプチャする要求に応じて、前記第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成する、命令を含み、
前記1組のアスペクト比変化基準は、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応じてキャプチャされる前記メディアの境界部の少なくとも一部分を示す前記カメラディスプレイ領域の既定の部分に対応する第1の位置で前記第1の接触を維持し、続いて、前記第1の位置とは異なる第2の位置への前記第1の接触の移動を検出することを前記第1の入力が含むときに満たされる基準を含む、非一時的コンピュータ可読記憶媒体。
[項目107]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示し、
メディアをキャプチャする要求を受信したことに応じて、第1のアスペクト比でメディアをキャプチャするように前記電子デバイスが構成されている間に、前記1つ以上のカメラの前記視野の前記表現上のそれぞれの位置での第1の接触を含む第1の入力を検出し、
前記第1の入力を検出したことに応じて、
1組のアスペクト比変化基準が満たされているとの判定に従って、メディアをキャプチャする要求に応じて、前記第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成する、命令を含み、
前記1組のアスペクト比変化基準は、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応じてキャプチャされる前記メディアの境界部の少なくとも一部分を示す前記カメラディスプレイ領域の既定の部分に対応する第1の位置で前記第1の接触を維持し、続いて、前記第1の位置とは異なる第2の位置への前記第1の接触の移動を検出することを前記第1の入力が含むときに満たされる基準を含む、電子デバイス。
[項目108]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、手段と、
メディアをキャプチャする要求を受信したことに応じて、第1のアスペクト比でメディアをキャプチャするように前記電子デバイスが構成されている間に、前記1つ以上のカメラの前記視野の前記表現上のそれぞれの位置での第1の接触を含む第1の入力を検出する手段と、
前記第1の入力を検出したことに応じて、
1組のアスペクト比変化基準が満たされているとの判定に従って、メディアをキャプチャする要求に応じて、前記第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成する手段であって、
前記1組のアスペクト比変化基準は、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応じてキャプチャされる前記メディアの境界部の少なくとも一部分を示す前記カメラディスプレイ領域の既定の部分に対応する第1の位置で前記第1の接触を維持し、続いて、前記第1の位置とは異なる第2の位置への前記第1の接触の移動を検出することを前記第1の入力が含むときに満たされる基準を含む、手段と、
を備える、電子デバイス。
[項目109]
方法であって、
表示デバイス及び1つ以上のカメラを備える電子デバイスにおいて、
前記電子デバイスが第1の向きにある間に、前記表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示することと、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの変化を検出することと、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの前記変化を検出したことに応じて、
ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているとの判定に従って、前記第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示することと、を含む、方法。
[項目110]
メディアキャプチャアフォーダンスを表示することと、
前記メディアキャプチャアフォーダンスに対応する第1の入力を検出することと、
前記第1の入力を検出したことに応じて、
前記第1のカメラユーザインタフェースが表示されている間に前記第1の入力が検出されたとの判定に従って、前記第1のズームレベルでメディアをキャプチャすることと、
前記第2のカメラユーザインタフェースが表示されている間に前記第1の入力が検出されたとの判定に従って、前記第2のズームレベルでメディアをキャプチャすることと、
を更に含む、項目109に記載の方法。
[項目111]
前記第1のカメラユーザインタフェースを表示することは、前記1つ以上のカメラの視野の第1の表現を表示することを含み、
前記第1の表現は、前記第1のズームレベルで前記第1のカメラの向きで表示され、
前記第2のカメラユーザインタフェースを表示することは、前記1つ以上のカメラの前記視野の第2の表現を表示することを含み、
前記第2の表現は、前記第2のズームレベルで前記第2のカメラの向きで表示される、項目109又は110に記載の方法。
[項目112]
前記第1の向きは、縦向きであり、前記第1の表現は、前記1つ以上のカメラの前記視野の一部分であり、前記第2の向きは、横向きであり、前記第2の表現は、前記1つ以上のカメラの視野全体である、項目111に記載の方法。
[項目113]
前記1つ以上のカメラの前記視野の前記第1の表現を表示している間に、前記第1のズームレベルを第3のズームレベルに変更する要求を受信することと、
前記第1のズームレベルを前記第3のズームレベルに変更する前記要求を受信したことに応じて、前記第1の表現の表示を、前記1つ以上のカメラの前記視野の第3の表現に置き換えることであって、前記第3の表現は、前記第1のカメラの向きであり、かつ前記第3のズームレベルである、ことと、
を更に含む、項目111又は112に記載の方法。
[項目114]
前記1つ以上のカメラの前記視野の前記第1の表現を表示している間に、ズームトグルアフォーダンスを表示することと、
前記ズームトグルアフォーダンスの選択に対応する第2の入力を検出することであって、前記ズームトグルアフォーダンスの選択は、前記第1のズームレベルを第4のズームレベルに変更する要求に対する、ことと、
前記第2の入力を検出したことに応じて、前記第1の表現の表示を、前記1つ以上のカメラの前記視野の第4の表現に置き換えることであって、前記第4の表現は、前記第1のカメラの向きであり、かつ前記第4のズームレベルである、ことと、
を更に含む、項目111から113のいずれか一項に記載の方法。
[項目115]
前記ズームトグルアフォーダンスは、前記第1のカメラユーザインタフェース及び前記第2のカメラユーザインタフェース内に表示される、項目114に記載の方法。
[項目116]
前記1つ以上のカメラの前記視野の前記第1の表現を表示している間に、前記第1のズームレベルを第3のズームレベルに変更する要求を受信することと、
前記第1のズームレベルを前記第3のズームレベルに変更する前記要求を受信したことに応じて、
前記第1の表現の表示を、前記1つ以上のカメラの前記視野の第5の表現に置き換えることであって、前記第5の表現は、前記第1のカメラの向きで、かつ前記第3のズームレベルである、ことと、
を更に含む、項目111から115のいずれか一項に記載の方法。
[項目117]
前記1つ以上のカメラは、第1のカメラと、前記第1のカメラとは別個の第2のカメラとを含み、
前記1組の自動ズーム基準は、前記電子デバイスが前記第1のカメラユーザインタフェース内に、前記第1のカメラの前記視野の表現を表示しており、かつ前記第2のカメラの前記視野の表現を表示していないときに満たされる基準を含む、項目109から116のいずれか一項に記載の方法。
[項目118]
前記1組の自動ズーム基準は、前記電子デバイスがビデオキャプチャ動作モードにないときに満たされる基準を含む、項目109から117のいずれか一項に記載の方法。
[項目119]
前記1組の自動ズーム基準は、ライブ通信セッションのビデオをキャプチャするように前記電子デバイスが構成されているときに満たされる基準を含む、項目109から118のいずれか一項に記載の方法。
[項目120]
前記第1のズームレベルは、前記第2のズームレベルよりも高く、前記方法は、
前記第2のカメラユーザインタフェースを表示している間に、前記第2の向きから前記第1の向きへの前記電子デバイスの向きの変化を検出することと、
前記第2の向きから前記第1の向きへの前記電子デバイスの向きの前記変化を検出したことに応じて、前記表示デバイス上に、前記第1のカメラユーザインタフェースを表示することと、
を更に含む、項目109から119のいずれか一項に記載の方法。
[項目121]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目109から120のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目122]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目109から120のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目123]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目109から120のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目124]
表示デバイス及びカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記電子デバイスが第1の向きにある間に、前記表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示し、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの変化を検出し、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの前記変化を検出したことに応じて、
ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているとの判定に従って、前記第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目125]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記電子デバイスが第1の向きにある間に、前記表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示し、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの変化を検出し、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの前記変化を検出したことに応じて、
ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているとの判定に従って、前記第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示する、
命令を含む、電子デバイス。
[項目126]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記電子デバイスが第1の向きにある間に、前記表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示する手段と、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの変化を検出する手段と、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの前記変化を検出したことに応じて、
ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているとの判定に従って、前記第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示する手段と、
を備える、電子デバイス。
[項目127]
方法であって、
表示デバイス及び1つ以上のカメラを備える電子デバイスにおいて、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、
前記メディアキャプチャユーザインタフェースを表示している間に、前記1つ以上のカメラを介して、前記1つ以上のカメラの前記視野内の変化を検出することと、
前記1つ以上のカメラの前記視野内の前記変化を検出したことに応じて、かつ可変フレームレート基準が満たされているとの判定に従って、
前記1つ以上のカメラの前記視野内の前記検出された変化が移動基準を満たすとの判定に従って、第1のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新することと、
前記1つ以上のカメラの前記視野内の前記検出された変化が前記移動基準を満たさないとの判定に従って、前記第1のフレームレートよりも低い第2のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新することと、
を含む、方法。
[項目128]
前記可変フレームレート基準は、前記1つ以上のカメラの前記視野内の周辺光が閾値を下回るときに満たされる基準を含み、前記1つ以上のカメラの前記視野内の前記変化を検出する前に、前記1つ以上のカメラの前記視野の前記表現が、第3のフレームレートで更新され、前記方法は、
前記1つ以上のカメラの前記視野内の前記変化を検出したことに応じて、かつ前記可変フレームレート基準が満たされていないとの判定に従って、前記第3のフレームレートで前記1つ以上のカメラの前記視野の前記表現の前記更新を維持すること、
を更に含む、項目127に記載の方法。
[項目129]
前記可変フレームレート基準は、フラッシュモードが非アクティブであるときに満たされる基準を含む、項目128に記載の方法。
[項目130]
前記メディアキャプチャユーザインタフェースを表示することは、
前記可変フレームレート基準が満たされているとの判定に従って、可変フレームレートモードがアクティブであるというインジケーションを表示することと、
前記可変フレームレート基準が満たされていないとの判定に従って、前記可変フレームレートモードがアクティブであるという前記インジケーションなしで、前記メディアキャプチャユーザインタフェースを表示することと、
を含む、項目127から129のいずれか一項に記載の方法。
[項目131]
前記第1のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて更新される前記1つ以上のカメラの前記視野の前記表現は、前記表示デバイス上に、第1の輝度で表示され、
前記第1のフレームレートよりも低い前記第2のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて更新される前記1つ以上のカメラの前記視野の前記表現は、前記表示デバイス上に、前記第1の輝度よりも視覚的に明るい第2の輝度で表示される、項目127から130のいずれか一項に記載の方法。
[項目132]
前記第2のフレームレートは、それぞれの閾値を下回る前記1つ以上のカメラの前記視野内の周辺光の量に基づく、項目127から131のいずれか一項に記載の方法。
[項目133]
前記検出された変化は、検出された移動を含み、前記第2のフレームレートは、前記検出された移動の量に基づく、項目127から132のいずれか一項に記載の方法。
[項目134]
前記移動基準は、前記1つ以上のカメラの前記視野内の前記検出された変化が移動閾値よりも大きい前記電子デバイスの移動に対応するときに満たされる基準を含む、項目127から133のいずれか一項に記載の方法。
[項目135]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目127から134のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目136]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目127から134のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目137]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目127から134のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目138]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示し、
前記メディアキャプチャユーザインタフェースを表示している間に、前記1つ以上のカメラを介して、前記1つ以上のカメラの前記視野内の変化を検出し、
前記1つ以上のカメラの前記視野内の前記変化を検出したことに応じて、かつ可変フレームレート基準が満たされているとの判定に従って、
前記1つ以上のカメラの前記視野内の前記検出された変化が移動基準を満たすとの判定に従って、第1のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新し、
前記1つ以上のカメラの前記視野内の前記検出された変化が前記移動基準を満たさないとの判定に従って、前記第1のフレームレートよりも低い第2のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目139]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示し、
前記メディアキャプチャユーザインタフェースを表示している間に、前記1つ以上のカメラを介して、前記1つ以上のカメラの前記視野内の変化を検出し、
前記1つ以上のカメラの前記視野内の前記変化を検出したことに応じて、かつ可変フレームレート基準が満たされているとの判定に従って、
前記1つ以上のカメラの前記視野内の前記検出された変化が移動基準を満たすとの判定に従って、第1のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新し、
前記1つ以上のカメラの前記視野内の前記検出された変化が前記移動基準を満たさないとの判定に従って、前記第1のフレームレートよりも低い第2のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新する、命令を含む、電子デバイス。
[項目140]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示する手段と、
前記メディアキャプチャユーザインタフェースを表示している間に、前記1つ以上のカメラを介して、前記1つ以上のカメラの前記視野内の変化を検出する手段と、
前記1つ以上のカメラの前記視野内の前記変化を検出したことに応じて、かつ可変フレームレート基準が満たされているとの判定に従って、
前記1つ以上のカメラの前記視野内の前記検出された変化が移動基準を満たすとの判定に従って、第1のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新し、
前記1つ以上のカメラの前記視野内の前記検出された変化が前記移動基準を満たさないとの判定に従って、前記第1のフレームレートよりも低い第2のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新する、
手段と、
を備える、電子デバイス。
[項目141]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
カメラユーザインタフェースを表示する要求を受信することと、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することと、
前記1つ以上のカメラの前記視野内の周辺光がそれぞれの閾値を下回るときに満たされる条件を含む低光条件が満たされたとの判定に従って、前記1つ以上のカメラの前記視野の前記表現と同時に、メディアをキャプチャする要求に応じてメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、
前記低光条件が満たされなかったとの判定に従って、前記キャプチャ持続時間を調整する前記コントロールの表示をやめることと、
を含む、ことと、
を含む、方法。
[項目142]
前記キャプチャ持続時間を調整する前記コントロールを表示している間に、低光条件がもはや満たされていないというインジケーションを取得することと、
前記インジケーションを取得したことに応じて、前記表示デバイスを介して、前記キャプチャ持続時間を調整する前記コントロールを表示することを停止することと、
を更に含む、項目141に記載の方法。
[項目143]
前記キャプチャ持続時間を調整する前記コントロールを同時に表示することなく、前記1つ以上のカメラの前記視野の前記表現を表示している間に、低光条件が満たされたというインジケーションを取得することと、
前記インジケーションを取得したことに応じて、前記1つ以上のカメラの前記視野の前記表現と同時に、前記キャプチャ持続時間を調整する前記コントロールを表示することと、
を更に含む、項目141又は142に記載の方法。
[項目144]
前記低光条件は、フラッシュモードが非アクティブであるときに満たされる条件を含む、項目141から143のいずれか一項に記載の方法。
[項目145]
前記キャプチャ持続時間を調整する前記コントロールはスライダである、項目141から144のいずれか一項に記載の方法。
[項目146]
前記カメラユーザインタフェースを表示することは、
前記1つ以上のカメラの前記視野の前記表現と同時に、選択されると、前記1つ以上のカメラを使用してメディアの前記キャプチャを開始するメディアキャプチャアフォーダンスを表示すること、
を含む、項目141から145のいずれか一項に記載の方法。
[項目147]
前記キャプチャ持続時間を調整する前記コントロールを表示している間に、第1のキャプチャ持続時間の第1のインジケーションを表示することと、
前記第1のキャプチャ持続時間から第2のキャプチャ持続時間に前記キャプチャ持続時間を調整する前記コントロールを調整する要求を受信したことに応じて、前記第1のキャプチャ持続時間の前記第1のインジケーションの表示を、前記第2のキャプチャ持続時間の第2のインジケーションの表示に置き換えることと、
を更に含む、項目146に記載の方法。
[項目148]
前記1つ以上のカメラの前記視野の前記表現は、前記1つ以上のカメラの前記視野の第1の表現であり、前記方法は、
前記第1のキャプチャ持続時間から前記第2のキャプチャ持続時間に前記キャプチャ持続時間を調整する前記コントロールを調整する前記要求を受信したことに応じて、
前記第1の表現の表示を、前記1つ以上のカメラの前記視野の第2の表現に置き換えることであって、前記第2の表現は、前記第2のキャプチャ持続時間に基づき、かつ前記第1の表現と視覚的に区別される、こと、
を更に含む、項目147に記載の方法。
[項目149]
前記第2のキャプチャ持続時間の前記第2のインジケーションを表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、かつ前記第2のキャプチャ持続時間が低光キャプチャモードを非アクティブ化する所定のキャプチャ持続時間に対応するとの判定に従って、前記第2のキャプチャ持続時間とは異なる持続時間に基づいて、前記1つ以上のカメラを介して、メディアのキャプチャを開始することと、
を更に含む、項目147又は148に記載の方法。
[項目150]
前記第2のキャプチャ持続時間の前記第2のインジケーションを表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、前記第2のキャプチャ持続時間に基づいて、前記1つ以上のカメラを介して、メディアのキャプチャを開始することと、
を更に含む、項目147又は148に記載の方法。
[項目151]
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記表現を表示することを停止すること、
を更に含む、項目150に記載の方法。
[項目152]
前記キャプチャ持続時間を調整する前記コントロールは、第1の色で表示され、前記方法は、
メディアをキャプチャする前記要求を受信したことに応じて、前記第1の色とは異なる第2の色で前記キャプチャ持続時間を調整する前記コントロールを表示すること、
を更に含む、項目150又は151に記載の方法。
[項目153]
メディアをキャプチャする前記要求を受信したことに応じて、第3のキャプチャ値の第3のインジケーションを前記第2のキャプチャ持続時間の前記第2のインジケーションに動かす第1のアニメーションを表示することと、
前記第1のアニメーションを表示した後に、前記第2のキャプチャ持続時間の前記第2のインジケーションを前記第3のキャプチャ値の前記第3のインジケーションに動かす第2のアニメーションを表示することであって、前記第2のアニメーションの持続時間は、前記第2のキャプチャ持続時間の持続時間に対応し、前記第1のアニメーションの持続時間とは異なる、ことと、
を更に含む、項目150から152のいずれか一項に記載の方法。
[項目154]
前記第1のアニメーションを表示している間に、第1の触知出力を提供することと、
前記第2のアニメーションを表示している間に、第2の触知出力を提供することと、
を更に含む、項目153に記載の方法。
[項目155]
前記メディアのキャプチャを開始した後に、前記第2のキャプチャ持続時間に基づいて前記メディアをキャプチャすること、
を更に含む、項目150から154のいずれか一項に記載の方法。
[項目156]
前記メディアは、前記第2のキャプチャ持続時間に基づいてキャプチャされる第1のメディアであり、前記方法は、
前記第1のメディアをキャプチャした後に、前記第2のキャプチャ持続時間に基づいて第2のメディアをキャプチャする要求を受信することと、
前記第2のキャプチャ持続時間に基づいて第2のメディアをキャプチャする前記要求を受信したことに応じて、前記第2のキャプチャ持続時間に基づいて前記第2のメディアのキャプチャを開始することと、
前記第2のキャプチャ持続時間に基づいて前記第2のメディアのキャプチャを開始した後に、前記第2のキャプチャ持続時間が経過する前に、前記第2のメディアのキャプチャを終了する要求を受信することと、
前記第2のメディアのキャプチャを終了する前記要求を受信したことに応じて、
前記第2のキャプチャ持続時間に基づく前記第2のメディアの前記キャプチャを終了することと、
前記第2のメディアのキャプチャを終了する前記要求を受信する前に前記1つ以上のカメラによってキャプチャされた視覚情報に基づいて、終了前にキャプチャされた前記第2のメディアの表現を表示することと、
を更に含む、項目155に記載の方法。
[項目157]
前記メディアは、前記第2のキャプチャ持続時間に基づいてキャプチャされる第1のメディアであり、前記方法は、
前記第1のメディアをキャプチャした後に、前記第2のキャプチャ持続時間に基づいて第3のメディアをキャプチャする要求を受信することと、
前記第2のキャプチャ持続時間に基づいて第3のメディアをキャプチャする前記要求を受信したことに応じて、前記第2のキャプチャ持続時間に基づいて前記第3のメディアのキャプチャを開始することと、
前記第2のキャプチャ持続時間に基づいて前記第3のメディアのキャプチャを開始した後に、
前記1つ以上のカメラの前記視野内の検出された変化が移動基準を上回るとの判定に従って、
前記第3のメディアの前記キャプチャを終了することと、
前記第2のメディアのキャプチャを終了する前記要求を受信する前に前記1つ以上のカメラによってキャプチャされた視覚情報に基づいて、終了前にキャプチャされた前記第3のメディアの表現を表示することと、
を更に含む、項目155又は156に記載の方法。
[項目158]
メディアをキャプチャする前記要求を受信したことに応じて、メディアをキャプチャするように要求する前記アフォーダンスの表示をメディアのキャプチャを終了するアフォーダンスの表示に置き換えること、
を更に含む、項目155から157のいずれか一項に記載の方法。
[項目159]
前記メディアのキャプチャを開始した後に、第1のキャプチャ時間でキャプチャされた前記第1のメディアの第1の表現を表示することと、
前記第1のメディアの前記第1の表現を表示した後に、前記第1のメディアの前記第1の表現の表示を、前記第1のキャプチャ時間の後の第2のキャプチャ時間でキャプチャされた前記第1のメディアの第2の表現の表示に置き換えることであって、前記第2の表現は、前記第1のメディアの前記第1の表現と視覚的に区別される、ことと、
を更に含む、項目155から158のいずれか一項に記載の方法。
[項目160]
前記第1のメディアの前記第1の表現の表示を前記第1のメディアの前記第2の表現の表示に前記置き換えることは、所定の期間後に行われる、項目159に記載の方法。
[項目161]
前記カメラユーザインタフェースを表示することは、低光条件が満たされたとの判定に従って、キャプチャ持続時間を調整する前記コントロールと同時に、低光キャプチャモードの状態がアクティブであることを示す低光キャプチャ状態インジケータを表示することを含み、
前記方法は、
前記低光キャプチャ状態インジケータを表示している間に、前記低光キャプチャ状態インジケータの第1の選択を受信することと、
前記低光状態キャプチャインジケータの第1の選択を受信したことに応じて、
前記低光キャプチャ状態インジケータの表示を維持している間に、前記キャプチャ持続時間を調整する前記コントロールを表示することを停止することと、
前記低光キャプチャモードの前記状態が非アクティブであることを示すように、前記低光キャプチャ状態インジケータの外観を更新することと、
を含む、項目141から160のいずれか一項に記載の方法。
[項目162]
前記カメラユーザインタフェースを表示することは、低光条件が満たされたとの判定に従って、前記低光キャプチャモードが非アクティブであることを示す前記低光キャプチャ状態インジケータを表示している間に、前記低光キャプチャ状態インジケータの第2の選択を受信することを含み、
前記方法は、
前記低光キャプチャ状態インジケータの前記第2の選択を受信したことに応じて、前記キャプチャ持続時間を調整する前記コントロールを再表示すること、
を含む、項目161に記載の方法。
[項目163]
前記低光キャプチャ状態インジケータの前記第1の選択を受信したことに応じて、フラッシュ動作を実行しないように前記電子デバイスを構成することを含む、項目161に記載の方法。
[項目164]
前記低光条件は、前記低光キャプチャ状態インジケータが選択されるときに満たされる条件を含む、項目161から163のいずれか一項に記載の方法。
[項目165]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目141から164のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目166]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目141から164のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目167]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目141から164のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目168]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
カメラユーザインタフェースを表示する要求を受信し、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、前記表示デバイスを介して、カメラユーザインタフェースを表示する、命令を含み、前記カメラユーザインタフェースを表示することは、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することと、
前記1つ以上のカメラの前記視野内の周辺光がそれぞれの閾値を下回るときに満たされる条件を含む低光条件が満たされたとの判定に従って、前記1つ以上のカメラの前記視野の前記表現と同時に、メディアをキャプチャする要求に応じてメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、
前記低光条件が満たされなかったとの判定に従って、前記キャプチャ持続時間を調整する前記コントロールの表示をやめることと、
を含む、非一時的コンピュータ可読記憶媒体。
[項目169]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
カメラユーザインタフェースを表示する要求を受信し、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、前記表示デバイスを介して、カメラユーザインタフェースを表示する、命令を含み、前記カメラユーザインタフェースを表示することは、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することと、
前記1つ以上のカメラの前記視野内の周辺光がそれぞれの閾値を下回るときに満たされる条件を含む低光条件が満たされたとの判定に従って、前記1つ以上のカメラの前記視野の前記表現と同時に、メディアをキャプチャする要求に応じてメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、
前記低光条件が満たされなかったとの判定に従って、前記キャプチャ持続時間を調整する前記コントロールの表示をやめることと、
を含む、電子デバイス。
[項目170]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
カメラユーザインタフェースを表示する要求を受信する手段と、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することと、
前記1つ以上のカメラの前記視野内の周辺光がそれぞれの閾値を下回るときに満たされる条件を含む低光条件が満たされたとの判定に従って、前記1つ以上のカメラの前記視野の前記表現と同時に、メディアをキャプチャする要求に応じてメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、
前記低光条件が満たされなかったとの判定に従って、前記キャプチャ持続時間を調整する前記コントロールの表示をやめることと、
を含む、手段と、
を備える、電子デバイス。
[項目171]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、カメラユーザインタフェースを表示することと、
前記カメラユーザインタフェースを表示している間に、前記電子デバイスの1つ以上のセンサを介して、前記1つ以上のカメラの視野内の光量を検出することと、
前記1つ以上のカメラの前記視野内の前記光量を検出したことに応じて、
前記1つ以上のカメラの前記視野内の前記光量が、前記1つ以上のカメラの前記視野内の前記光量が所定の閾値を下回るときに満たされる基準を含む、低光環境基準を満たすとの判定に従って、前記カメラユーザインタフェース内に、
フラッシュ動作の状態を示すフラッシュ状態インジケータと、
低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、
を同時に表示することと、
前記1つ以上のカメラの前記視野内の前記光量が前記低光環境基準を満たしていないとの判定に従って、前記カメラユーザインタフェース内の前記低光キャプチャ状態インジケータの表示をやめることと、
を含む、方法。
[項目172]
前記1つ以上のカメラの前記視野内の前記光量が低光環境基準を満たし、かつ、前記フラッシュ動作がアクティブ又は非アクティブに設定されているかを自動的に判定するようにフラッシュ設定が設定されているときに満たされる基準を含む、フラッシュ動作基準が満たされているとの判定に従って、
前記フラッシュ状態インジケータは、前記フラッシュ動作の前記状態がアクティブであることを示し、
前記低光キャプチャインジケータは、前記低光キャプチャモードの前記状態が非アクティブであることを示す、項目171に記載の方法。
[項目173]
前記1つ以上のカメラの前記視野内の前記光量が低光環境基準を満たしている間に、
前記1つ以上のカメラの前記視野内の前記光量が第1の所定の範囲内にあり、かつフラッシュ設定がアクティブに設定されているとの判定に従って、
前記フラッシュ状態インジケータは、前記フラッシュ動作の前記状態がアクティブであることを示し、
前記低光キャプチャインジケータは、前記低光キャプチャモードの前記状態が非アクティブであることを示し、
前記1つ以上のカメラの前記視野内の前記光量が前記第1の所定の範囲内にあり、かつ前記フラッシュ設定がアクティブに設定されていないとの判定に従って、
前記フラッシュ状態インジケータは、前記フラッシュ動作の前記状態が非アクティブであることを示し、
前記低光キャプチャインジケータは、前記低光キャプチャモードの前記状態がアクティブであることを示す、項目171又は172に記載の方法。
[項目174]
前記1つ以上のカメラの前記視野内の前記光量が低光環境基準を満たしている間に、
前記1つ以上のカメラの前記視野内の前記光量が前記第1の所定の範囲とは異なる第2の所定の範囲内にあり、かつ前記フラッシュ設定が非アクティブに設定されているとの判定に従って、
前記フラッシュ状態インジケータは、前記フラッシュ動作の前記状態が非アクティブであることを示し、
前記低光キャプチャインジケータは、前記低光キャプチャモードの前記状態がアクティブであることを示し、
前記1つ以上のカメラの前記視野内の前記光量が前記第1の所定の範囲とは異なる前記第2の所定の範囲内にあり、かつ前記フラッシュ設定が非アクティブに設定されていないとの判定に従って、
前記フラッシュ状態インジケータは、前記フラッシュ動作の前記状態がアクティブであることを示し、
前記低光キャプチャインジケータは、前記低光キャプチャモードの前記状態が非アクティブであることを示す、項目173に記載の方法。
[項目175]
前記フラッシュ状態インジケータが表示されており、かつ前記フラッシュ動作の前記状態がアクティブであることを示し、前記低光キャプチャインジケータが表示されており、かつ前記低光キャプチャモードの前記状態が非アクティブであることを示している間に、前記フラッシュ状態インジケータの選択を受信することと、
前記フラッシュ状態インジケータの前記選択を受信したことに応じて、
前記フラッシュ動作の前記状態が非アクティブであることを示すように、前記フラッシュ状態インジケータを更新することと、
前記低光キャプチャモードの前記状態がアクティブであることを示すように、前記低光キャプチャインジケータを更新することと、
を更に含む、項目171から174のいずれか一項に記載の方法。
[項目176]
前記フラッシュ状態インジケータが表示されており、かつ前記フラッシュ動作の前記状態がアクティブであることを示し、前記低光キャプチャインジケータが表示されており、かつ前記低光キャプチャモードの前記状態が非アクティブであることを示している間に、前記低光キャプチャ状態インジケータの選択を受信することと、
前記低光キャプチャ状態インジケータの前記選択を受信したことに応じて、
前記フラッシュ動作の前記状態が非アクティブであることを示すように、前記フラッシュ状態インジケータを更新することと、
前記低光キャプチャモードの前記状態がアクティブであることを示すように、前記低光キャプチャ状態インジケータを更新することと、
を更に含む、項目171から175のいずれか一項に記載の方法。
[項目177]
前記低光キャプチャモードの前記状態がアクティブであるとの判定に従って、キャプチャ持続時間を調整するコントロールを表示すること、
を更に含む、項目171から176のいずれか一項に記載の方法。
[項目178]
前記キャプチャ持続時間を調整する前記コントロールを表示している間に、第1のキャプチャ持続時間から第2のキャプチャ持続時間に前記コントロールを変更する要求を受信することと、
前記第1のキャプチャ持続時間から前記第2のキャプチャ持続時間に前記コントロールを変更する前記要求を受信したことに応じて、
前記第2のキャプチャ持続時間が低光キャプチャモードを非アクティブ化する所定のキャプチャ持続時間であるとの判定に従って、前記低光キャプチャモードの前記状態が非アクティブであることを示すように、前記低光キャプチャ状態インジケータを更新することと、
を更に含む、項目177に記載の方法。
[項目179]
前記キャプチャ持続時間を調整する前記コントロールを表示している間に、低光キャプチャモードの状態の変化を検出することと、
前記低光キャプチャモードの状態の前記変化を検出したことに応じて、
低光キャプチャモードの前記状態が非アクティブであるとの判定に従って、前記キャプチャ持続時間を調整する前記コントロールの表示を停止することと、
を更に含む、項目177に記載の方法。
[項目180]
前記カメラユーザインタフェース内に、前記1つ以上のカメラの前記視野の第1の表現を表示することと、
低光キャプチャモードの前記状態がアクティブである間に、前記1つ以上のカメラの前記視野の第1のメディアをキャプチャする要求を受信することと、
低光キャプチャモードの前記状態がアクティブである間に、第1のメディアをキャプチャする前記要求を受信したことに応じて、
前記第1のメディアのキャプチャを開始することと、
前記第1のメディアの前記キャプチャの持続時間にわたって前記1つ以上のカメラの前記視野の前記第1の表現の前記表示を維持することと、
を更に含む、項目171から179のいずれか一項に記載の方法。
[項目181]
低光キャプチャモードの前記状態がアクティブである間に、前記1つ以上のカメラの前記視野の第2のメディアをキャプチャする要求を受信することと、
低光キャプチャモードの前記状態がアクティブである間に第2のメディアをキャプチャする前記要求を受信したことに応じて、前記第2のメディアのキャプチャを開始することと、
前記第2のメディアをキャプチャしている間に、前記カメラユーザインタフェース内に、前記第2のメディアの表現を同時に表示することと、
を更に含む、項目171から180のいずれか一項に記載の方法。
[項目182]
前記カメラユーザインタフェース内に、前記1つ以上のカメラの前記視野の第2の表現を表示することと、
低光キャプチャモードの前記状態がアクティブである間に、前記1つ以上のカメラの前記視野の第3のメディアをキャプチャする要求を受信することと、
前記低光キャプチャモードの前記状態がアクティブである間に前記第3のメディアをキャプチャする前記要求を受信したことに応じて、前記第3のメディアのキャプチャを開始することと、
前記第3のメディアをキャプチャしている間に、前記カメラユーザインタフェース内に前記1つ以上のカメラの前記視野から導出された表現を表示することを停止することと、
を更に含む、項目171から181のいずれか一項に記載の方法。
[項目183]
前記1つ以上のカメラの前記視野内の前記光量が前記低光環境基準を満たしていないとの判定に従って、前記カメラユーザインタフェース内に、前記フラッシュ動作の前記状態を示す前記フラッシュ状態インジケータを表示すること、
を更に含む、項目171から182のいずれか一項に記載の方法。
[項目184]
前記フラッシュ動作の前記状態及び前記低光キャプチャモードの前記状態は、互いに排他的である、項目171から183のいずれか一項に記載の方法。
[項目185]
前記低光キャプチャモードの前記状態は、アクティブ状態、利用可能状態、及び非アクティブ状態からなる群から選択される、項目171から184のいずれか一項に記載の方法。
[項目186]
前記1つ以上のカメラの前記視野内の前記光量が低光環境基準を満たしている間に、
前記1つ以上のカメラの前記視野内の前記光量が第3の所定の範囲内にあるとの判定に従って、前記フラッシュ状態インジケータは、前記フラッシュ動作の前記状態が利用可能であることを示す、項目171又は172及び174から185のいずれか一項に記載の方法。
[項目187]
前記キャプチャ持続時間を調整する前記コントロールは、前記キャプチャ持続時間を調整する第1のコントロールであり、前記方法は、
前記フラッシュ状態インジケータが、前記フラッシュ動作の前記状態が利用可能であることを示している間に、前記低光キャプチャ状態インジケータの選択を受信することと、
前記低光キャプチャ状態インジケータの選択を受信したことに応じて、
前記低光キャプチャモードの前記状態がアクティブであることを示すように、前記低光キャプチャ状態インジケータを更新することと、
キャプチャ持続時間を調整する第2のコントロールを表示することと、
を更に含む、項目186に記載の方法。
[項目188]
前記1つ以上のカメラの前記視野内の周辺光が第4の所定範囲内にあるとの判定に従って、第1の低光キャプチャ状態インジケータは、前記第1のキャプチャ持続時間の第1の視覚表現を含み、
前記1つ以上のカメラの前記視野内の周辺光が前記第4の所定の範囲内にないとの判定に従って、前記第1の低光キャプチャ状態インジケータは、前記第1のキャプチャ持続時間の前記第1の視覚表現を含まない、項目171から187のいずれか一項に記載の方法。
[項目189]
前記1つ以上のカメラの前記視野内の前記光量を検出したことに応じて、前記1つ以上のカメラの前記視野内の前記光量が低光環境基準を満たすとの前記判定に従って、
前記1つ以上のカメラの前記視野内の周辺光が第3の所定の範囲内にあるとの判定に従って、前記低光キャプチャ状態インジケータは、前記低光キャプチャモードの状態がアクティブであること、及び前記第1のキャプチャ持続時間の第2の視覚表現を含むことを示し、
前記1つ以上のカメラの前記視野内の周辺光が第4の所定の範囲内にあるとの判定に従って、前記低光キャプチャ状態インジケータは、前記低光キャプチャモードの前記状態がアクティブであることを示し、前記第1のキャプチャ持続時間の前記第2の視覚表現を含まず、
前記1つ以上のカメラの前記視野内の周辺光が第5の所定範囲内であるとの判定に従って、前記低光キャプチャ状態インジケータは、前記低光キャプチャモードの状態が利用可能であることを示し、前記低光キャプチャモードの前記状態がアクティブであることを示し、かつ前記第1のキャプチャ持続時間の前記第2の視覚表現を含む、前記低光キャプチャ状態インジケータと、前記低光キャプチャモードの前記状態がアクティブであることを示し、かつ前記第1のキャプチャ持続時間の前記第2の視覚表現を含まない、前記低光キャプチャ状態インジケータと、前記低光キャプチャモードの状態が利用可能であることを示す、前記低光キャプチャ状態インジケータとは、互いに視覚的に異なる、
ことを更に含む、項目171から188のいずれか一項に記載の方法。
[項目190]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目171から189のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目191]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目171から189のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目192]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目171から189のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目193]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記電子デバイスの1つ以上のセンサを介して、前記1つ以上のカメラの視野内の光量を検出し、
前記1つ以上のカメラの前記視野内の前記光量を検出したことに応じて、
前記1つ以上のカメラの前記視野内の前記光量が、前記1つ以上のカメラの前記視野内の前記光量が所定の閾値を下回るときに満たされる基準を含む、低光環境基準を満たすとの判定に従って、前記カメラユーザインタフェース内に、
フラッシュ動作の状態を示すフラッシュ状態インジケータと、
低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、
を同時に表示し、
前記1つ以上のカメラの前記視野内の前記光量が前記低光環境基準を満たしていないとの判定に従って、前記カメラユーザインタフェース内の前記低光キャプチャ状態インジケータの表示をやめる、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目194]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記電子デバイスの1つ以上のセンサを介して、前記1つ以上のカメラの視野内の光量を検出し、
前記1つ以上のカメラの前記視野内の前記光量を検出したことに応じて、
前記1つ以上のカメラの前記視野内の前記光量が、前記1つ以上のカメラの前記視野内の前記光量が所定の閾値を下回るときに満たされる基準を含む、低光環境基準を満たすとの判定に従って、前記カメラユーザインタフェース内に、
フラッシュ動作の状態を示すフラッシュ状態インジケータと、
低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、
を同時に表示し、
前記1つ以上のカメラの前記視野内の前記光量が前記低光環境基準を満たしていないとの判定に従って、前記カメラユーザインタフェース内の前記低光キャプチャ状態インジケータの表示をやめる、
命令を含む、電子デバイス。
[項目195]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段と、
前記カメラユーザインタフェースを表示している間に、前記電子デバイスの1つ以上のセンサを介して、前記1つ以上のカメラの視野内の光量を検出する手段と、
前記1つ以上のカメラの前記視野内の前記光量を検出したことに応じて、
前記1つ以上のカメラの前記視野内の前記光量が、前記1つ以上のカメラの前記視野内の前記光量が所定の閾値を下回るときに満たされる基準を含む、低光環境基準を満たすとの判定に従って、前記カメラユーザインタフェース内に、
フラッシュ動作の状態を示すフラッシュ状態インジケータと、
低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、
を同時に表示し、
前記1つ以上のカメラの前記視野内の前記光量が前記低光環境基準を満たしていないとの判定に従って、前記カメラユーザインタフェース内の前記低光キャプチャ状態インジケータの表示をやめる、
手段と、
を備える、電子デバイス。
[項目196]
方法であって、
表示デバイスを備える電子デバイスにおいて、
前記表示デバイス上に、メディア編集ユーザインタフェースを表示することであって、前記メディア編集ユーザインタフェースは、
視覚メディアの表現と、
前記視覚メディアの前記表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、
前記視覚メディアの前記表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、
を含む、ことと、
前記メディア編集ユーザインタフェースを表示している間に、前記第1のアフォーダンスの選択に対応する第1のユーザ入力を検出することと、
前記第1のアフォーダンスの選択に対応する前記第1のユーザ入力を検出したことに応じて、前記表示デバイス上に、前記メディア編集ユーザインタフェース内のそれぞれの位置に、前記第1の編集可能パラメータを調整する調整可能なコントロールを表示することと、
前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第1のジェスチャを検出することと、
前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出したことに応じて、前記第1のジェスチャに従って前記第1の編集可能パラメータの現在値を調整することと、
前記表示デバイス上に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、前記第2のアフォーダンスの選択に対応する第2のユーザ入力を検出することと、
前記第2のアフォーダンスの選択に対応する前記第2のユーザ入力を検出したことに応じて、前記メディア編集ユーザインタフェース内の前記それぞれの位置に、前記第2の編集可能パラメータを調整する調整可能なコントロールを表示することと、
前記第2の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第2のジェスチャを検出することと、
前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第2のジェスチャを検出したことに応じて、前記第2のジェスチャに従って前記第2の編集可能パラメータの現在値を調整することと、
を含む、方法。
[項目197]
前記第1の編集可能パラメータを調整する前記調整可能なコントロールは、第1の静的部分及び第1の可変部分を含み、
前記第2の編集可能パラメータを調整する前記調整可能なコントロールは、前記第1の静的部分及び第2の可変部分を含み、
前記メディア編集ユーザインタフェース内の前記それぞれの位置に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールを表示することは、
前記表示デバイス上に、前記メディア編集ユーザインタフェース内の前記それぞれの位置に前記第1の静的部分の表示を維持すること、
を含む、項目196に記載の方法。
[項目198]
前記第1の編集可能パラメータを調整する前記調整可能なコントロール及び前記第2の編集可能パラメータを調整する前記調整可能なコントロールは、同じ相対位置に調整されたときに1つ以上の視覚的特徴を共有する、項目196又は197に記載の方法。
[項目199]
前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出したことに応じて、前記視覚メディアの前記表現の表示を、前記第1の編集可能パラメータの調整された現在値に基づいて調整された前記視覚メディアの調整された表現に置き換えることと、
前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第2のジェスチャを検出したことに応じて、前記視覚メディアの前記表現の表示を、前記第2の編集可能パラメータの調整された現在値に基づいて調整された前記視覚メディアの調整された表現に置き換えることと、
を更に含む、項目196から198のいずれか一項に記載の方法。
[項目200]
前記第1の編集可能パラメータは、自動調整編集可能パラメータであり、
前記第1のジェスチャに従って前記第1の編集可能パラメータの前記現在値を調整することは、前記第2の編集可能パラメータを含む複数の編集可能パラメータの現在値を調整することを含む、項目196から199のいずれか一項に記載の方法。
[項目201]
前記メディア編集ユーザインタフェースは、複数の編集可能パラメータ現在値インジケータを含み、前記複数の編集可能パラメータ現在値インジケータは、
前記視覚メディアの前記表現の前記第2の編集可能パラメータに対応する値インジケータと、
前記視覚メディアの前記表現の第3の編集可能パラメータに対応する値インジケータと、
を含み、
前記複数の編集可能パラメータの現在値を調整することは、
第3の編集可能パラメータの現在値を調整することと、
前記第2の編集可能パラメータの前記調整された現在値に基づいて、前記第2の編集可能パラメータに対応する前記値インジケータを更新することと、
前記第3の編集可能パラメータの調整された現在値に基づいて、前記第3の編集可能パラメータに対応する前記値インジケータを更新することと、
を含む、項目199に記載の方法。
[項目202]
前記メディア編集ユーザインタフェースが、前記視覚メディアの前記表現を編集する第4の編集可能パラメータに対応する第3のアフォーダンスを含まない間に、第3のユーザ入力を検出することと、
前記第3のユーザ入力を検出したことに応じて、前記第3のアフォーダンスを表示することと、
を更に含む、項目196から201のいずれか一項に記載の方法。
[項目203]
前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示し、かつ前記第3のユーザ入力を検出している間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを視覚的に抑制すること、
を更に含む、項目202に記載の方法。
[項目204]
前記第3のユーザ入力は、前記第1の編集可能パラメータを調整する前記調整可能なコントロールが表示されている間に受信され、
前記第3のアフォーダンスを表示することは、
前記第4の編集可能パラメータが第1のタイプのパラメータであるときに満たされる基準を含む、第1の1組の基準が満たされているとの判定に従って、前記メディア編集ユーザインタフェース内の前記それぞれの位置に、前記第4の編集可能パラメータを調整する調整可能なコントロールを表示することと、
前記第1の1組の基準が満たされていないとの判定に従って、前記メディア編集ユーザインタフェース内の前記それぞれの位置に前記第4の編集可能パラメータを調整する前記調整可能なコントロールを表示することをやめることと、
を含む、項目203に記載の方法。
[項目205]
前記第1のユーザ入力は、前記第1のアフォーダンス上のタップ入力であり、前記第2のユーザ入力は、前記第2のアフォーダンス上のタップ入力である、項目196から204のいずれか一項に記載の方法。
[項目206]
前記視覚メディアの前記表現及び前記第1のアフォーダンスを表示している間に、前記視覚メディアの前記表現が前記第1の編集可能パラメータに基づいて現在調整されているかどうかの状態を示す第1の編集可能パラメータ状態インジケータを表示することと、
前記第1のアフォーダンスの選択に対応する第4のユーザ入力を検出することと、
前記第4のユーザ入力を検出したことに応じて、
前記視覚メディアの前記表現が前記第1の編集可能パラメータに基づいて現在調整されているとの判定に従って、
前記視覚メディアの前記表現が前記第1の編集可能パラメータに基づいて現在調整されていないことを示すように、前記第1の編集可能パラメータ状態インジケータを更新することと、
前記視覚メディアの前記表現の表示を、前記第1の編集可能パラメータに基づいて調整されなかった前記視覚メディアの表現に置き換えることと、
前記視覚メディアの前記表現が前記第1の編集可能パラメータに基づいて現在調整されていないとの判定に従って、
前記視覚メディアの前記表現が前記第1の編集可能パラメータの前記現在値に基づいて現在調整されていることを示すように、前記第1の編集可能パラメータ状態インジケータを更新することと、
前記視覚メディアの前記表現の表示を、前記第1の編集可能パラメータに基づいて調整された前記視覚メディアの表現に置き換えることと、
を更に含む、項目196から205のいずれか一項に記載の方法。
[項目207]
前記第1のジェスチャに従って前記第1の編集可能パラメータの前記現在値を調整することは、
前記第1の編集可能パラメータの前記現在値が前記第1の編集可能パラメータに対する所定のリセット値に対応するとの判定に従って、触知出力を生成することと、
前記第1の編集可能パラメータの前記現在値が前記第1の編集可能パラメータに対する前記所定のリセット値に対応しないとの判定に従って、触知出力を生成することをやめることと、
を含む、項目196から206のいずれか一項に記載の方法。
[項目208]
前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出している間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを視覚的に強調すること、
を更に含む、項目196から207のいずれか一項に記載の方法。
[項目209]
第3の編集可能パラメータ現在値インジケータは、前記第1のアフォーダンスの少なくとも一部分を視覚的に包囲しており、第4の編集可能パラメータ現在値インジケータは、前記第2のアフォーダンスを視覚的に包囲している、項目196から208のいずれか一項に記載の方法。
[項目210]
前記電子デバイスは、1つ以上のカメラを含み、
前記視覚メディアの前記表現は、前記1つ又はカメラの視野の表現であり、
前記メディア編集ユーザインタフェースは、前記電子デバイスが、照明効果及び深度効果の適用を可能にする第1のキャプチャモードで視覚メディアをキャプチャするように構成されている間に表示され、
前記第1の編集可能パラメータは、照明効果強度であり、
前記第2の編集可能パラメータは、深度効果強度である、項目196から199及び202から209のいずれか一項に記載の方法。
[項目211]
前記第1の編集可能パラメータは、照明効果パラメータに対応し、
前記メディア編集ユーザインタフェースは、前記照明効果パラメータに対応する値インジケータを含み、
前記第1のジェスチャに従って前記第1の編集可能パラメータの前記現在値を調整することは、前記第1の編集可能パラメータの前記調整された現在値に基づいて、前記照明効果パラメータを調整することを含む、項目196から199及び202から209のいずれか一項に記載の方法。
[項目212]
前記第1の編集可能パラメータは、視覚フィルタ効果強度であり、
前記第1のジェスチャに従って前記第1の編集可能パラメータの前記現在値を調整することは、
視覚メディアの前記表現の表示を、前記視覚フィルタ効果強度の前記現在値に基づいて調整された前記視覚メディアの表現に置き換えること、
を含む、項目196から199及び202から209のいずれか一項に記載の方法。
[項目213]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目196から212のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目214]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目196から212のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目215]
電子デバイスであって、
表示デバイスと、項目196から212のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目216]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイス上に、メディア編集ユーザインタフェースであって、
視覚メディアの表現と、
前記視覚メディアの前記表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、
前記視覚メディアの前記表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、
を含むメディア編集ユーザインタフェースを表示し、
前記メディア編集ユーザインタフェースを表示している間に、前記第1のアフォーダンスの選択に対応する第1のユーザ入力を検出し、
前記第1のアフォーダンスの選択に対応する前記第1のユーザ入力を検出したことに応じて、前記表示デバイス上に、前記メディア編集ユーザインタフェース内のそれぞれの位置に、前記第1の編集可能パラメータを調整する調整可能なコントロールを表示し、
前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第1のジェスチャを検出し、
前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出したことに応じて、前記第1のジェスチャに従って前記第1の編集可能パラメータの現在値を調整し、
前記表示デバイス上に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、前記第2のアフォーダンスの選択に対応する第2のユーザ入力を検出し、
前記第2のアフォーダンスの選択に対応する前記第2のユーザ入力を検出したことに応じて、前記メディア編集ユーザインタフェース内の前記それぞれの位置に、前記第2の編集可能パラメータを調整する調整可能なコントロールを表示し、
前記第2の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第2のジェスチャを検出し、
前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第2のジェスチャを検出したことに応じて、前記第2のジェスチャに従って前記第2の編集可能パラメータの現在値を調整する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目217]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイス上に、メディア編集ユーザインタフェースであって、
視覚メディアの表現と、
前記視覚メディアの前記表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、
前記視覚メディアの前記表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、
を含むメディア編集ユーザインタフェースを表示し、
前記メディア編集ユーザインタフェースを表示している間に、前記第1のアフォーダンスの選択に対応する第1のユーザ入力を検出し、
前記第1のアフォーダンスの選択に対応する前記第1のユーザ入力を検出したことに応じて、前記表示デバイス上に、前記メディア編集ユーザインタフェース内のそれぞれの位置に、前記第1の編集可能パラメータを調整する調整可能なコントロールを表示し、
前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第1のジェスチャを検出し、
前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出したことに応じて、前記第1のジェスチャに従って前記第1の編集可能パラメータの現在値を調整し、
前記表示デバイス上に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、前記第2のアフォーダンスの選択に対応する第2のユーザ入力を検出し、
前記第2のアフォーダンスの選択に対応する前記第2のユーザ入力を検出したことに応じて、前記メディア編集ユーザインタフェース内の前記それぞれの位置に、前記第2の編集可能パラメータを調整する調整可能なコントロールを表示し、
前記第2の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第2のジェスチャを検出し、
前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第2のジェスチャを検出したことに応じて、前記第2のジェスチャに従って前記第2の編集可能パラメータの現在値を調整する、
命令を含む、電子デバイス。
[項目218]
電子デバイスであって、
表示デバイスと、
前記表示デバイス上に、メディア編集ユーザインタフェースを表示する手段であって、前記メディア編集ユーザインタフェースは、
視覚メディアの表現と、
前記視覚メディアの前記表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、
前記視覚メディアの前記表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、
を含む、手段と、
前記メディア編集ユーザインタフェースを表示している間に、前記第1のアフォーダンスの選択に対応する第1のユーザ入力を検出する手段と、
前記第1のアフォーダンスの選択に対応する前記第1のユーザ入力を検出したことに応じて、前記表示デバイス上に、前記メディア編集ユーザインタフェース内のそれぞれの位置に、前記第1の編集可能パラメータを調整する調整可能なコントロールを表示する手段と、
前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第1のジェスチャを検出する手段と、
前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出したことに応じて、前記第1のジェスチャに従って前記第1の編集可能パラメータの現在値を調整する手段と、
前記表示デバイス上に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、前記第2のアフォーダンスの選択に対応する第2のユーザ入力を検出する手段と、
前記第2のアフォーダンスの選択に対応する前記第2のユーザ入力を検出したことに応じて、前記メディア編集ユーザインタフェース内の前記それぞれの位置に、前記第2の編集可能パラメータを調整する調整可能なコントロールを表示する手段と、
前記第2の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第2のジェスチャを検出する手段と、
前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第2のジェスチャを検出したことに応じて、前記第2のジェスチャに従って前記第2の編集可能パラメータの現在値を調整する手段と、
を備える、電子デバイス。
[項目219]
方法であって、
表示デバイスを備える電子デバイスにおいて、
前記表示デバイス上に、第1のユーザインタフェースを表示することであって、
第1の視覚メディアの第1の表現と、
前記第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、
を同時に表示することを含む、
ことと、
前記表示デバイス上に、前記第1のユーザインタフェースを表示している間に、前記調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出することと、
前記調整可能なコントロールに向けられた前記ジェスチャを含む前記ユーザ入力を検出したことに応じて、
前記表示デバイス上に、前記ジェスチャの大きさに基づいて選択された前記遠近歪に対するそれぞれの調整量で前記第1の視覚メディアの第2の表現を表示することと、
を含む、方法。
[項目220]
前記第1のユーザインタフェースは、
選択されると、前記第1の視覚メディアの水平遠近歪に対する現在の調整量を示すように、前記調整可能なコントロールの前記インジケーションを更新し、かつユーザ入力に基づいて前記第1の視覚メディアの前記水平遠近歪に対する前記現在の調整量の調整を可能にするように前記調整可能なコントロールを構成する、第1のアフォーダンスと、
選択されると、前記第1の視覚メディアの垂直遠近歪に対する現在の調整量を示すように、前記調整可能なコントロールの前記インジケーションを更新し、かつユーザ入力に基づいて前記第1の視覚メディアの前記垂直遠近歪に対する前記現在の調整量の調整を可能にするように前記調整可能なコントロールを構成する、第2のアフォーダンスと、
を含む、項目219に記載の方法。
[項目221]
前記第1のアフォーダンス及び前記第2のアフォーダンスを表示している間に、選択されると、前記第1の視覚メディアの前記第1の表現内の視覚コンテンツを回転させる現在の調整量を示すように、前記調整可能なコントロールの前記インジケーションを更新する、第3のアフォーダンスを同時に表示すること、
を更に含む、項目220に記載の方法。
[項目222]
前記遠近歪は、水平遠近歪に対応し、
前記第1の視覚メディアの前記第1の表現の水平遠近歪の量は、前記第1の視覚メディアの前記第2の表現の水平遠近歪の量とは異なる、項目219から221のいずれか一項に記載の方法。
[項目223]
前記遠近歪は、垂直遠近歪に対応し、
前記第1の視覚メディアの前記第1の表現の垂直遠近歪の量は、前記第1の視覚メディアの前記第2の表現の垂直遠近歪の量とは異なる、項目219から222のいずれか一項に記載の方法。
[項目224]
前記第1の表現は、第1の実視水平線を含み、前記方法は、
前記第1の視覚メディアの前記第1の表現が、前記第1の視覚メディアの前記第1の表現内の視覚境界部に対する回転度を含んでいる間に、前記第1の視覚メディアの前記第1の表現の前記回転度を変化させる入力を検出することと、
前記第1の視覚メディアの前記第1の表現の前記回転度を変化させる入力を検出したことに応じて、前記入力に基づいて判定された量だけ前記第1の視覚メディアの前記第1の表現を回転させることと、
を更に含む、項目219から223のいずれか一項に記載の方法。
[項目225]
前記第1の表現は、前記第1の視覚メディアの第1の視覚コンテンツを含み、前記方法は、
前記第1の視覚メディアの前記第1の表現が前記第1の視覚コンテンツを含んでいる間に、前記第1の表現の前記第1の視覚コンテンツを変化させる1組の1つ以上の入力を検出することと、
前記第1の視覚メディアの前記第1の表現の前記第1の視覚コンテンツを変化させる前記1組の1つ以上の入力を検出したことに応じて、前記第1の視覚メディアの前記第1の視覚コンテンツとは異なる前記第1の視覚メディアの第2の視覚コンテンツを含む前記第1の視覚メディアの第4の表現を表示することと、
を含む、項目219から224のいずれか一項に記載の方法。
[項目226]
前記第1のユーザインタフェースは、自動調整アフォーダンスを含み、前記方法は、
前記自動調整アフォーダンスに対応する入力を検出することと、
前記自動調整アフォーダンスに対応する前記入力を検出したことに応じて、
水平遠近歪パラメータ、垂直遠近歪パラメータ、回転パラメータからなる群から選択される前記第1の視覚メディアの2つ以上のパラメータの現在値を自動的に調整することと、
前記調整された2つ以上のパラメータの前記調整された現在値に基づいて、前記第1の視覚メディアの第5の表現を表示することと、
を更に含む、項目219から225のいずれか一項に記載の方法。
[項目227]
前記自動調整アフォーダンスを含む前記第1のユーザインタフェースを表示している間に、前記第1のユーザインタフェースとは異なる第3のユーザインタフェースを表示する要求に対応する第2の1組の1つ以上の入力を検出することと、
前記第2の1組の1つ以上の入力を検出したことに応じて、前記表示デバイス上に、第3のユーザインタフェースを表示することであって、
第2の視覚メディアの第2の視覚コンテンツの少なくとも一部分の表現を表示することと、
前記第2の視覚メディアが前記第2の視覚メディアの前記第2の視覚コンテンツの所定の空間的境界の外側にある追加の視覚コンテンツを含むとの判定に従って、前記自動調整アフォーダンスを表示することと、
前記第2の視覚メディアが前記第2の視覚メディアの前記第2の視覚コンテンツの所定の空間的境界の外側にある追加の視覚コンテンツを含まないとの判定に従って、前記自動調整アフォーダンスを表示することをやめることと、
を含む、ことと、
を更に含む、項目226に記載の方法。
[項目228]
前記第1の視覚メディアの前記第1の表現は、前記第1の視覚メディアがキャプチャされたときにまたキャプチャされた視覚コンテンツの所定の空間的境界の外側にある追加の視覚コンテンツを含まない前記第1の視覚メディアの前記視覚コンテンツの第1の部分の表現であり、
前記第1の視覚メディアの前記第2の表現は、前記第1の視覚メディアがキャプチャされたときにまたキャプチャされた前記視覚コンテンツの所定の空間的境界の外側にある前記追加の視覚コンテンツの少なくとも一部分を含む、項目219から227のいずれか一項に記載の方法。
[項目229]
前記第1の視覚メディアの前記第1の表現は、第1のアスペクト比で表示され、
前記第1のユーザインタフェースは、アスペクト比アフォーダンスを含み、
前記方法は、
前記第1の視覚メディアの前記第1の表現を表示している間に、前記アスペクト比アフォーダンスに対応するユーザ入力を検出することと、
前記アスペクト比アフォーダンスに対応する前記ユーザ入力を検出したことに応じて、前記第1のアスペクト比とは異なる第2のアスペクト比で前記第1の視覚メディアの第6の表現を表示することと、
を更に含む、項目219から228のいずれか一項に記載の方法。
[項目230]
前記第1の視覚メディアの前記第1の表現は、第1の向きで表示され、
前記第1のアスペクト比は、第1の水平アスペクト比値及び第1の垂直アスペクト比値を有し、
前記第1のユーザインタフェースは、アスペクト比アフォーダンスを含み、
前記方法は、
前記第1の視覚メディアの前記第1の表現を表示している間に、前記アスペクト比アフォーダンスに対応するユーザ入力を検出することと、
前記アスペクト比アフォーダンスに対応する前記ユーザ入力を検出したことに応じて、前記第1の視覚メディアの前記第1の表現を回転させることなく、前記第1のアスペクト比とは異なる第3のアスペクト比に対応する前記第1の視覚メディアの一部分を示す視覚的フィードバックを表示することであって、前記第3のアスペクト比は、
前記第1の垂直アスペクト比値と等しい第2の水平アスペクト比値と、
前記第1の水平アスペクト比値と等しい第2の垂直アスペクト比値と、
を有する、ことと、
を更に含む、項目229に記載の方法。
[項目231]
前記第1のユーザインタフェースを表示することは、
前記第1の視覚メディアが異なる時間に対応するコンテンツの複数のフレームを含むとの判定に従って、前記画像の遠近歪、クロッピング、及び/又は回転を調整する1つ以上のコントロールと共に、前記第1の視覚メディアに対応するコンテンツのどのフレームが表示されるかを調整する調整可能なコントロールを表示すること、
を含む、項目219から230のいずれか一項に記載の方法。
[項目232]
視覚境界部は、前記第1の視覚メディアの第7の表現の第1の部分の周囲に表示され、前記第7の表現は、前記第1の視覚メディア内の第1の時間に対応し、
前記方法は、
前記第1の視覚メディアに対応するコンテンツのどのフレームが表示されるかを調整する前記調整可能なコントロールを表示している間に、それぞれの時間に対応する前記第1の視覚メディアの時間ベースの表現を選択する要求を検出することと、
それぞれの時間に対応する前記第1の視覚メディアの前記時間ベースの表現を選択する前記要求を検出したことに応じて、
前記第1の視覚メディア内の第2の時間に対応する前記第1の視覚メディアの第8の表現を表示することと、
前記第1の視覚メディアの前記第8の表現の第1の部分の周囲に表示される視覚境界部の表示を維持することと、
を更に含む、項目231に記載の方法。
[項目233]
前記第1の視覚メディアの前記第1の表現は、第1のズームレベルで表示され、前記方法は、
前記第1の視覚メディアの前記第1の表現を表示している間に、前記第1の視覚メディアの表現のズームレベルを変更する要求を検出することと、
前記第1の視覚メディアの前記表現の前記ズームレベルを変更する前記要求を検出したことに応じて、前記第1のズームレベルとは異なる第2のズームレベルで前記第1の視覚メディアの第9の表現を表示することと、
を更に含む、項目219から232のいずれか一項に記載の方法。
[項目234]
前記第1の視覚メディアの前記第1の表現は、第1のカメラレンズの形状及び/又は第1のカメラの位置に基づく遠近歪を含み、
前記第1の視覚メディアの前記第2の表現は、前記カメラレンズの形状及び/又は前記カメラの位置に基づく前記遠近歪を低減するように調整される、項目219から233のいずれか一項に記載の方法。
[項目235]
前記調整可能なコントロールは、遠近歪を補正するコントロールに対応し、
前記方法は、
前記調整可能なコントロールに向けられた前記ジェスチャを含む前記ユーザ入力を検出したことに応じて、前記調整可能なコントロールに向けられた前記ジェスチャの方向及び/又は大きさに従って、遠近歪の補正量を更新すること、
を更に含む、項目219から234のいずれか一項に記載の方法。
[項目236]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目219から235及び399のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目237]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目219から235及び399のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目238]
電子デバイスであって、
表示デバイスと、項目219から235及び399のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目239]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイス上に、第1のユーザインタフェースを表示し、
第1の視覚メディアの第1の表現と、
前記第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、
を同時に表示することを含み、
前記表示デバイス上に、前記第1のユーザインタフェースを表示している間に、前記調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出し、
前記調整可能なコントロールに向けられた前記ジェスチャを含む前記ユーザ入力を検出したことに応じて、
前記表示デバイス上に、前記ジェスチャの大きさに基づいて選択された前記遠近歪に対するそれぞれの調整量で前記第1の視覚メディアの第2の表現を表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目240]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイス上に、第1のユーザインタフェースを表示し、
第1の視覚メディアの第1の表現と、
前記第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、
を同時に表示することを含み、
前記表示デバイス上に、前記第1のユーザインタフェースを表示している間に、前記調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出し、
前記調整可能なコントロールに向けられた前記ジェスチャを含む前記ユーザ入力を検出したことに応じて、
前記表示デバイス上に、前記ジェスチャの大きさに基づいて選択された前記遠近歪に対するそれぞれの調整量で前記第1の視覚メディアの第2の表現を表示する、
命令を含む、電子デバイス。
[項目241]
電子デバイスであって、
表示デバイスと、
前記表示デバイス上に、第1のユーザインタフェースを表示する手段であって、
第1の視覚メディアの第1の表現と、
前記第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、
を同時に表示することを含む、手段と、
前記表示デバイス上に、前記第1のユーザインタフェースを表示している間に、前記調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出する手段と、
前記調整可能なコントロールに向けられた前記ジェスチャを含む前記ユーザ入力を検出したことに応じて、
前記表示デバイス上に、前記ジェスチャの大きさに基づいて選択された前記遠近歪に対するそれぞれの調整量で前記第1の視覚メディアの第2の表現を表示する手段と、
を備える、電子デバイス。
[項目242]
方法であって、
表示デバイスを有する電子デバイスにおいて、
前記表示デバイスを介して、メディアキャプチャユーザインタフェースを表示することであって、
1つ以上のカメラの視野の表現を表示することを含む、ことと、
低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することであって、
1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、
前記コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、前記第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように前記電子デバイスを構成することと、
前記1組の第1のキャプチャ持続時間基準とは異なる、1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、
前記コントロールが前記第1のキャプチャ持続時間よりも長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応じて、前記第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を含む、ことと、
を含む、方法。
[項目243]
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求を受信することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求を受信したことに応じて、
前記第1のキャプチャ持続時間にわたって前記第1の複数の画像をキャプチャするように前記電子デバイスが構成されているとの判定に従って、前記第1のキャプチャ持続時間にわたって前記第1の複数の画像をキャプチャすることと、
前記第2のキャプチャ持続時間にわたって前記第2の複数の画像をキャプチャするように前記電子デバイスが構成されているとの判定に従って、前記第2のキャプチャ持続時間にわたって前記第2の複数の画像をキャプチャすることと、
を更に含む、項目242に記載の方法。
[項目244]
前記第1の複数の画像内の画像の量は、前記第2の複数の画像内の画像の前記量とは異なる、項目243に記載の方法。
[項目245]
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求を受信したことに応じて、かつ前記第1のキャプチャ持続時間にわたって前記第1の複数の画像をキャプチャするように前記電子デバイスが構成されているとの前記判定に従って、前記第1の複数の画像のうちの少なくとも一部のコンテンツを含む第1の合成画像を生成することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求を受信したことに応じて、かつ前記第2のキャプチャ持続時間にわたって前記第2の複数の画像をキャプチャするように前記電子デバイスが構成されているとの前記判定に従って、前記第2の複数の画像のうちの少なくとも一部のコンテンツを含む第2の合成画像を生成することと、
を更に含む、項目243又は244に記載の方法。
[項目246]
前記コントロールが前記第1のキャプチャ持続時間に設定されているという前記インジケーションを表示している間に、前記電子デバイスの第1の安定度を検出することと、
前記電子デバイスの前記第1の安定度を検出したことに応じて、
前記電子デバイスの前記第1の安定度が第1の安定性閾値を上回るとの判定に従って、
前記コントロールが前記第1のキャプチャ持続時間よりも長い第3のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応じて、前記第3のキャプチャ持続時間にわたって第3の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を更に含む、項目242から245のいずれか一項に記載の方法。
[項目247]
前記低光カメラモードがアクティブである間に、前記低光カメラモードの状態を示し、かつ、
キャプチャ持続時間表示基準が満たされているとの判定に従って、前記第1のキャプチャ持続時間の視覚表現を含み、
キャプチャ持続時間表示基準が満たされていないとの判定に従って、前記第1のキャプチャ持続時間の前記視覚表現を含まない、
第1の低光キャプチャ状態インジケータを表示すること、
を更に含む、項目242から246のいずれか一項に記載の方法。
[項目248]
前記キャプチャ持続時間表示基準は、前記1つ以上のカメラの前記視野内の周辺光が第1の所定の範囲内にあるときに満たされる基準を含む、項目247に記載の方法。
[項目249]
前記低光カメラモードがアクティブである前に、
前記1つ以上のカメラの前記視野内の周辺光が第2の所定の範囲内にあるとの判定に従って、前記低光カメラモードの状態がアクティブであることを示し、かつ第3のキャプチャ持続時間の視覚表現を含む、第2の低光キャプチャ状態インジケータを表示することと、
前記1つ以上のカメラの前記視野内の周辺光が第4の所定の範囲内にあるとの判定に従って、前記低光カメラモードの状態がアクティブであることを示し、かつ前記第3のキャプチャ持続時間の前記視覚表現を含まない、第3の低光キャプチャ状態インジケータを表示することと、
前記1つ以上のカメラの前記視野内の周辺光が第5の所定範囲内にあるとの判定に従って、前記低光カメラモードの状態が利用可能であることを示す第4の低光キャプチャ状態インジケータを表示することであって、前記第2の低光キャプチャ状態インジケータと、前記第3の低光キャプチャ状態インジケータと、前記第4の低光キャプチャ状態インジケータとは、互いに視覚的に異なる、ことと、
前記1つ以上のカメラの前記視野内の周辺光が第6の所定の範囲内にあるとの判定に従って、前記第2の低光キャプチャ状態インジケータ、前記第3の低光キャプチャ状態インジケータ、及び前記第4の低光キャプチャ状態インジケータを表示することをやめることと、
を更に含む、項目242から248のいずれか一項に記載の方法。
[項目250]
メディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールは、
第1の推奨されるキャプチャ持続時間値に対応する第1の状態と、
第2の推奨されるキャプチャ持続時間値に対応する第2の状態と、
第3の推奨されるキャプチャ持続時間値に対応する第3の状態と、
に調整可能であるように構成されている、項目242から249のいずれか一項に記載の方法。
[項目251]
メディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールを表示することは、
前記1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、前記第2の状態に調整されたメディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールを表示することであって、前記第1のキャプチャ持続時間は、前記第2の推奨されるキャプチャ持続時間値である、ことと、
前記1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、前記第2の状態に調整されたメディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールを表示することであって、前記第2のキャプチャ持続時間は、前記第2の推奨されるキャプチャ持続時間値である、ことと、
を含む、項目250に記載の方法。
[項目252]
メディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールを表示することは、
メディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールが前記第3の状態にあるとの前記判定、及び前記1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、前記第3の推奨されるキャプチャ持続時間値が、第3のキャプチャ持続時間値であり、
メディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールが前記第3の状態にあるとの前記判定、及び前記1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、前記第3の推奨されるキャプチャ持続時間値が、前記第3のキャプチャ持続時間値とは異なる第4のキャプチャ持続時間値である、
ことを含む、項目250又は251に記載の方法。
[項目253]
前記第2の推奨されるキャプチャ持続時間値は、第5のキャプチャ持続時間値であり、前記第3の推奨されるキャプチャ持続時間値は、第6のキャプチャ持続時間値であり、前記方法は、
メディアをキャプチャするキャプチャ持続時間を調整する前記コントロールを表示している間に、前記電子デバイスの現在の条件の第1の変化を検出することと、
前記電子デバイスの現在の条件の前記第1の変化を検出したことに応じて、
第1の現在の条件が第3のキャプチャ持続時間基準が満たされていることを満たすとの判定に従って、
前記第2の推奨されるキャプチャ持続時間値を、第7のキャプチャ持続時間値であって、前記第5のキャプチャ持続時間値は、前記第7のキャプチャ持続時間値とは異なる、第7のキャプチャ持続時間値に、及び、
前記第3の推奨されるキャプチャ持続時間値を、前記第6のキャプチャ持続時間値とは異なる第8のキャプチャ持続時間値に、
のうちの少なくとも1つに変更することと、
を更に含む、項目250から252のいずれか一項に記載の方法。
[項目254]
前記1組の第1のキャプチャ持続時間基準は、
前記1つ以上のカメラの前記視野内で検出された周辺光と、
前記1つ以上のカメラの前記視野内で検出された移動と、
前記電子デバイスの第2の安定度と、
からなる群から選択される1つ以上のパラメータに基づく基準を含む、項目250から253のいずれか一項に記載の方法。
[項目255]
前記メディアキャプチャユーザインタフェースを表示することは、前記1つ以上のカメラの前記視野の前記表現と同時に、メディアをキャプチャするアフォーダンスを表示することを含み、前記方法は、
メディアをキャプチャする前記アフォーダンスを表示し、かつ前記コントロールが第3のキャプチャ持続時間に設定されているという前記インジケーションを表示している間に、メディアをキャプチャする前記アフォーダンスの選択を含む第1の入力を検出することであって、メディアをキャプチャする前記アフォーダンスの選択は、前記1つ以上のカメラの前記視野に対応する画像をキャプチャする前記単一の要求に対応する、ことと、
メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応じて、前記第1のキャプチャ持続時間にわたって第4の複数の画像のキャプチャを開始することと、
を更に含む、項目250から254のいずれか一項に記載の方法。
[項目256]
前記コントロールが前記第3のキャプチャ持続時間に設定されているという前記インジケーションは、第1のインジケーションであり、
前記第1のインジケーションは、前記第3のキャプチャ持続時間に対応する前記コントロール上の第1の位置に表示され、
前記方法は、
メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応じて、前記コントロール上の前記第1の位置から前記コントロール上の第2の位置に前記第1のインジケーションを動かすアニメーションを表示することと、
前記第2の位置に前記第1のインジケーションを表示したことに応じて、前記コントロール上の前記第1の位置に前記第1のインジケーションを再表示することと、
を更に含む、項目255に記載の方法。
[項目257]
前記コントロールが前記第3のキャプチャ持続時間に設定されているという前記インジケーションは、第2のインジケーションであり、
前記第2のインジケーションは、前記第3のキャプチャ持続時間に対応する前記コントロール上の第3の位置に表示され、
前記方法は、
メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応じて、
前記コントロール上の前記第3の位置から前記コントロール上の第4の位置に前記第2のインジケーションを動かすアニメーションを表示することと、
前記アニメーションを表示している間に、前記電子デバイスの現在の条件の第2の変化を検出することと、
現在の条件の前記第2の変化を検出したことに応じて、
第2の現在の条件が第4のキャプチャ持続時間基準を満たすとの判定に従って、かつ前記第4の位置に前記第1のインジケーションを表示したことに応じて、前記第3のキャプチャ持続時間とは異なる第4のキャプチャ持続時間に対応する前記コントロール上の第5の位置に前記第2のインジケーションを表示することと、
を更に含む、項目256に記載の方法。
[項目258]
前記メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応じて、メディアをキャプチャする前記アフォーダンスの視覚外観を変更すること、
を更に含む、項目255から257のいずれか一項に記載の方法。
[項目259]
前記メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応じて、前記メディアをキャプチャする前記アフォーダンスの表示を、前記メディアをキャプチャする前記アフォーダンスと視覚的に異なる、メディアのキャプチャを終了するアフォーダンスの表示に置き換えること、
を更に含む、項目255から258のいずれか一項に記載の方法。
[項目260]
前記メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応じて、前記表示デバイスを介して、前記メディアのキャプチャが開始されたときの前記電子デバイスのポーズと、メディアのキャプチャを開始した後の第1の時間における前記電子デバイスのポーズとの間の差の視覚インジケーションを表示すること、
を更に含む、項目255から259のいずれか一項に記載の方法。
[項目261]
前記第1のキャプチャ持続時間にわたる前記第1の複数の画像のキャプチャを開始した後に、かつ前記第1のキャプチャ持続時間にわたる前記第1の複数の画像のキャプチャの終了を検出する前に、
前記第1のキャプチャ持続時間が閾値を上回るとの判定に従って、1つ以上の低光モードアニメーションを表示することと、
前記第1のキャプチャ持続時間が閾値を上回らないとの判定に従って、前記1つ以上の低光モードアニメーションを表示することをやめることと、
を更に含む、項目255に記載の方法。
[項目262]
前記メディアをキャプチャしている間に、
前記第1のキャプチャ持続時間にわたる前記第1の複数の画像のキャプチャを開始した後の第1の時間において、前記第1の時間の前に前記1つ以上のカメラによってキャプチャされた複数の画像からの少なくともなんらかのコンテンツに基づく第3の合成画像の表現を表示することと、
前記第1のキャプチャ持続時間にわたる前記第1の複数の画像のキャプチャを開始した後の第2の時間において、前記第2の時間の前に前記1つ以上のカメラによってキャプチャされた複数の画像からの少なくともなんらかのコンテンツに基づく第4の合成画像の表現を表示することであって、
前記第1の時間は、前記第2の時間とは異なり、
前記第3の合成画像の前記表現は、前記第4の合成画像の前記表現と視覚的に区別される、
ことと、
を更に含む、項目242から261のいずれか一項に記載の方法。
[項目263]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目242から262のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目264]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目242から262のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目265]
電子デバイスであって、
表示デバイスと、項目242から262のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目266]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
1つ以上のカメラの視野の表現を表示することを含む、
前記表示デバイスを介して、メディアキャプチャユーザインタフェースを表示し、
低光カメラモードがアクティブである間に、
1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、
コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、前記第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように前記電子デバイスを構成することと、
前記1組の第1のキャプチャ持続時間基準とは異なる、1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、
前記コントロールが前記第1のキャプチャ持続時間よりも長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応じて、前記第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を含む、メディアをキャプチャするキャプチャ持続時間を調整する前記コントロールを表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目267]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
1つ以上のカメラの視野の表現を表示することを含む、
前記表示デバイスを介して、メディアキャプチャユーザインタフェースを表示し、
低光カメラモードがアクティブである間に、
1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、
コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、前記第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように前記電子デバイスを構成することと、
前記1組の第1のキャプチャ持続時間基準とは異なる、1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、
前記コントロールが前記第1のキャプチャ持続時間よりも長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応じて、前記第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を含む、メディアをキャプチャするキャプチャ持続時間を調整する前記コントロールを表示する、
命令を含む、電子デバイス。
[項目268]
電子デバイスであって、
表示デバイスと、
前記表示デバイスを介して、メディアキャプチャユーザインタフェースを表示する手段であって、
1つ以上のカメラの視野の表現を表示することを含む、
手段と、
低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示する手段であって、
1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、
前記コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、前記第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように前記電子デバイスを構成することと、
前記1組の第1のキャプチャ持続時間基準とは異なる、1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、
前記コントロールが前記第1のキャプチャ持続時間よりも長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応じて、前記第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を含む、手段と、
を備える、電子デバイス。
[項目269]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示することと、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始することと、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、
低光モードがアクティブであるときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、前記メディアのキャプチャが開始されたときの前記電子デバイスのポーズと、メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスのポーズとの間の差の視覚インジケーションを表示することと、
を含む、方法。
[項目270]
前記1組のガイダンス基準が、閾値持続時間を上回る第1のキャプチャ持続時間にわたって複数の画像をキャプチャするように前記電子デバイスが構成されているときに満たされる基準を含む、項目269に記載の方法。
[項目271]
前記視覚インジケーションは、
前記メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズを表す第1の1組の1つ以上の形状であって、前記メディアキャプチャユーザインタフェース上の第1の位置に表示される、第1の1組の1つ以上の形状と、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの前記ポーズを表す第2の1組の1つ以上の形状であって、第2の位置に表示される、第2の1組の1つ以上の形状と、
を含む、形状の組を含む、項目269又は270に記載の方法。
[項目272]
前記第1の1組の1つ以上の形状は、第1の色を含み、
前記第2の1組の1つ以上の形状は、前記第1の色とは異なる第2の色を含む、項目271に記載の方法。
[項目273]
キャプチャを開始した後の第2の時間において、前記電子デバイスのポーズの変化を検出することと、
前記電子デバイスの前記ポーズの前記変化を検出したことに応じて、前記メディアキャプチャユーザインタフェース上の前記第2の位置とは異なる前記メディアキャプチャユーザインタフェース上の第3の位置に前記第2の1組の1つ以上の形状を表示することと、
を更に含む、項目271又は272に記載の方法。
[項目274]
前記電子デバイスの前記ポーズの前記変化を検出したことに応じて、
前記第1の1組の1つ以上の形状の前記第1の位置と前記第2の1組の1つ以上の形状の第3の位置との間の差が第1の閾値差内にあるとの判定に従って、前記第1の1組の1つ以上の形状又は前記第2の1組の1つ以上の形状のうちの少なくとも1つの表示をやめることと、
前記第1の1組の1つ以上の形状の前記第1の位置と、前記第2の1組の1つ以上の形状の第3の位置との間の差が、第1の閾値差内にないとの判定に従って、前記第1の1組の1つ以上の形状又は前記第2の1組の1つ以上の形状の表示を維持することと、
を更に含む、項目271から273のいずれか一項に記載の方法。
[項目275]
キャプチャを開始した後の第2の時間において、前記電子デバイスのポーズの変化を検出することと、
前記電子デバイスの前記ポーズの前記変化を検出したことに応じて、
前記メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと、前記メディアのキャプチャを開始した後の前記第2の時間における前記電子デバイスのポーズとの間の差が、第2の閾値差内にあるとの判定に従って、触知出力を生成することと、
前記メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと、メディアのキャプチャを開始した後の前記第2の時間における前記電子デバイスのポーズとの間の差が、前記第2の閾値差内にないとの判定に従って、前記触知出力を生成することをやめることと、
を更に含む、項目269から274のいずれか一項に記載の方法。
[項目276]
1組のガイダンス基準が満たされているとの判定に従って、
メディアをキャプチャしている間に、前記電子デバイスを安定化させる要求に対応する表現を表示すること、
を更に含む、項目269から275のいずれか一項に記載の方法。
[項目277]
前記1組のガイダンス基準が満たされていないとの判定に従って、前記表示デバイスを介して、前記差の前記視覚インジケーションを表示することをやめること、
を更に含む、項目269から276のいずれか一項に記載の方法。
[項目278]
前記視覚インジケーションは、前記第1の時間に表示され、前記方法は、
前記第1の時間とは異なる第3の時間において、前記メディアの前記キャプチャの終了を検出することと、
前記メディアの前記キャプチャの前記終了を検出したことに応じて、前記表示デバイスを介して、前記視覚インジケーションを表示することをやめることと、
を更に含む、項目269から277のいずれか一項に記載の方法。
[項目279]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目269から278のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目280]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目269から278のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目281]
電子デバイスであって、
表示デバイスと、項目269から278のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目282]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示し、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信し、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始し、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、
低光モードがアクティブであるときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、前記メディアのキャプチャが開始されたときの前記電子デバイスのポーズと、メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスのポーズとの間の差の視覚インジケーションを表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目283]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示し、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信し、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始し、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、
低光モードがアクティブであるときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、前記メディアのキャプチャが開始されたときの前記電子デバイスのポーズと、メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスのポーズとの間の差の視覚インジケーションを表示する、
命令を含む、電子デバイス。
[項目284]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示する手段と、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信する手段と、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始する手段と、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、
低光モードがアクティブであるときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、前記メディアのキャプチャが開始されたときの前記電子デバイスのポーズと、メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスのポーズとの間の差の視覚インジケーションを表示する手段と、
を備える、電子デバイス。
[項目285]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、
前記第1の領域の外側にあり、かつ前記第1の領域と視覚的に区別される第2の領域と、を含み、
前記1つ以上のカメラの前記視野内の第1のそれぞれのオブジェクトが前記1つ以上のカメラから第1の距離であるときに満たされる基準を含む、1組の第1のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の第2の部分を第1の視覚外観で表示することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第2の距離であるときに満たされる基準を含む、1組の第2のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることと、
を含む、こと、
を含む、方法。
[項目286]
前記第2の領域は、複数のカメラ設定を制御する複数のコントロールアフォーダンスを含む、項目285に記載の方法。
[項目287]
前記電子デバイスは、前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトに焦点を合わせるように構成されており、前記方法は、
前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示している間に、前記電子デバイスの焦点設定を調整する第1の要求を受信することと、
前記電子デバイスの前記焦点設定を調整する前記第1の要求を受信したことに応じて、前記1つ以上のカメラの前記視野内の第2のそれぞれのオブジェクトに焦点を合わせるように前記電子デバイスを構成することと、
前記1つ以上のカメラの前記視野内の前記第2のそれぞれのオブジェクトに焦点を合わせるように前記電子デバイスが構成されている間に、
前記1つ以上のカメラの前記視野内の前記第2のそれぞれのオブジェクトが前記1つ以上のカメラからの第3の距離であるときに満たされる基準を含む、1組の第3のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることと、
更に含む、項目285又は286に記載の方法。
[項目288]
前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示している間に、前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトと前記1つ以上のカメラとの間の距離の第1の変化を検出することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトと前記1つ以上のカメラとの間の距離の前記第1の変化を検出したことに応じて、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第4の距離であるときに満たされる基準を含む、1組の第4のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることと、
を更に含む、項目285から287のいずれか一項に記載の方法。
[項目289]
前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることは、
前記第2の領域内に、前記第2の領域内に以前に表示されていた前記1つ以上のカメラの前記視野の第3の部分の少なくとも一部を表示することを停止すること、
を含む、項目285から288のいずれか一項に記載の方法。
[項目290]
前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることは、前記第2の領域上に重ね合わされた第1の黒化層の不透明度を増大させることを含む、項目285から289のいずれか一項に記載の方法。
[項目291]
前記電子デバイスは、前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトに焦点を合わせるように構成されており、前記方法は、
前記1つ以上のカメラの前記視野の前記第2の部分が前記第1の視覚外観で表示されていない間に、前記電子デバイスの焦点設定を調整する第2の要求を受信することと、
前記電子デバイスの前記焦点設定を調整する前記第2の要求を受信したことに応じて、前記1つ以上のカメラの前記視野内の第3のそれぞれのオブジェクトに焦点を合わせるように前記電子デバイスを構成することと、
前記1つ以上のカメラの前記視野内の前記第3のそれぞれのオブジェクトに焦点を合わせるように前記電子デバイスが構成されている間に、
前記1つ以上のカメラの前記視野内の前記第3のそれぞれのオブジェクトが前記1つ以上のカメラから第5の距離であるときに満たされる基準を含む、1組の第5のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することと、
を更に含む、項目285から290のいずれか一項に記載の方法。
[項目292]
前記1つ以上のカメラの前記視野の前記第2の部分が前記第1の視覚外観で表示されていない間に、前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトと前記1つ以上のカメラとの間の距離の第2の変化を検出することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトと前記1つ以上のカメラとの間の前記距離の前記第2の変化を検出したことに応じて、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第6の距離であるときに満たされる基準を含む、1組の第6のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することと、
を更に含む、項目285から291のいずれか一項に記載の方法。
[項目293]
前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することは、前記第2の領域内に、前記第2の領域内に以前に表示されなかった前記1つ以上のカメラの前記視野の第4の部分を表示することを含む、項目285から292のいずれか一項に記載の方法。
[項目294]
前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することは、前記第2の領域上に重ね合わされた第2の黒化層の不透明度を減少させることを含む、項目285から293のいずれか一項に記載の方法。
[項目295]
前記第1の視覚外観は、第1の視覚プロミネンスを含み、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することは、
前記1つ以上のカメラの前記視野の前記第2の部分を第2の視覚外観から前記第1の視覚外観に漸進的に遷移させるアニメーションを表示することであって、前記第2の視覚外観は、前記第1の視覚プロミネンスとは異なる第2の視覚プロミネンスを有する、こと、
を含む、項目285から294のいずれか一項に記載の方法。
[項目296]
前記第1の部分は、前記第1の視覚外観とは異なる第3の視覚外観で表示され、
前記方法は、
前記第1の部分が前記第3の視覚外観で表示され、かつ前記1つ以上のカメラの前記視野の前記第2の部分が前記第1の視覚外観で表示されている間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャすることであって、前記メディアは、前記1つ以上のカメラの前記視野の前記第1の部分からのコンテンツ及び前記1つ以上のカメラの前記視野の前記第2の部分からのコンテンツを含む、ことと、
前記1つ以上のカメラの前記視野に対応する前記メディアをキャプチャした後に、前記1つ以上のカメラの前記視野の前記第1の部分からのコンテンツ及び前記1つ以上のカメラの前記視野の前記第2の部分からのコンテンツを含む、前記メディアの表現を表示することと、
を更に含む、項目285に記載の方法。
[項目297]
前記第2の領域の少なくとも第1の部分は、前記第1の領域の上方にある、項目285から296のいずれか一項に記載の方法。
[項目298]
前記第2の領域の少なくとも第2の部分は、前記第2の領域の下方にある、項目285から297のいずれか一項に記載の方法。
[項目299]
前記カメラユーザインタフェース上の位置での入力を受信することと、
前記カメラユーザインタフェース上の前記位置での前記入力を受信したことに応じて、
前記入力の前記位置が前記第1の領域内にあるとの判定に従って、前記入力の前記位置に焦点を合わせるように前記電子デバイスを構成することと、
前記入力の前記位置が前記第2の領域内にあるとの判定に従って、前記入力の前記位置に焦点を合わせるように前記電子デバイスを構成することをやめることと、
を更に含む、項目285から298のいずれか一項に記載の方法。
[項目300]
前記第1の視覚外観で表示されるとき、前記第2の領域は、前記第1領域と視覚的に区別される、項目285から299のいずれか一項に記載の方法。
[項目301]
前記1組の第1のそれぞれの基準は、前記第1のそれぞれのオブジェクトが前記1つ以上のカメラの前記視野内で識別された最も近いオブジェクトであるときに満たされる基準を含む、項目285から300のいずれか一項に記載の方法。
[項目302]
前記1組の第1のそれぞれの基準は、前記第1のそれぞれのオブジェクトが前記1つ以上のカメラの前記視野内の焦点の位置にあるときに満たされる基準を含む、項目285から301のいずれか一項に記載の方法。
[項目303]
前記第1の領域は、境界部によって前記第2の領域から分離され、
前記1組の第1のそれぞれの基準は、前記境界部に隣接する検出された視覚的引裂きが視覚的引裂きの閾値レベルを上回るときに満たされる基準を含む、項目285から302のいずれか一項に記載の方法。
[項目304]
前記1組の第1のそれぞれの基準は、前記1つ以上のカメラの前記視野の前記第1の部分が第1のカメラの視野の一部分であるときに満たされる基準を含み、
前記1組の第2のそれぞれの基準は、前記1つ以上のカメラの前記視野の前記第2の部分が第2のカメラの視野の一部分であるときに満たされる基準を含む、項目285から303のいずれか一項に記載の方法。
[項目305]
前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャすることであって、前記メディアは、前記1つ以上のカメラの前記視野の前記第1の部分からのコンテンツ及び前記1つ以上のカメラの前記視野の前記第2の部分からのコンテンツを含む、ことと、
前記メディアをキャプチャした後に、前記キャプチャされたメディアを編集する要求を受信することと、
前記キャプチャされたメディアを編集する前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記第1の部分からの前記コンテンツの少なくとも一部及び前記1つ以上のカメラの前記視野の前記第2の部分からの前記コンテンツの少なくとも一部を含む、前記キャプチャされたメディアの表現を表示することと、
を更に含む、項目285から304のいずれか一項に記載の方法。
[項目306]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目285から305のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目307]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目285から305のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目308]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目285から305のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目309]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、
前記第1の領域の外側にあり、かつ前記第1の領域と視覚的に区別される第2の領域と、を含むカメラユーザインタフェースであって、
前記1つ以上のカメラの前記視野内の第1のそれぞれのオブジェクトが前記1つ以上のカメラから第1の距離であるときに満たされる基準を含む、1組の第1のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の第2の部分を第1の視覚外観で表示することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第2の距離であるときに満たされる基準を含む、1組の第2のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることと、
を含む、
カメラユーザインタフェースを表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目310]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、
前記第1の領域の外側にあり、かつ前記第1の領域と視覚的に区別される第2の領域と、を含むカメラユーザインタフェースであって、
前記1つ以上のカメラの前記視野内の第1のそれぞれのオブジェクトが前記1つ以上のカメラから第1の距離であるときに満たされる基準を含む、1組の第1のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の第2の部分を第1の視覚外観で表示することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第2の距離であるときに満たされる基準を含む、1組の第2のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることと、
を含む、
カメラユーザインタフェースを表示する、
命令を含む、電子デバイス。
[項目311]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、
前記第1の領域の外側にあり、かつ前記第1の領域と視覚的に区別される第2の領域と、を含み、
前記1つ以上のカメラの前記視野内の第1のそれぞれのオブジェクトが前記1つ以上のカメラから第1の距離であるときに満たされる基準を含む、1組の第1のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の第2の部分を第1の視覚外観で表示することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第2の距離であるときに満たされる基準を含む、1組の第2のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることと、
を含む、
手段と、
を備える、電子デバイス。
[項目312]
方法であって、
表示デバイスと、視野を有する第1のカメラと、前記第1のカメラの前記視野よりも広い視野を有する第2のカメラとを有する電子デバイスにおいて、
前記表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、
前記第1のズームレベルでの前記第1のカメラの前記視野の第1の部分の表現を含む第1の領域と、
前記第1のズームレベルでの前記第2のカメラの前記視野の第1の部分の表現を含む第2の領域と、
を含む、ことと、
前記表示デバイスを介して、前記第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の前記表現を含む前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第2のズームレベルまで上げる第1の要求を受信することと、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第2のズームレベルまで上げる前記第1の要求を受信したことに応じて、
前記第1の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第1の部分の少なくともサブセットを除外する前記第1のカメラの前記視野の第2の部分の表現を表示することと、
前記第2の領域において、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットと重なり合う前記第2のカメラの前記視野の第2の部分の表現を表示することと、
を含む、方法。
[項目313]
前記第2のカメラの前記視野の前記第1の部分は、前記第2のカメラの前記視野の前記第2の部分とは異なる、項目312に記載の方法。
[項目314]
前記第1の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第2の部分の前記表現を表示し、かつ前記第2の領域において、前記第2のズームレベルで、前記第2のカメラの前記視野の前記第2の部分の前記表現を表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第3のズームレベルまで上げる第2の要求を受信することと、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第3のズームレベルまで上げる前記第2の要求を受信したことに応じて、
前記第3のズームレベルが第1のズーム値範囲内にあるとの判定に従って、
前記第1の領域において、前記第3のズームレベルで、前記第1のカメラの前記視野の第3の部分の表現を表示することと、
前記第2の領域において、前記第3のズームレベルで、前記第1のカメラの前記視野の第4の部分の表現を表示することと、
を更に含む、項目312又は313に記載の方法。
[項目315]
前記第1の領域において、前記第3のズームレベルで、前記第1のカメラの前記視野の前記第3の部分の前記表現を表示し、かつ前記第2の領域において、前記第3のズームレベルで、前記第1のカメラの前記視野の前記第4の部分の前記表現を表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第4のズームレベルまで上げる第3の要求を受信することと、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第4のズームレベルまで上げる前記第3の要求を受信したことに応じて、
前記第4のズームレベルが第2のズーム値範囲内にあるとの判定に従って、
前記第1の領域において、前記第4のズームレベルで、第3のカメラの前記視野の第3の部分の少なくともサブセットを除外する前記第3のカメラの前記視野の第5の部分の表現を表示することと、
前記第2の領域において、前記第3のカメラの前記視野の前記第5の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第4のズームレベルで、前記第3のカメラの前記視野の前記第5の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットと重なり合う前記第1のカメラの前記視野の第5の部分の表現を表示することと、
を更に含む、項目314に記載の方法。
[項目316]
前記第1の領域において、前記第4のズームレベルで、前記第3のカメラの前記視野の前記第3の部分の少なくとも前記サブセットを除外する前記第3のカメラの前記視野の前記第5の部分の前記表現を表示し、かつ前記第2の領域において、前記第3のカメラの前記視野の前記第5の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットの前記表現を表示することなく、前記第2の領域において、前記第4のズームレベルで、前記第3のカメラの前記視野の前記第5の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットと重なり合う前記第1のカメラの前記視野の前記第5の部分の前記表現を表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第5のズームレベルまで上げる第4の要求を受信することと、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第5のズームレベルまで上げる前記第4の要求受信したことに応じて、
前記第5のズームレベルが第3のズーム値範囲内にあるとの判定に従って、
前記第1の領域において、前記第5のズームレベルで、前記第3のカメラの前記視野の第6の部分の表現を表示することと、
前記第2の領域において、前記第5のズームレベルで、前記第3のカメラの前記視野の第7の部分の表現を表示することと、
を更に含む、項目315に記載の方法。
[項目317]
前記第1の領域において、前記第5のズームレベルで、前記第3のカメラの前記視野の前記第6の部分の前記表現を表示し、かつ前記第2の領域において、前記第5のズームレベルで、前記第3のカメラの前記視野の前記第7の部分の前記表現を表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第6のズームレベルまで下げる第1の要求を受信することと、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第6のズームレベルまで下げる前記第1の要求を受信したことに応じて、
前記第6のズームレベルが前記第2の領域内に表示するために第4のズーム値範囲内にあるとの判定に従って、
前記第1の領域において、前記第6のズームレベルで、前記第3のカメラの前記視野の前記第3の部分の少なくともサブセットを除外する前記第3のカメラの前記視野の第8の部分の表現を表示することと、
前記第2の領域において、前記第3のカメラの前記視野の前記第8の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第6のズームレベルで、前記第3のカメラの前記視野の前記第8の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットと重なり合う前記第1のカメラの前記視野の第8の部分の表現を表示することと、
を更に含む、項目316に記載の方法。
[項目318]
前記第1の領域において、前記第1のカメラの前記視野の前記第8の部分の少なくとも前記サブセットの前記表現を表示することなく、前記第1の領域において、前記第6のズームレベルで、前記第1のカメラの前記視野の前記第8の部分の少なくともサブセットと重なり合う前記第3のカメラの前記視野の前記第8の部分の前記表現を表示し、かつ前記第2の領域において、前記第6のズームレベルで、前記第1のカメラの前記視野の前記第8の部分の少なくとも前記サブセットを除外する前記第1のカメラの前記視野の前記第8の部分の前記表現を表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第7のズームレベルまで下げる第2の要求を受信することと、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第7のズームレベルまで下げる前記第2の要求を受信したことに応じて、
前記第7のズームレベルが第5のズーム値範囲内にあるとの判定に従って、
前記第1の領域において、前記第7のズームレベルで、前記第1のカメラの前記視野の第9の部分の表現を表示することと、
前記第2の領域において、前記第7のズームレベルで、前記第1のカメラの前記視野の第10の部分の表現を表示することと、
を更に含む、項目317に記載の方法。
[項目319]
前記第2の領域は、複数のカメラ設定を制御する複数のコントロールアフォーダンスを含む、項目312から318のいずれか一項に記載の方法。
[項目320]
前記カメラユーザインタフェース上の位置での入力を受信することと、
前記カメラユーザインタフェース上の前記位置での前記入力を受信したことに応じて、
前記入力の前記位置が前記第1の領域内にあるとの判定に従って、前記入力の前記位置に焦点を合わせるように前記電子デバイスを構成することと、
前記入力の前記位置が前記第2の領域内にあるとの判定に従って、前記入力の前記位置に焦点を合わせるように前記電子デバイスを構成することをやめることと、
を更に含む、項目312から319のいずれか一項に記載の方法。
[項目321]
前記表示デバイスを介して、前記第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の前記表現を含む前記カメラユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャすることであって、前記メディアは、前記第1のズームレベルでの前記第1のカメラの前記視野の前記第1の部分からのコンテンツ及び前記第1のズームレベルでの前記第2のカメラの前記視野の前記第1の部分からのコンテンツを含む、ことと、
前記メディアをキャプチャした後に、前記キャプチャされたメディアを編集する要求を受信することと、
前記キャプチャされたメディアを編集する前記要求を受信したことに応じて、前記第1のズームレベルでの前記第1のカメラの前記視野の前記第1の部分からの前記コンテンツの少なくとも一部及び前記第1のズームレベルでの前記第2のカメラの前記視野の前記第1の部分からの前記コンテンツの少なくとも一部を含む、前記キャプチャされたメディアの表現を表示することと、
を更に含む、項目312に記載の方法。
[項目322]
表示デバイスと、視野を有する第1のカメラと、前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目312から321のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目323]
電子デバイスであって、
表示デバイスと、
視野を有する第1のカメラと、
前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目312から321のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目324]
電子デバイスであって、
表示デバイスと、
視野を有する第1のカメラと、
前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、項目312から321のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目325]
表示デバイスと、視野を有する第1のカメラと、前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースであって、
前記第1のズームレベルでの前記第1のカメラの前記視野の第1の部分の表現を含む第1の領域と、
前記第1のズームレベルでの前記第2のカメラの前記視野の第1の部分の表現を含む第2の領域と、
を含む、カメラユーザインタフェースを表示し、
前記表示デバイスを介して、前記第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の前記表現を含む前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第2のズームレベルまで上げる第1の要求を受信し、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第2のズームレベルまで上げる前記第1の要求を受信したことに応じて、
前記第1の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第1の部分の少なくともサブセットを除外する前記第1のカメラの前記視野の第2の部分の表現を表示し、
前記第2の領域において、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットと重なり合う前記第2のカメラの前記視野の第2の部分の表現を表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目326]
電子デバイスであって、
表示デバイスと、
視野を有する第1のカメラと、
前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースであって、
前記第1のズームレベルでの前記第1のカメラの前記視野の第1の部分の表現を含む第1の領域と、
前記第1のズームレベルでの前記第2のカメラの前記視野の第1の部分の表現を含む第2の領域と、
を含む、カメラユーザインタフェースを表示し、
前記表示デバイスを介して、前記第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の前記表現を含む前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第2のズームレベルまで上げる第1の要求を受信し、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第2のズームレベルまで上げる前記第1の要求を受信したことに応じて、
前記第1の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第1の部分の少なくともサブセットを除外する前記第1のカメラの前記視野の第2の部分の表現を表示し、
前記第2の領域において、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットと重なり合う前記第2のカメラの前記視野の第2の部分の表現を表示する、
命令を含む、電子デバイス。
[項目327]
電子デバイスであって、
表示デバイスと、
視野を有する第1のカメラと、
前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、
1つ以上のカメラと、
前記表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、
前記第1のズームレベルでの前記第1のカメラの前記視野の第1の部分の表現を含む第1の領域と、
前記第1のズームレベルでの前記第2のカメラの前記視野の第1の部分の表現を含む第2の領域と、
を含む、手段と、
前記表示デバイスを介して、前記第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の前記表現を含む前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第2のズームレベルまで上げる第1の要求を受信する手段と、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第2のズームレベルまで上げる前記第1の要求を受信したことに応じて、
前記第1の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第1の部分の少なくともサブセットを除外する前記第1のカメラの前記視野の第2の部分の表現を表示し、
前記第2の領域において、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットと重なり合う前記第2のカメラの前記視野の第2の部分の表現を表示する、
手段と、
を備える、電子デバイス。
[項目328]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、複数のズームアフォーダンスを含み、前記複数のズームアフォーダンスは、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、ことと、
前記複数のズームアフォーダンスを表示している間に、前記複数のズームアフォーダンスのうちの1つに向けられた第1のジェスチャを受信することと、
前記第1のジェスチャを受信したことに応じて、
前記第1のジェスチャが前記第1のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第2のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示することと、
前記第1のジェスチャが前記第2のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、前記第1のズームレベル及び前記第2のズームレベルとは異なる第3のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示することと、
を含む、方法。
[項目329]
前記第1のジェスチャが前記第1のズームアフォーダンスに向けられた前記ジェスチャであるとの前記判定に従って、前記第2のズームアフォーダンスの視覚特性を維持し、前記第1のズームアフォーダンスの視覚特性を変更することと、
前記第1のジェスチャが前記第2のズームアフォーダンスに向けられた前記ジェスチャであるとの前記判定に従って、前記第1のズームアフォーダンスの前記視覚特性を維持し、前記第2のズームアフォーダンスの前記視覚特性を変更することと、
を更に含む、項目328に記載の方法。
[項目330]
前記第1のズームアフォーダンスの前記視覚特性を変更することは、
第1のサイズから第2のサイズに前記第1のズームアフォーダンスのサイズを変更することであって、前記第1のズームアフォーダンスの前記第2のサイズは、前記第2のズームアフォーダンスの現在のサイズとは異なる、こと、及び
第1の色から第2の色に前記第1のズームアフォーダンスの色を変更することであって、前記第1のズームアフォーダンスの前記第2の色は、前記第2のズームアフォーダンスの現在の色とは異なる、こと、
のうちの1つ以上を含む、項目329に記載の方法。
[項目331]
前記第2のズームレベルで、前記1つ以上のカメラの前記視野の少なくとも前記一部分の前記第2の表現を表示している間に、前記第1のズームアフォーダンスに向けられた第2のジェスチャを受信することと、
前記第1のズームアフォーダンスに向けられた前記第2のジェスチャを受信したことに応じて、
前記第1のズームアフォーダンスが第1のそれぞれの基準を満すことが満たされているとの判定に従って、第4のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第4の表現を表示することと、
前記第1のズームアフォーダンスが第2のそれぞれの基準を満すとの判定に従って、
前記第4のズームレベルで、前記1つ以上のカメラの前記視野の少なくとも前記一部分の前記第4の表現を表示することをやめることと、
前記第2のズームレベルで、前記1つ以上のカメラの前記視野の前記一部分の前記第2の表現の表示を維持することと、
を更に含む、項目328から330のいずれか一項に記載の方法。
[項目332]
前記第1のジェスチャは、第1のタイプのジェスチャであり、前記方法は、
前記第1のズームアフォーダンスに向けられた第3のジェスチャを受信することであって、前記第3のジェスチャは、前記第1のタイプのジェスチャとは異なる第2のタイプのジェスチャである、ことと、
前記第1のズームアフォーダンスに向けられた前記第3のジェスチャを受信したことに応じて、第1の現在表示されている表現のズームレベルを変更するコントロールを表示することであって、前記第1の現在表示されている表現の前記ズームレベルを変更するための前記コントロールは、前記第1の現在表示されている表現の現在のズームレベルの第1のインジケーションを含む、ことと、
前記第1の現在表示されている表現の前記ズームレベルを変更するための前記コントロールを表示している間に、前記ズームレベルを変更するための前記コントロールに向けられた第4のジェスチャを受信することと、
前記ズームレベルを変更するための前記コントロールに向けられた前記第4のジェスチャを受信したことに応じて、
前記ズームレベルを変更するための前記コントロール上に第5のズームレベルの第2のインジケーションを表示することと、
前記第5のズームレベルで、前記1つ以上のカメラの前記視野の第4の表現を表示することと、
を更に含む、項目328から331のいずれか一項に記載の方法。
[項目333]
前記第1の現在表示されている表現の前記ズームレベルの前記第1のインジケーションは、前記第1の現在表示されている表現の前記ズームレベルを変更するための前記コントロール上の選択されたズームレベルに対応する位置に表示される、項目332に記載の方法。
[項目334]
前記第1の現在表示されている表現の前記ズームレベルを変更するための前記コントロールは、回転可能なユーザインタフェース要素である、項目332又は333に記載の方法。
[項目335]
前記第1の現在表示されている表現の前記ズームレベルを変更するための前記コントロールを表示することは、前記複数のズームアフォーダンスの表示を、前記第1の現在表示されている表現の前記ズームレベルを変更ためのする前記コントロールの前記表示に置き換えることを含む、項目332から334のいずれか一項に記載の方法。
[項目336]
前記第3のジェスチャは、第1の方向の移動を含み、
前記第4のジェスチャは、前記第1の方向とは異なる第2の方向の移動を含む、項目332から335のいずれか一項に記載の方法。
[項目337]
前記ズームレベルを変更するための前記コントロールに向けられた前記第4のジェスチャを受信した後に、前記第4のジェスチャのリフトオフを検出することと、
前記第4のジェスチャのリフトオフを検出した後に、
所定の時間枠内で前記ズームレベルを変更するための前記コントロールに向けられたジェスチャがないとの判定に従って、前記ズームレベルを変更するための前記コントロールを表示することを停止することと、
を更に含む、項目332から336のいずれか一項に記載の方法。
[項目338]
前記第1の現在表示されている表現の前記ズームレベルを変更するための前記コントロールを表示することは、
調整可能なコントロール上に複数の視覚インジケータを同時に表示することであって、前記複数のズームアフォーダンスに対応する前記複数のズームレベルのそれぞれのズームレベルは、前記複数の視覚インジケータの異なる対応する視覚インジケータによって表される、こと、
を含む、項目332から337のいずれか一項に記載の方法。
[項目339]
前記第1のジェスチャを受信したことに応じて、
前記第1のジェスチャが前記複数のズームアフォーダンスのうちの少なくとも1つに向けられておらず、かつ前記第1の表現の第1の部分に向けられているとの判定に従って、前記第1のジェスチャの位置に焦点を合わせるように前記電子デバイスを構成すること、
を更に含む、項目328から338のいずれか一項に記載の方法。
[項目340]
前記第1のジェスチャを受信したことに応じて、
前記第1のジェスチャが前記複数のズームアフォーダンスのうちの少なくとも1つに向けられておらず、かつ前記第1の表現の第2の部分に向けられているとの判定に従って、前記第1のジェスチャの位置に焦点を合わせるように前記電子デバイスを構成することをやめること、
を更に含む、項目328から339のいずれか一項に記載の方法。
[項目341]
前記1つ以上のカメラの前記視野の少なくとも前記一部分の前記第2の表現は、前記1つ以上のカメラの第1のカメラの前記視野の少なくとも一部分の表現であり、
前記1つ以上のカメラの前記視野の少なくとも前記一部分の前記第3の表現は、前記1つ以上のカメラの第2のカメラの前記視野の少なくとも一部分の表現であり、
前記第1のカメラは、前記第2のカメラとは異なる、項目328から340のいずれか一項に記載の方法。
[項目342]
前記第2のズームレベルで、前記1つ以上のカメラの前記視野の少なくとも前記一部分の前記第2の表現を表示することは、
前記第2のズームレベルが第6のズームレベルであるとの判定に従って、前記第2の表現の一部分を第1の視覚外観で表示することと、
前記第2のズームレベルが前記第6のズームレベルとは異なる第7のズームレベルであるとの判定に従って、前記第2の表現の一部分を前記第1の視覚外観とは異なる第2の視覚外観で表示することと、
を含む、項目328から341のいずれか一項に記載の方法。
[項目343]
前記複数のズームアフォーダンスは、第3のズームアフォーダンスを含み、
前記方法は、
第2の現在表示されている表現のズームレベルを変更する要求を受信することと、
前記第2の現在表示されている表現の前記ズームレベルを第8のズームレベルに変更する前記要求を受信したことに応じて、
前記第8のズームレベルが第1のズーム値範囲内にあるとの判定に従って、前記第1のズームアフォーダンスの表示を、前記第8のズームレベルに対応する第4のズームアフォーダンスの表示に置き換えることと、
前記第8のズームレベルが第2のズーム値範囲内にあるとの判定に従って、前記第2のズームアフォーダンスの表示を、前記第8のズームレベルに対応する前記第4のズームアフォーダンスの表示に置き換えることと、
前記第8のズームレベルが第3のズーム値範囲内にあるとの判定に従って、前記第3のズームアフォーダンスの表示を、前記第8のズームレベルに対応する前記第4のズームアフォーダンスの表示に置き換えることと、
を更に含む、項目328から342のいずれか一項に記載の方法。
[項目344]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目328から343のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目345]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目328から343のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目346]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目328から343のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目347]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースであって、複数のズームアフォーダンスを含み、前記複数のズームアフォーダンスは、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、カメラユーザインタフェースを表示し、
前記複数のズームアフォーダンスを表示している間に、前記複数のズームアフォーダンスのうちの1つに向けられた第1のジェスチャを受信し、
前記第1のジェスチャを受信したことに応じて、
前記第1のジェスチャが前記第1のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第2のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示し、
前記第1のジェスチャが前記第2のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、前記第1のズームレベル及び前記第2のズームレベルとは異なる第3のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目348]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースであって、複数のズームアフォーダンスを含み、前記複数のズームアフォーダンスは、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、カメラユーザインタフェースを表示し、
前記複数のズームアフォーダンスを表示している間に、前記複数のズームアフォーダンスのうちの1つに向けられた第1のジェスチャを受信し、
前記第1のジェスチャを受信したことに応じて、
前記第1のジェスチャが前記第1のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第2のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示し、
前記第1のジェスチャが前記第2のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、前記第1のズームレベル及び前記第2のズームレベルとは異なる第3のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示する、
命令を含む、電子デバイス。
[項目349]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、複数のズームアフォーダンスを含み、前記複数のズームアフォーダンスは、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、手段と、
前記複数のズームアフォーダンスを表示している間に、前記複数のズームアフォーダンスのうちの1つに向けられた第1のジェスチャを受信する手段と、
前記第1のジェスチャを受信したことに応じて、
前記第1のジェスチャが前記第1のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第2のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示し、
前記第1のジェスチャが前記第2のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、前記第1のズームレベル及び前記第2のズームレベルとは異なる第3のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示する、
手段と、
を備える、電子デバイス。
[項目350]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に前記1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含む、ことと、
前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示している間に、前記カメラユーザインタフェースに向けられた第1のジェスチャを検出することと、
前記カメラユーザインタフェースに向けられた前記第1のジェスチャを検出したことに応じて、
前記第1の位置に第1の1組のカメラ設定アフォーダンスを表示することであって、前記第1の1組のカメラ設定アフォーダンスは、第1のカメラモードの画像キャプチャを調整する設定である、ことと、
前記第1の位置に前記カメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することを停止することと、
前記第1の位置に前記第1の1組のカメラ設定アフォーダンスを表示している間に、かつ前記第1のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されている間に、前記カメラユーザインタフェースに向けられた第2のジェスチャを受信することと、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応じて、
前記第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように前記電子デバイスを構成することと、
前記第1の位置に前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することなく、前記第1の位置に第2の1組のカメラ設定アフォーダンスを表示することと、
を含む、方法。
[項目351]
前記第2の1組のカメラ設定アフォーダンスは、前記第2のカメラモードの画像キャプチャを調整する設定である、項目350に記載の方法。
[項目352]
前記第2の1組のカメラ設定アフォーダンスは、前記第1の1組のカメラ設定アフォーダンスとは異なる、項目350又は351に記載の方法。
[項目353]
前記第1の1組のカメラ設定アフォーダンスは、フラッシュ設定アフォーダンス、画像キャプチャ設定アフォーダンス、アスペクト比カメラ設定アフォーダンス、フィルタ設定カメラ設定アフォーダンス、高ダイナミックレンジイメージングカメラ設定アフォーダンス、及び低光カメラ設定アフォーダンスのうちの1つ以上を含む、項目350から352のいずれか一項に記載の方法。
[項目354]
前記第1のジェスチャを検出することは、前記カメラユーザインタフェースに向けられた第1の接触を検出することを含み、前記方法は、
前記第1のジェスチャを検出している間に、前記第1の接触のリフトオフを検出する前に、前記第1のジェスチャの完了を検出することと、
前記第1の接触のリフトオフを検出する前に前記第1のジェスチャの完了を検出したことに応じて、触知出力を提供することと、
を更に含む、項目350から353のいずれか一項に記載の方法。
[項目355]
前記カメラユーザインタフェースを表示している間に、前記カメラユーザインタフェースに向けられた第3のジェスチャを検出することと、
前記カメラユーザインタフェースに向けられた前記第3のジェスチャを検出したことに応じて、
前記第2の1組のカメラ設定アフォーダンスは、前記第3のジェスチャが検出されたときに表示されていたとの判定に従って、
第3のカメラモードでメディアをキャプチャするように前記電子デバイスを構成することと、
前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することなく、前記第1の位置に第3の1組のカメラ設定アフォーダンスを表示することと、
前記第1の複数のカメラモードアフォーダンスは、前記第3のジェスチャが検出されたときに表示されていたとの判定に従って、
前記第2の1組のカメラ設定アフォーダンス及び前記第3の1組のカメラ設定アフォーダンスを表示することなく、前記第1の位置に前記1つ以上のカメラの異なるカメラ動作モードを示す第2の複数のカメラモードアフォーダンスを表示し、前記第1のカメラモード及び前記第3のカメラモードでメディアをキャプチャするように前記電子デバイスを構成することであって、前記第2の複数のカメラモードアフォーダンスは、前記第1の複数のカメラモードアフォーダンスとは異なる、ことと、
を更に含む、項目350から354のいずれか一項に記載の方法。
[項目356]
前記第1の位置に前記第3の1組のカメラ設定アフォーダンスを表示することは、前記第1の1組のカメラ設定アフォーダンスを置き換える前記第3の1組のカメラ設定アフォーダンスのアニメーションを表示することを含む、項目355に記載の方法。
[項目357]
前記1つ以上のカメラの前記視野の前記表現は、前記1つ以上のカメラの前記視野の第1の部分の第1の表現であり、前記方法は、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応じて、
第1のタイプのカメラを介してメディアをキャプチャするように前記電子デバイスが構成されているとの判定に従って、前記1つ以上のカメラの前記視野の第2の部分の第2の表現を表示することであって、前記視野の前記第2の部分は、前記1つ以上のカメラの前記視野の前記第1の部分の一部を含まない、こと、
を更に含む、項目350から356のいずれか一項に記載の方法。
[項目358]
前記1つ以上のカメラの前記視野の前記表現は、前記1つ以上のカメラの前記視野の第3の部分の第3の表現であり、前記方法は、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応じて、
第2のタイプのカメラを使用してメディアをキャプチャするように前記電子デバイスが構成されているとの判定に従って、前記1つ以上のカメラの視野の第4の部分の第4の表現を表示することであって、前記1つ以上のカメラの前記視野の前記第4の部分は、前記1つ以上のカメラの前記視野の前記第3の部分にない前記1つ以上のカメラの視野の一部分を含む、こと、
を更に含む、項目350から357のいずれか一項に記載の方法。
[項目359]
前記1つ以上のカメラの前記視野の前記表現は、前記1つ以上のカメラの前記視野の第5の部分の第5の表現であり、
前記第5の表現は、前記表示デバイス上の第2の位置に表示され、
前記方法は、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応じて、
第3のタイプのカメラを使用してメディアをキャプチャするように前記電子デバイスが構成されているとの判定に従って、
前記表示デバイス上の前記第2の位置から前記表示デバイス上の第3の位置に前記第5の表現を動かすこと、
を更に含む、項目357又は358に記載の方法。
[項目360]
前記第1のカメラモードは、ポートレートモードであり、
前記1つ以上のカメラの視野の前記表現は、第1のズームレベルで表示され、
前記方法は、
前記第1の複数のカメラモードアフォーダンスを表示している間に、
照明効果動作を制御するアフォーダンス及びズームアフォーダンスを表示することと、
前記ズームアフォーダンスを表示している間に、前記ズームアフォーダンスに向けられた第4のジェスチャを受信することと、
前記ズームアフォーダンスに向けられた前記第4のジェスチャを受信したことに応じて、第2のズームレベルで前記1つ以上のカメラの前記視野の表現を表示することと、
を更に含む、項目350から359のいずれか一項に記載の方法。
[項目361]
前記第1の複数のカメラモードアフォーダンスは、
選択されると、メディアをキャプチャする要求に応じて、前記電子デバイスに前記第1のカメラモードでメディアをキャプチャさせる、第1のカメラモードアフォーダンスと、
選択されると、メディアをキャプチャする要求に応じて、前記電子デバイスに前記第2のカメラモードでメディアをキャプチャさせる、第2のカメラモードアフォーダンスと、
を含む、項目350から360のいずれか一項に記載の方法。
[項目362]
前記第1の複数のカメラモードアフォーダンスを表示している間に、前記第1のカメラモードアフォーダンスは、前記第2のカメラモードアフォーダンスに隣接して表示される、項目361に記載の方法。
[項目363]
前記カメラユーザインタフェースに向けられた前記第1のジェスチャを検出する前に、かつ前記第1の複数のカメラモードアフォーダンスを表示している間に、前記第1のカメラモードアフォーダンスは、前記第1のカメラモードがアクティブであるというインジケーションとともに表示される、項目361又は362に記載の方法。
[項目364]
前記第1の位置に前記第2の1組のカメラ設定アフォーダンスを表示している間に、前記カメラユーザインタフェースに向けられた第5のジェスチャを検出することと、
前記カメラユーザインタフェースに向けられた前記第5のジェスチャを検出したことに応じて、
前記1つ以上のカメラの異なるカメラ動作モードを示す第3の複数のカメラモードアフォーダンスを表示することであって、
前記第3の複数のカメラモードアフォーダンスは、前記第2のカメラモードアフォーダンスを含み、
前記第2のカメラモードアフォーダンスは、前記第2のカメラモードがアクティブであるというインジケーションとともに表示される、
ことと、
を更に含む、項目362又は363に記載の方法。
[項目365]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目350から364のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目366]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目350から364のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目367]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目350から364のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目368]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に前記1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含む、カメラユーザインタフェースを表示し、
前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示している間に、前記カメラユーザインタフェースに向けられた第1のジェスチャを検出し、
前記カメラユーザインタフェースに向けられた前記第1のジェスチャを検出したことに応じて、
前記第1の位置に第1の1組のカメラ設定アフォーダンスであって、第1のカメラモードの画像キャプチャを調整する設定である、第1の1組のカメラ設定アフォーダンスを表示し、
前記第1の位置に前記カメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することを停止し、
前記第1の位置に前記第1の1組のカメラ設定アフォーダンスを表示している間に、かつ前記第1のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されている間に、前記カメラユーザインタフェースに向けられた第2のジェスチャを受信し、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応じて、
前記第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように前記電子デバイスを構成し、
前記第1の位置に前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することなく、前記第1の位置に第2の1組のカメラ設定アフォーダンスを表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目369]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に前記1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含む、カメラユーザインタフェースを表示し、
前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示している間に、前記カメラユーザインタフェースに向けられた第1のジェスチャを検出し、
前記カメラユーザインタフェースに向けられた前記第1のジェスチャを検出したことに応じて、
前記第1の位置に第1の1組のカメラ設定アフォーダンスであって、第1のカメラモードの画像キャプチャを調整する設定であり、第1の1組のカメラ設定アフォーダンスを表示し、
前記第1の位置に前記カメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することを停止し、
前記第1の位置に前記第1の1組のカメラ設定アフォーダンスを表示している間に、かつ前記第1のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されている間に、前記カメラユーザインタフェースに向けられた第2のジェスチャを受信し、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応じて、
前記第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように前記電子デバイスを構成し、
前記第1の位置に前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することなく、前記第1の位置に第2の1組のカメラ設定アフォーダンスを表示する、
命令を含む、電子デバイス。
[項目370]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に前記1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含む、手段と、
前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示している間に、前記カメラユーザインタフェースに向けられた第1のジェスチャを検出する手段と、
前記カメラユーザインタフェースに向けられた前記第1のジェスチャを検出したことに応じて、
前記第1の位置に第1の1組のカメラ設定アフォーダンスを表示し、前記第1の1組のカメラ設定アフォーダンスが、第1のカメラモードの画像キャプチャを調整する設定であり、
前記第1の位置に前記カメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することを停止する、
手段と、
前記第1の位置に前記第1の1組のカメラ設定アフォーダンスを表示している間に、かつ前記第1のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されている間に、前記カメラユーザインタフェースに向けられた第2のジェスチャを受信する手段と、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応じて、
前記第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように前記電子デバイスを構成し、
前記第1の位置に前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することなく、前記第1の位置に第2の1組のカメラ設定アフォーダンスを表示する、
手段と、
を備える、電子デバイス。
[項目371]
方法であって、
表示デバイスを備える電子デバイスにおいて、
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信することと、
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、
自動メディア補正基準が満たされているとの判定に従って、前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現を表示することと、
自動メディア補正基準が満たされていないとの判定に従って、前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの表現を表示することと、
を含む、方法。
[項目372]
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信する前に、前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの前記視野の前記第1の部分の表現を含む第1の領域と、
前記1つ以上のカメラの前記視野の前記第2の部分の表現を含む第2の領域であって、前記1つ以上のカメラの前記視野の前記第2の部分の前記表現は、前記第1の部分の前記表現と視覚的に区別される、第2の領域と、
を含む、こと、
を更に含む、項目371に記載の方法。
[項目373]
自動メディア補正基準が満たされているとの前記判定に従って、自動調整が前記以前にキャプチャされたメディアアイテムに適用されたことを示す第1の自動調整アフォーダンスを表示することと、
自動メディア補正基準が満たされていないとの判定に従って、前記自動調整が前記以前にキャプチャされたメディアアイテムに適用されなかったことを示す第2の自動調整アフォーダンスを表示することであって、前記第2の自動調整アフォーダンスは、前記第1の自動調整アフォーダンスとは視覚的に異なる、ことと、
を更に含む、項目371又は372に記載の方法。
[項目374]
前記第1の自動調整アフォーダンスを表示し、かつ前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、前記第1の自動調整アフォーダンスの選択に対応する第1の入力を受信することと、
前記第1の自動調整アフォーダンスの選択に対応する前記第1の入力を受信したことに応じて、前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現を表示することと、
を更に含む、項目373に記載の方法。
[項目375]
前記第2の自動調整アフォーダンスを表示し、かつ前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、前記第2の自動調整アフォーダンスの選択に対応する第2の入力を受信することと、
前記第2の自動調整アフォーダンスの選択に対応する前記第2の入力を受信したことに応じて、前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現を表示することと、
を更に含む、項目373に記載の方法。
[項目376]
前記以前にキャプチャされたメディアアイテムは、画像であり、
前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現は、縁部部分を含み、
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現は、前記縁部部分を更に含まない、項目371から375のいずれか一項に記載の方法。
[項目377]
前記以前にキャプチャされたメディアアイテムは、ビデオであり、
前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現は、第1の量の移動を含み、
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現は、前記第1の量の移動とは異なる第2の量の移動を含む、項目371から376のいずれか一項に記載の方法。
[項目378]
前記以前にキャプチャされたメディアアイテムは、識別可能なオブジェクトを含み、
前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現は、前記識別可能なオブジェクトの一部分を含み、
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現は、前記識別可能なオブジェクトの前記一部分を含まない、項目371から377のいずれか一項に記載の方法。
[項目379]
前記自動メディア補正基準は、前記以前にキャプチャされたメディアアイテムが前記1つ以上のカメラの前記視野の前記第2の部分からの前記第2のコンテンツを使用して補正され得る1つ以上の視覚アスペクトを含むと判定されるときに満たされる第2の基準を含む、項目371から378のいずれか一項に記載の方法。
[項目380]
前記自動メディア補正基準は、前記以前にキャプチャされたメディアアイテムが表示される前に前記第2の基準が満たされていたときに満たされる第3の基準を含む、項目379に記載の方法。
[項目381]
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、かつ自動メディア補正基準が満たされているとの判定に従って、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現と同時に、選択されると、前記電子デバイスに第1の動作を実行させる、第3の自動調整アフォーダンスを表示すること、
を更に含む、項目371から380のいずれか一項に記載の方法。
[項目382]
前記自動メディア補正基準が、自動適用設定が有効化されるときに満たされ、かつ前記自動適用設定が無効化されるときに満たされていない基準を含む、項目371から381のいずれか一項に記載の方法。
[項目383]
前記自動適用設定が、ユーザ構成可能設定である、項目371から382のいずれか一項に記載の方法。
[項目384]
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、かつ自動メディア補正基準が満たされていないとの判定に従って、
第1の1組の基準が満たされているとの判定に従って、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現と同時に、選択されると、前記電子デバイスに第2の動作を実行させる、第4の自動調整アフォーダンスを表示すること、
を更に含む、項目371から383のいずれか一項に記載の方法。
[項目385]
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、かつ自動メディア補正基準が満たされていないとの判定に従って、
前記第1の1組の基準が満たされていないとの判定に従って、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現と同時に、非選択可能インジケータを表示すること、
を更に含む、項目371から384のいずれか一項に記載の方法。
[項目386]
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、
コンテンツ処理基準が満たされているとの判定に従って、コンテンツ処理インジケータを表示することと、
前記コンテンツ処理基準が満たされていないとの判定に従って、前記コンテンツ処理インジケータを表示することをやめることと、
を更に含む、項目371から385のいずれか一項に記載の方法。
[項目387]
前記コンテンツ処理インジケータを表示している間に、かつ前記コンテンツ処理基準がもはや満たされていないとの判定に従って、前記コンテンツ処理インジケータの表示を停止すること、
を更に含む、項目386に記載の方法。
[項目388]
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、かつ前記コンテンツ処理インジケータを表示している間に、かつ前記コンテンツ処理基準がもはや満たされていないとの判定に従って、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現を、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現に置き換えること、
を更に含む、項目386に記載の方法。
[項目389]
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、かつ前記コンテンツ処理インジケータを表示している間に、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの第2の表現を表示することと、
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記第2の表現を表示している間に、かつ前記コンテンツ処理基準がもはや満たされていないとの判定に従って、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記第2の表現を、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの第2の表現に置き換えることと、
を更に含む、項目386に記載の方法。
[項目390]
前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現に遷移する、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現のアニメーションを表示すること、
を更に含む、項目371から389のいずれか一項に記載の方法。
[項目391]
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現に遷移する、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現のアニメーションを表示すること、
を更に含む、項目371から390のいずれか一項に記載の方法。
[項目392]
1つ以上のカメラの視野の前記第1の部分からの第3のコンテンツを含み、かつ前記1つ以上のカメラの前記視野の前記第2の部分からの第4のコンテンツを含まない、メディアアイテムの表現を表示する要求を受信することと、
前記1つ以上のカメラの前記視野の前記第1の部分からの第3のコンテンツを含み、かつ前記1つ以上のカメラの前記視野の前記第2の部分からの第4のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記第1の部分の外側の追加のメディアコンテンツが利用可能であるというインジケーションの表示をやめることと、
を更に含む、項目371から391のいずれか一項に記載の方法。
[項目393]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目371から392のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目394]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目371から392のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目395]
電子デバイスであって、
表示デバイスと、項目371から392のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目396]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信し、
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、
自動メディア補正基準が満たされているとの判定に従って、前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現を表示し、
自動メディア補正基準が満たされていないとの判定に従って、前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの表現を表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目397]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信し、
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、
自動メディア補正基準が満たされているとの判定に従って、前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現を表示し、
自動メディア補正基準が満たされていないとの判定に従って、前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの表現を表示する、
命令を含む、電子デバイス。
[項目398]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信する手段と、
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、
自動メディア補正基準が満たされているとの判定に従って、前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現を表示し、
自動メディア補正基準が満たされていないとの判定に従って、前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの表現を表示する、
手段と、を備える、電子デバイス。
[項目399]
それぞれの時間に対応する前記第1の視覚メディアの時間ベースの表現を選択する前記調整可能なコントロールは、前記表示デバイス上のそれぞれの位置に表示される、項目219から235のいずれか一項に記載の方法。
[項目400]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示することと、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始することと、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、前記電子デバイスの移動を検出することと、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、
前記電子デバイスの前記検出された移動が移動閾値を上回るときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスのポーズと前記電子デバイスの現在のポーズとの間の1つ以上の差の視覚インジケーションを表示することと、
前記1組のガイダンス基準が満たされていない前記検出された移動との判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の前記1つ以上の差の前記視覚インジケーションの表示をやめることと、
を含む、方法。
[項目401]
前記メディアキャプチャユーザインタフェースは、メディアキャプチャアフォーダンスを含み、
メディアをキャプチャする前記要求を受信することは、前記メディアキャプチャアフォーダンスの選択を検出することを含む、項目400に記載の方法。
[項目402]
メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の1つ以上の差の前記視覚インジケーションを表示することは、
前記電子デバイスの前記ポーズが第1の様式で変化したとの判定に従って、外観の第1の変化を伴う前記視覚インジケーションを表示することと、
前記電子デバイスの前記ポーズが前記第1の様式とは異なる第2の様式で変化したとの判定に従って、外観の第2の変化を伴う前記視覚インジケーションを表示することと、
を含む、項目400又は401に記載の方法。
[項目403]
前記視覚インジケーションを表示することは、同時に
メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の第1の差を示す視覚特性を有する前記視覚インジケーションを表示することと、
メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の第2の差を示す視覚特性を有する前記視覚インジケーションを表示することであって、前記第1の差及び第2の差は、異なる種類の差である、ことと、
を含む、項目400から402のいずれか一項に記載の方法。
[項目404]
前記視覚インジケーションは、メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズを表す前記視覚インジケーションの第1の部分と、前記電子デバイスの前記現在のポーズを表す前記視覚インジケーションの第2の部分と、を含み、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、前記視覚インジケーションを表示することは、メディアのキャプチャが開始された後の前記電子デバイスの前記ポーズの変化に応じて変化する外観で前記視覚インジケーションの前記第1の部分及び第2の部分のうちの少なくとも1つを表示することを含む、項目400から403のいずれか一項に記載の方法。
[項目405]
前記視覚インジケーションは、前記視覚インジケーションの一部分を含み、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、前記視覚インジケーションを表示することは、前記電子デバイスの回転量に基づいて判定される第1の回転量、回転された前記視覚インジケーションの前記一部分を表示することを含む、項目400から404のいずれか一項に記載の方法。
[項目406]
前記第1の回転量、回転された前記視覚インジケーションの前記一部分を表示している間に、メディアのキャプチャを開始した後の第2の時間における前記電子デバイスの回転移動を検出することと、
メディアのキャプチャを開始した後の前記第2の時間における前記電子デバイスの回転移動を検出したことに応じて、前記検出された回転移動の量に基づいて判定される第2の回転量、前記視覚インジケーションの前記一部分を回転させることであって、前記第2の回転量は、前記第1の回転量とは異なる、ことと、
を更に含む、項目405に記載の方法。
[項目407]
前記視覚インジケーションは、前記視覚インジケーションの一部分を含み、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、前記視覚インジケーションを表示することは、前記電子デバイスの移動量に基づいて判定される第1のスキュー量を有する前記視覚インジケーションの前記一部分を表示することを含む、項目400から406のいずれか一項に記載の方法。
[項目408]
前記第1のスキュー量、歪められた前記一部分を表示している間に、メディアのキャプチャを開始した後の第3の時間における前記電子デバイスの移動を検出することと、
メディアのキャプチャを開始した後の前記第3の時間における前記電子デバイスの移動を検出したことに応じて、第2のスキュー量を有する前記一部分を表示することであって、前記第2のスキュー量は、前記第1のスキュー量とは異なる、ことと、
を更に含む、項目407に記載の方法。
[項目409]
前記視覚インジケーションは、前記視覚インジケーションの一部分を含み、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、前記視覚インジケーションを表示することは、前記電子デバイスの位置に基づいて判定される第1の位置に前記視覚インジケーションの前記一部分を表示することを含む、項目400から408のいずれか一項に記載の方法。
[項目410]
前記第1の位置に前記視覚インジケーションの前記一部分を表示している間に、メディアのキャプチャを開始した後の第4の時間における前記電子デバイスの平行移動を検出することと、
メディアのキャプチャを開始した後の前記第4の時間における前記電子デバイスの平行移動を検出したことに応じて、前記電子の平行移動に基づいて判定される第2の位置に前記視覚インジケーションの前記一部分を表示することであって、前記第2の位置は、前記第1の位置とは異なる、ことと、
を更に含む、項目409に記載の方法。
[項目411]
前記視覚インジケーションは、前記1つ以上の差の大きさを示す、項目400から410のいずれか一項に記載の方法。
[項目412]
前記電子デバイスの前記ポーズがメディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズとは異なる第1の時間において、
前記視覚インジケーションは、前記メディアキャプチャユーザインタフェース上の第1の位置に表示された、メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズを表す前記視覚インジケーションの第1の部分を含み、
前記視覚インジケーションは、前記メディアキャプチャユーザインタフェース上の前記第1の位置とは異なる前記メディアキャプチャユーザインタフェース上の第2の位置に、前記電子デバイスの前記現在のポーズを表す前記視覚インジケーションの第2の部分を含む、項目400から411のいずれか一項に記載の方法。
[項目413]
前記第1の位置に前記視覚インジケーションの前記第1の部分を表示し、前記第2の位置に前記視覚インジケーションの前記第2の部分を表示した後に、かつ前記メディアをキャプチャしている間に、メディアのキャプチャを開始した後の第5の時間における前記電子デバイスの移動を検出することと、
メディアのキャプチャを開始した後の前記第5の時間における前記電子デバイスの移動を検出したことに応じて、
メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の前記1つ以上の差が1つ以上の閾値差量未満であるとの判定に従って、前記メディアユーザインタフェース上の前記第2の位置に前記視覚インジケーションの前記第1の部分を表示することであって、前記視覚インジケーションの前記第1の部分及び前記視覚インジケーションの前記第2の部分は、互いに重なり合う、ことと、
を更に含む、項目412に記載の方法。
[項目414]
前記視覚インジケーションを表示している間に、
前記表示された視覚インジケーションの一部分は、検出されている前記電子デバイスの移動に応じて変化せず、
前記表示された視覚インジケーションの一部分は、検出されている前記電子デバイスの移動に応じて変化する、項目400から413のいずれか一項に記載の方法。
[項目415]
メディアのキャプチャを開始した後の第7の時間において、前記電子デバイスの移動を検出することと、
メディアのキャプチャを開始した後の前記第7の時間における前記電子デバイスの移動を検出したことに応じて、
前記電子デバイスのメディアのキャプチャを開始した後の前記第7の時間における前記検出された移動が第2の移動閾値を上回らないとの判定に従って、前記視覚インジケーションの表示を停止することと、
を更に含む、項目400から414のいずれか一項に記載の方法。
[項目416]
メディアのキャプチャを開始した後の前記第7の時間における前記電子デバイスの移動を検出したことに応じて、
前記電子デバイスのメディアのキャプチャを開始した後の前記第7の時間における前記検出された移動が第2の移動閾値を上回るとの判定に従って、前記視覚インジケーションの表示を継続すること、
を更に含む、項目415に記載の方法。
[項目417]
前記1組のガイダンス基準は、低光モードがアクティブであるときに満たされる基準を含む、項目400から416のいずれか一項に記載の方法。
[項目418]
前記1組のガイダンス基準は、閾値持続時間を上回るキャプチャ持続時間にわたって複数の画像をキャプチャするように前記電子デバイスが構成されているときに満たされる基準を含む、項目400から417のいずれか一項に記載の方法。
[項目419]
前記視覚インジケーションは、前記1つ以上のカメラの前記視野の前記表現上に表示される、項目400から418のいずれか一項に記載の方法。
[項目420]
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第8の時間において、前記電子デバイスの移動を検出することと、
メディアのキャプチャを開始した後の前記第8の時間における前記電子デバイスの移動を検出したことに応じて、
前記電子デバイスの前記検出された移動が第2の移動閾値を上回るとの判定に従って、メディアのキャプチャを停止することと、
を更に含む、項目400から419のいずれか一項に記載の方法。
[項目421]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目400から420のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目422]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目400から420のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目423]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目400から420のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目424]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示し、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信し、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始し、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、前記電子デバイスの移動を検出し、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、
前記電子デバイスの前記検出された移動が移動閾値を上回るときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスのポーズと前記電子デバイスの現在のポーズとの間の1つ以上の差の視覚インジケーションを表示し、
前記1組のガイダンス基準が満たされていない前記検出された移動との判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の前記1つ以上の差の前記視覚インジケーションの表示をやめる、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目425]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示し、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信し、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始し、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、前記電子デバイスの移動を検出し、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、
前記電子デバイスの前記検出された移動が移動閾値を上回るときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスのポーズと前記電子デバイスの現在のポーズとの間の1つ以上の差の視覚インジケーションを表示し、
前記1組のガイダンス基準が満たされていない前記検出された移動との判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の前記1つ以上の差の前記視覚インジケーションの表示をやめる、
命令を含む、電子デバイス。
[項目426]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示する手段と、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信する手段と、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始する手段と、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、前記電子デバイスの移動を検出する手段と、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、
前記電子デバイスの前記検出された移動が移動閾値を上回るときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスのポーズと前記電子デバイスの現在のポーズとの間の1つ以上の差の視覚インジケーションを表示し、
前記1組のガイダンス基準が満たされていない前記検出された移動との判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の前記1つ以上の差の前記視覚インジケーションの表示をやめる、
手段と、
を備える、電子デバイス。
[項目427]
方法であって、
1つ以上の表示デバイス及び1つ以上の入力デバイスと通信する、1つ以上のカメラを有するコンピュータシステムにおいて、
第1のズームレベルでメディアをキャプチャするためのカメラプレビューを有するカメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、前記ズームレベルを変更するための選択可能ユーザインタフェースオブジェクトを含む、ことと、
前記カメラユーザインタフェースを表示している間に、前記選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出することと、
前記選択可能ユーザインタフェースオブジェクトの選択に対応する前記入力を検出したことに応じて、
利用可能な光が閾値を下回るとの判定に従って、前記ズームレベルを第2のズームレベルに変更し、低光キャプチャモードを有効化することと、
前記利用可能な光が前記閾値を上回るとの判定に従って、前記低光キャプチャモードを有効化することなく、前記ズームレベルを変更することと、
を含む、方法。
[項目428]
前記カメラユーザインタフェースは、メディアをキャプチャするための選択可能ユーザインタフェースオブジェクトを含み、
前記カメラプレビューが前記第1のズームレベルで表示されている間に、かつ前記利用可能な光が前記閾値を下回るとの判定に従って、メディアをキャプチャするための前記選択可能ユーザインタフェースオブジェクトは、無効化され、
前記カメラプレビューが前記第1のズームレベルで表示されている間に、かつ前記利用可能な光が前記閾値を上回るとの判定に従って、メディアをキャプチャするための前記選択可能ユーザインタフェースオブジェクトは、有効化される、項目427に記載の方法。
[項目429]
メディアをキャプチャするための前記選択可能ユーザインタフェースオブジェクトが無効化されているとの前記判定に従って、メディアをキャプチャするための前記選択可能ユーザインタフェースオブジェクトは、第1の視覚外観で表示され、
メディアをキャプチャするための前記選択可能ユーザインタフェースオブジェクトが有効化されているとの前記判定に従って、メディアをキャプチャするための前記選択可能ユーザインタフェースオブジェクトは、前記第1の視覚外観とは異なる第2の視覚外観で表示される、項目428に記載の方法。
[項目430]
前記カメラユーザインタフェースは、メディアをキャプチャするための選択可能ユーザインタフェースオブジェクトを含み、
前記カメラプレビューが前記第2のズームレベルで表示されている間に、前記利用可能な光が前記閾値を上回るかどうかに関係なく、メディアをキャプチャするための前記選択可能ユーザインタフェースオブジェクトは、有効化される、項目427から429のいずれか一項に記載の方法。
[項目431]
前記カメラプレビューが前記第1のズームレベルで表示されている間に、かつ前記利用可能な光が前記閾値を下回るとの判定に従って、前記ズームレベルを切り替えるためのガイダンスを表示すること、
を更に含む、項目427から430のいずれか一項に記載の方法。
[項目432]
前記カメラプレビューが前記第2のズームレベルで表示されている間に、利用可能な光量が前記閾値を上回るかどうかに関係なく、前記ズームレベルを切り替えるためのガイダンスの表示をやめること、
を更に含む、項目427から431のいずれか一項に記載の方法。
[項目433]
前記カメラプレビューが前記第1のズームレベルで表示されている間に、かつ前記利用可能な光が前記閾値を下回るとの判定に従って、フラッシュモードを有効化するためのガイダンスを表示すること、
を更に含む、項目427から432のいずれか一項に記載の方法。
[項目434]
前記第1のズームレベルは、前記第2のズームレベルよりも高い、項目427から433のいずれか一項に記載の方法。
[項目435]
前記コンピュータシステムは、1つ以上の深度センサを含み、
前記カメラプレビューが前記第1のズームレベルで表示されている間に、かつ前記利用可能な光が閾値を下回るとの判定に従って、前記1つ以上の深度センサは、第1の精度での前記第1のズームレベルにおける前記1つ以上のカメラの視野に関する深度情報の判定を有効化し、
前記カメラプレビューが前記第2のズームレベルで表示されている間に、かつ前記利用可能な光が閾値を下回るとの判定に従って、前記1つ以上の深度センサは、前記第1の精度よりも高い第2の精度での前記第2のズームレベルにおける前記1つ以上のカメラの前記視野に関する深度情報の前記判定を有効化する、項目427から434のいずれか一項に記載の方法。
[項目436]
前記カメラプレビューが前記第1のズームレベルで表示されている間に、かつ前記利用可能な光が前記閾値を下回るとの判定に従って、前記ズームレベルを変更するための前記選択可能ユーザインタフェースオブジェクトは、低光キャプチャモードに対応するインジケーションを含む、項目427から435のいずれか一項に記載の方法。
[項目437]
前記カメラプレビューが前記第2のズームレベルで表示されている間に、前記ズームレベルを変更するための前記選択可能ユーザインタフェースオブジェクトが、利用可能な光量が前記閾値を上回るかどうかに関係なく、前記低光キャプチャモードに対応するインジケーションを含まない、項目427から436のいずれか一項に記載の方法。
[項目438]
低光キャプチャモードが有効化されている間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、キャプチャ持続時間にわたる複数の画像のキャプチャを開始することと、
前記キャプチャ持続時間にわたる前記複数の画像のキャプチャを開始した後に、前記複数の画像の少なくとも一部のコンテンツを含む合成画像を生成することであって、前記合成画像は、前記複数の画像のうちの1つ以上よりも視覚的に明るい、ことと、
を更に含む、項目427から437のいずれか一項に記載の方法。
[項目439]
1つ以上のカメラを有するコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記コンピュータシステムは、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信し、前記1つ以上のプログラムは、項目427から438のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目440]
コンピュータシステムであって、
1つ以上のカメラであって、前記コンピュータシステムは、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信する、1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目427から438のいずれか一項に記載の方法を実行する命令を含む、
コンピュータシステム。
[項目441]
コンピュータシステムであって、
1つ以上のカメラであって、前記コンピュータシステムは、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信する、1つ以上のカメラと、項目427から438のいずれか一項に記載の方法を実行する手段と、
を備える、コンピュータシステム。
[項目442]
1つ以上のカメラを有するコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記コンピュータシステムは、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信し、前記1つ以上のプログラムは、
第1のズームレベルでメディアをキャプチャするためのカメラプレビューを有するカメラユーザインタフェースであって、前記ズームレベルを変更するための選択可能ユーザインタフェースオブジェクトを含む、カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出し、
前記選択可能ユーザインタフェースオブジェクトの選択に対応する前記入力を検出したことに応じて、
利用可能な光が閾値を下回るとの判定に従って、前記ズームレベルを第2のズームレベルに変更し、低光キャプチャモードを有効化し、
前記利用可能な光が前記閾値を上回るとの判定に従って、前記低光キャプチャモードを有効化することなく、前記ズームレベルを変更する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目443]
コンピュータシステムであって、
1つ以上のカメラであって、前記コンピュータシステムは、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信する、1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
第1のズームレベルでメディアをキャプチャするためのカメラプレビューを有するカメラユーザインタフェースであって、前記ズームレベルを変更するための選択可能ユーザインタフェースオブジェクトを含む、カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出し、
前記選択可能ユーザインタフェースオブジェクトの選択に対応する前記入力を検出したことに応じて、
利用可能な光が閾値を下回るとの判定に従って、前記ズームレベルを第2のズームレベルに変更し、低光キャプチャモードを有効化し、
前記利用可能な光が前記閾値を上回るとの判定に従って、前記低光キャプチャモードを有効化することなく、前記ズームレベルを変更する、
命令を含む、
コンピュータシステム。
[項目444]
コンピュータシステムであって、
1つ以上のカメラであって、前記コンピュータシステムは、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信する、1つ以上のカメラと、
第1のズームレベルでメディアをキャプチャするためのカメラプレビューを有するカメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、前記ズームレベルを変更するための選択可能ユーザインタフェースオブジェクトを含む、手段と、
前記カメラユーザインタフェースを表示している間に、前記選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出する手段と、
前記選択可能ユーザインタフェースオブジェクトの選択に対応する前記入力を検出したことに応じて、
利用可能な光が閾値を下回るとの判定に従って、前記ズームレベルを第2のズームレベルに変更する手段と、低光キャプチャモードを有効化する手段と、
前記利用可能な光が前記閾値を上回るとの判定に従って、前記低光キャプチャモードを有効化することなく、前記ズームレベルを変更することと、
を備える、コンピュータシステム。
[項目1]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
複数のコントロールアフォーダンスを含むカメラコントロール領域と、
を含む、ことと、
第1の既定の条件が満たされていない間に、前記第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示することと、
前記第1のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野内のシーンの条件の変化を検出することと、
前記1つ以上のカメラの前記視野内のシーンの条件の前記変化を検出したことに応じて、前記第1のコントロールアフォーダンスと、前記第1のコントロールアフォーダンスに関連付けられた前記電子デバイスの特性の現在の状態のインジケーションと、を同時に表示することと、
を含む、方法。
[項目2]
条件の前記変化を検出したことに応じて、
第2の既定の条件が満たされているとの判定に従って、前記第1のコントロールアフォーダンスと同時に、第2のコントロールアフォーダンスを表示することを更に含む、項目1に記載の方法。
[項目3]
条件の前記変化を検出したことに応じて、
前記第1の既定の条件が満たされており、かつ前記第2の既定の条件が満たされていないとの判定に従って、前記第1のコントロールアフォーダンスを表示する一方で、前記第2のコントロールアフォーダンスを表示することをやめることを更に含む、項目2に記載の方法。
[項目4]
前記1つ以上のカメラの前記視野内の光量が第1の所定の閾値を下回ると、前記第1の既定の条件が満たされ、前記第1のコントロールアフォーダンスは、フラッシュ動作を制御するアフォーダンスである、項目1から3のいずれか一項に記載の方法。
[項目5]
前記電子デバイスが第1のタイプのアクセサリに接続されていると、前記第1の既定の条件が満たされ、前記第1のコントロールアフォーダンスは、タイマー動作を制御するアフォーダンスである、項目1から4のいずれか一項に記載の方法。
[項目6]
前記1つ以上のカメラの前記視野内の光量が第2の所定の閾値を下回ると、前記第1の既定の条件が満たされ、前記第1のコントロールアフォーダンスは、低光キャプチャモードを制御するアフォーダンスである、項目1から5のいずれか一項に記載の方法。
[項目7]
第1のキャプチャモードで画像をキャプチャするように前記電子デバイスが構成されているときに、前記第1の既定の条件が満たされ、前記第1のコントロールアフォーダンスは、照明効果動作を制御するアフォーダンスである、項目1から6のいずれか一項に記載の方法。
[項目8]
前記照明効果動作を制御する前記アフォーダンスを表示している間に、前記照明効果動作を制御する前記アフォーダンスの選択を受信することと、
前記照明効果動作を制御する前記アフォーダンスの前記選択を受信したことに応じて、調整されると、前記1つ以上のカメラの前記視野の前記表現に適用された照明効果を調整する、前記照明効果動作を調整するアフォーダンスを表示することと、
を更に含む、項目7に記載の方法。
[項目9]
(キャンセル)。
[項目10]
前記特性は、1つ以上のアクティブ状態及び1つ以上の非アクティブ状態を有し、前記インジケーションを表示することは、前記特性が前記1つ以上のアクティブ状態のうちの少なくとも1つにあるとの判定に従う、項目1から8のいずれか一項に記載の方法。
[項目11]
前記特性は、第1のフラッシュ動作設定であり、前記特性の前記現在の状態は、フラッシュ動作が有効化されていることである、項目1から8及び10のいずれか一項に記載の方法。
[項目12]
前記特性は、第2のフラッシュ動作設定であり、前記特性の前記現在の状態は、フラッシュ動作が無効化されていることである、項目1から8のいずれか一項に記載の方法。
[項目13]
前記特性は、第1の画像キャプチャモード設定であり、前記特性の前記現在の状態は、前記画像キャプチャモードが有効化されていることであり、前記電子デバイスは、メディアをキャプチャする要求に対応する入力に応じて、静止画像及びビデオをキャプチャするように構成されている、項目1から8及び10から12のいずれか一項に記載の方法。
[項目14]
前記特性は、第2の画像キャプチャモード設定であり、前記特性の前記現在の状態は、前記第2の画像キャプチャモードが有効化されていることであり、前記電子デバイスは、メディアをキャプチャする要求に対応する入力に応じて、高ダイナミックレンジイメージング効果を使用してメディアをキャプチャするように構成されている、項目1から8及び10から13のいずれか一項に記載の方法。
[項目15]
前記カメラコントロール領域は、前記表示デバイスの第1の側に隣接して表示され、前記インジケーションは、前記第1の側とは反対側の前記表示デバイスの第2の側に隣接して表示される、項目1から8及び10から14のいずれか一項に記載の方法。
[項目16]
前記1つ以上のカメラの前記視野の前記表現は、前記第1のコントロールアフォーダンス及び/又は前記第2のコントロールアフォーダンスを含む前記カメラユーザインタフェースの一部分にわたって延びる、項目2から8及び10から15のいずれか一項に記載の方法。
[項目17]
前記第1のコントロールアフォーダンスを表示したことに応じて、
前記第1のコントロールアフォーダンスが第1のタイプのものであるとの判定に従って、前記第1のコントロールアフォーダンスに関連付けられた第2のインジケーションを表示することと、
前記第1のコントロールアフォーダンスが前記第1のタイプとは異なる第2のタイプのものであるとの判定、及び前記第1のコントロールアフォーダンスに関連付けられた前記電子デバイスの第2の特性がアクティブ状態にあるとの判定に従って、前記第1のコントロールアフォーダンスに関連付けられた前記第2のインジケーションを表示することと、
前記第1のコントロールアフォーダンスが前記第1のタイプとは異なる第2のタイプのものであるとの判定、及び前記第1のコントロールアフォーダンスに関連付けられた前記電子デバイスの前記第2の特性が非アクティブ状態にあるとの判定に従って、前記第1のコントロールアフォーダンスに関連付けられた前記第2のインジケーションの表示をやめることと、
を更に含む、項目1から8及び10から16のいずれか一項に記載の方法。
[項目18]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目1から8及び10から17のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目19]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目1から8及び10から17のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目20]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
項目1から8及び10から17のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目21]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
複数のコントロールアフォーダンスを含むカメラコントロール領域と、
を含むカメラユーザインタフェースを表示し、
第1の既定の条件が満たされていない間に、前記第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示し、
前記第1のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野内のシーンの条件の変化を検出し、
前記1つ以上のカメラの前記視野内のシーンの条件の前記変化を検出したことに応じて、前記第1のコントロールアフォーダンスと、前記第1のコントロールアフォーダンスに関連付けられた前記電子デバイスの特性の現在の状態のインジケーションと、を同時に表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目22]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
複数のコントロールアフォーダンスを含むカメラコントロール領域と、
を含むカメラユーザインタフェースを表示し、
第1の既定の条件が満たされていない間に、前記第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示し、
前記第1のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野内のシーンの条件の変化を検出し、
前記1つ以上のカメラの前記視野内のシーンの条件の前記変化を検出したことに応じて、前記第1のコントロールアフォーダンスと、前記第1のコントロールアフォーダンスに関連付けられた前記電子デバイスの特性の現在の状態のインジケーションと、を同時に表示する、
命令を含む、電子デバイス。
[項目23]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
複数のコントロールアフォーダンスを含むカメラコントロール領域と、
を含む、手段と、
第1の既定の条件が満たされていない間に、前記第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示する手段と、
前記第1のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示している間に、条件の変化を検出する手段と、
条件の前記変化を検出したことに応じて、前記第1のコントロールアフォーダンスと、前記第1のコントロールアフォーダンスに関連付けられた前記電子デバイスの特性の現在の状態のインジケーションと、を同時に表示する手段と、
を備える、電子デバイス。
[項目24]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含む、ことと、
前記カメラユーザインタフェースを表示している間に、前記カメラユーザインタフェース上の第1のジェスチャを検出することと、
前記第1のジェスチャを検出したことに応じて、前記カメラコントロール領域の外観を修正することであって、
前記第1のジェスチャが第1のタイプのジェスチャであるとの判定に従って、前記第1の位置に1つ以上の追加のカメラモードアフォーダンスを表示することと、
前記第1のジェスチャが前記第1のタイプとは異なる第2のタイプのジェスチャであるとの判定に従って、前記複数のカメラモードアフォーダンスを表示することを停止し、前記第1の位置に複数のカメラ設定アフォーダンスを表示することであって、前記カメラ設定アフォーダンスは、現在選択されているカメラモードの画像キャプチャを調整する設定である、ことと、
を含む、ことと、
を含む、方法。
[項目25]
前記カメラコントロール領域は、前記複数のカメラ設定アフォーダンスを表示するアフォーダンスを含み、前記第2のタイプの前記ジェスチャは、前記複数のカメラ設定アフォーダンスを表示する前記アフォーダンスの選択である、項目24に記載の方法。
[項目26]
前記第2のタイプの前記ジェスチャは、前記カメラディスプレイ領域内の接触の移動である、項目24に記載の方法。
[項目27]
前記第1のタイプの前記ジェスチャは、前記複数のカメラモードアフォーダンスのうちの少なくとも1つ上の接触の移動である、項目24から26のいずれか一項に記載の方法。
[項目28]
以前にキャプチャされたメディアの第1の表現を表示する要求に対応する、前記カメラユーザインタフェース上の第2のジェスチャを検出することと、
前記第2のジェスチャを検出したことに応じて、前記以前にキャプチャされたメディアの第1の表現を表示することと、
を更に含む、項目24から27のいずれか一項に記載の方法。
[項目29]
以前にキャプチャされたメディアの表現を表示していない間に、前記1つ以上のカメラを使用して第1のメディアのキャプチャを検出することと、
前記第1のメディアの前記キャプチャを検出したことに応じて、
前記第1のメディアの表現を含む、キャプチャされたメディアの1つ以上の表現を表示することと、
を更に含む、項目24から28のいずれか一項に記載の方法。
[項目30]
前記複数のカメラ設定アフォーダンスは、表示されると、メディアをキャプチャする第1の要求に応じて、第1のアスペクト比で表示されるメディアをキャプチャするように前記電子デバイスを構成するアフォーダンスを含む、項目24から29のいずれか一項に記載の方法。
[項目31]
表示されると、前記第1のアスペクト比で表示されるメディアをキャプチャするように前記電子デバイスが構成されている間に、メディアをキャプチャする第3の要求を受信することと、
メディアをキャプチャする前記第3の要求を受信したことに応じて、前記第1のアスペクト比を有する前記キャプチャされたメディアの表現を表示することと、
前記第1のアスペクト比を有する前記キャプチャされたメディアの前記表現を、第2のアスペクト比を有する前記キャプチャされたメディアの表現に変更する要求を受信することと、
前記第1のアスペクト比を有する前記キャプチャされたメディアの前記表現を前記第2のアスペクト比を有する前記キャプチャされたメディアの前記表現に変更する前記要求を受信したことに応じて、前記第2のアスペクト比を有する前記キャプチャされたメディアの前記表現を表示することと、
を更に含む、項目30に記載の方法。
[項目32]
前記第2のアスペクト比を有する前記キャプチャされたメディアの前記表現は、前記第1のアスペクト比を有する前記キャプチャされたメディアの前記表現内に存在しない視覚コンテンツを含む、項目31に記載の方法。
[項目33]
前記1つ以上のカメラの前記視野の前記表現は、第1のズームレベルで表示され、前記方法は、
前記第1のズームレベルで表示される前記1つ以上のカメラの前記視野の前記表現を表示している間に、前記表現の前記ズームレベルを変更する第1の要求を受信することと、
前記表現の前記ズームレベルを変更する前記第1の要求を受信したことに応じて、
前記表現の前記ズームレベルを変更する前記要求が前記表現の前記ズームレベルを上げる要求に対応するとの判定に従って、前記1つ以上のカメラの第2の表現視野を前記第1のズームレベルよりも大きい第2のズームレベルで表示することと、
前記表現の前記ズームレベルを変更する前記要求が前記表現の前記ズームレベルを下げる要求に対応するとの判定に従って、前記1つ以上のカメラの第3の表現視野を前記第1のズームレベルよりも小さい第3のズームレベルで表示することと、を更に含む、項目24から32のいずれか一項に記載の方法。
[項目34]
第4のズームレベルで表示される前記1つ以上のカメラの前記視野の前記表現を表示している間に、前記表現の前記ズームレベルを変更する第2の要求を受信することと、
前記表現の前記ズームレベルを変更する前記第2の要求を受信したことに応じて、
前記第4のズームレベルが前記第2のズームレベルであるとの判定に従って、前記第3のズームレベルで、前記1つ以上のカメラの前記視野の第4の表現を表示することと、
前記第4のズームレベルが前記第3のズームレベルであるとの判定に従って、前記第1のズームレベルで前記1つ以上のカメラの前記視野の第5の表現を表示することと、
前記第4のズームレベルが前記第1のズームレベルであるとの判定に従って、前記第2のズームレベルで前記1つ以上のカメラの前記視野の第6の表現を表示することと、
を更に含む、項目33に記載の方法。
[項目35]
前記カメラユーザインタフェースを表示することは、キャプチャ設定の状態のグラフィカルインジケーションを含むアフォーダンスを表示することを含み、
前記第2のタイプの前記ジェスチャは、前記グラフィカルインジケーションの選択に対応する、項目24から34のいずれか一項に記載の方法。
[項目36]
前記第1の位置に前記複数のカメラ設定アフォーダンスを表示することは、
前記第2のタイプの前記ジェスチャが検出されていた間に、第1のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されているとの判定に従って、前記第1の位置に第1の1組のカメラ設定アフォーダンスを表示することと、
前記第2のタイプの前記ジェスチャが検出されていた間に、前記第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されているとの判定に従って、前記第1の位置に前記第1の1組のカメラ設定アフォーダンスとは異なる第2の1組のカメラ設定アフォーダンスを表示することと、
を含む、項目24から35のいずれか一項に記載の方法。
[項目37]
前記第1の1組のカメラ設定アフォーダンスは、第1のカメラ設定アフォーダンスを含み、前記第2の1組のカメラ設定アフォーダンスは、前記第1のカメラ設定アフォーダンスを含む、項目36に記載の方法。
[項目38]
第1のカメラモードは、静止写真キャプチャモードであり、前記第1の1組のカメラ設定アフォーダンスは、
フラッシュ設定に対応する視覚インジケーションを含むアフォーダンスと、
ライブ設定に対応する視覚インジケーションを含むアフォーダンスと、
アスペクト比設定に対応する視覚インジケーションを含むアフォーダンスと、
タイマー設定に対応する視覚インジケーションを含むアフォーダンスと、
フィルタ設定に対応する視覚インジケーションを含むアフォーダンスと、
からなる群から選択される1つ以上のアフォーダンスを含む、項目36又は37に記載の方法。
[項目39]
第1のカメラモードは、ポートレートモードであり、前記第1の1組のカメラ設定アフォーダンスは、
深度コントロール設定に対応する視覚インジケーションを含むアフォーダンスと、
フラッシュ設定に対応する視覚インジケーションを含むアフォーダンスと、
タイマー設定に対応する視覚インジケーションを含むアフォーダンスと、
フィルタ設定に対応する視覚インジケーションを含むアフォーダンスと、
照明設定に対応する視覚インジケーションを含むアフォーダンスと、
からなる群から選択される1つ以上のアフォーダンスを含む、項目36又は37に記載の方法。
[項目40]
前記第1のジェスチャは、前記第1のタイプのものであり、前記第1のジェスチャを検出することは、前記第1のジェスチャの第1の部分及び前記第1のジェスチャの第2の部分を検出することを含み、前記方法は、
前記第1のジェスチャの前記第1の部分を検出したことに応じて、前記表示デバイスを介して、前記1つ以上のカメラの前記視野の前記表現の少なくとも一部分を囲む別個の1つ以上の境界部要素を含む境界部を表示することと、
前記第1のジェスチャの前記第2の部分を検出したことに応じて、前記境界部を第1の方向に前記表示デバイスのディスプレイを横切って、前記境界部の少なくとも一部分が前記ディスプレイから外れて平行移動され、表示されることを停止されるまで、平行移動させることと、
を更に含む、項目24から39のいずれか一項に記載の方法。
[項目41]
前記第1のジェスチャの前記第2の部分を検出することは、前記第1の方向に動く第2の接触を検出することを含む、項目40に記載の方法。
[項目42]
前記第2の接触は、前記1つ以上のカメラの前記視野の前記表現上で検出され、
前記境界部を平行移動させることが行われる速度は、前記第1の方向の前記第2の接触の移動速度に比例する、項目41に記載の方法。
[項目43]
前記境界部を平行移動させることは、前記境界部によって囲まれた前記1つ以上のカメラの前記視野の前記表現の前記少なくとも一部分の視覚外観を変更することを含む、項目41に記載の方法。
[項目44]
第3のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されている間に、メディアをキャプチャする第2の要求を検出することと、
メディアをキャプチャする前記第2の要求を受信したことに応じて、前記第3のカメラモードに対応する設定及び前記複数のカメラ設定アフォーダンスのアフォーダンスに対応する少なくとも1つの設定に基づいて、前記1つ以上のカメラを使用してメディアをキャプチャすることと、
を更に含む、項目24から43のいずれか一項に記載の方法。
[項目45]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目24から44のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目46]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目24から44のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目47]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目24から44のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目48]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含むカメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記カメラユーザインタフェース上の第1のジェスチャを検出し、
前記第1のジェスチャを検出したことに応じて、
前記第1のジェスチャが第1のタイプのジェスチャであるとの判定に従って、前記第1の位置に1つ以上の追加のカメラモードアフォーダンスを表示することと、
前記第1のジェスチャが前記第1のタイプとは異なる第2のタイプのジェスチャであるとの判定に従って、前記複数のカメラモードアフォーダンスを表示することを停止し、前記第1の位置に複数のカメラ設定アフォーダンスを表示することであって、前記カメラ設定アフォーダンスは、現在選択されているカメラモードの画像キャプチャを調整する設定である、ことと、
を含む、前記カメラコントロール領域の外観を修正する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目49]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含むカメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記カメラユーザインタフェース上の第1のジェスチャを検出し、
前記第1のジェスチャを検出したことに応じて、
前記第1のジェスチャが第1のタイプのジェスチャであるとの判定に従って、前記第1の位置に1つ以上の追加のカメラモードアフォーダンスを表示することと、
前記第1のジェスチャが前記第1のタイプとは異なる第2のタイプのジェスチャであるとの判定に従って、前記複数のカメラモードアフォーダンスを表示することを停止し、前記第1の位置に複数のカメラ設定アフォーダンスを表示することであって、前記カメラ設定アフォーダンスは、現在選択されているカメラモードの画像キャプチャを調整する設定である、ことと、
を含む、前記カメラコントロール領域の外観を修正する、
命令を含む、電子デバイス。
[項目50]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含む、手段と、
前記カメラユーザインタフェースを表示している間に、前記カメラユーザインタフェース上の第1のジェスチャを検出する手段と、
前記第1のジェスチャを検出したことに応じて、前記カメラコントロール領域の外観を修正する手段であって、
前記第1のジェスチャが第1のタイプのジェスチャであるとの判定に従って、前記第1の位置に1つ以上の追加のカメラモードアフォーダンスを表示することと、
前記第1のジェスチャが前記第1のタイプとは異なる第2のタイプのジェスチャであるとの判定に従って、前記複数のカメラモードアフォーダンスを表示することを停止し、前記第1の位置に複数のカメラ設定アフォーダンスを表示することであって、前記カメラ設定アフォーダンスは、現在選択されているカメラモードの画像キャプチャを調整する設定である、ことと、
を含む、手段と、
を備える、電子デバイス。
[項目51]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
カメラユーザインタフェースを表示する要求を受信することと、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、かつそれぞれの基準が満たされていないとの判定に従って、
前記表示デバイスを介して、前記カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、
前記1つ以上のカメラの前記視野の第2の部分の表現を含む第2の領域であって、前記1つ以上のカメラの前記視野の前記第2の部分は、前記第1の部分と視覚的に区別される、第2の領域と、
を含む、ことと、
前記カメラユーザインタフェースが表示されている間に、前記1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出することと、
前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する前記入力を検出したことに応じて、前記1つ以上のカメラの前記視野の前記第1の部分に対応する視覚コンテンツと、前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、前記1つ以上のカメラでキャプチャすることと、
前記メディアアイテムをキャプチャした後に、前記メディアアイテムを表示する要求を受信することと、
前記メディアアイテムを表示する前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも一部分の表現を表示することなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの第1の表現を表示することと、
を含む、方法。
[項目52]
前記視覚コンテンツの前記第1の表現を表示している間に、前記視覚コンテンツの前記表現を修正する要求に対応する1組の1つ以上の入力を検出することと、
前記1組の1つ以上の入力を検出したことに応じて、前記視覚コンテンツの第2の表現を表示することであって、前記視覚コンテンツの前記第2の表現は、前記1つ以上のカメラの前記視野の前記第1の部分の少なくとも一部分からの視覚コンテンツと、前記視覚コンテンツの前記第1の表現に含まれなかった前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの少なくとも一部分に基づく視覚コンテンツと、を含む、ことと、
を更に含む、項目51に記載の方法。
[項目53]
前記視覚コンテンツの前記第1の表現は、第1の視覚的視点からの表現であり、
前記視覚コンテンツの前記第2の表現は、前記視覚コンテンツの前記第1の表現に含まれなかった、前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの前記少なくとも一部分に基づいて生成された、前記第1の視覚的視点とは異なる第2の視覚的視点からの表現である、項目52に記載の方法。
[項目54]
前記視覚コンテンツの前記第1の表現は、第1の向きの表現であり、
前記視覚コンテンツの前記第2の表現は、前記視覚コンテンツの前記第1の表現に含まれなかった、前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの前記少なくとも一部分に基づいて生成された、前記第1の向きとは異なる第2の向きの表現である、項目52に記載の方法。
[項目55]
前記第1の表現は、第1のズームレベルで表示され、前記方法は、
前記視覚コンテンツの前記第1の表現は、第1のズームレベルの表現であることと、
前記視覚コンテンツの前記第2の表現は、前記視覚コンテンツの前記第1の表現に含まれなかった、前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの前記少なくとも一部分に基づいて生成された、前記第1のズームレベルとは異なる第2のズームレベルの表現であることと、
を更に含む、項目52に記載の方法。
[項目56]
更に、前記視覚コンテンツの前記第1の表現は、前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの少なくとも第2の部分を使用して、デジタル画像安定化動作に少なくとも部分的に基づいて生成される、項目51から55のいずれか一項に記載の方法。
[項目57]
前記メディアアイテムをキャプチャした後に、前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの少なくとも第3の部分を使用して、オブジェクト追跡動作を実行することを更に含む、項目51から56のいずれか一項に記載の方法。
[項目58]
前記メディアアイテムを表示する前記要求は、前記メディアアイテムを表示する第1の要求であり、前記方法は、
前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも一部分の前記表現を表示することなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの前記第1の表現を表示した後に、前記メディアアイテムを表示する第2の要求を受信することと、
前記メディアアイテムを表示する前記第2の要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの前記第1の表現及び前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの前記表現を表示することと、
を更に含む、項目51から57のいずれか一項に記載の方法。
[項目59]
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、かつそれぞれの基準が満たされているとの判定に従って、前記表示デバイスを介して、第2のカメラユーザインタフェースを表示することであって、前記第2のカメラユーザインタフェースは、前記1つ以上のカメラの前記視野の前記第2の部分の前記表現を含むことなく、前記1つ以上のカメラの前記視野の前記第1の部分の前記表現を含む、ことを更に含む、項目51から58のいずれか一項に記載の方法。
[項目60]
前記方法は、
以前にキャプチャされたメディアアイテムを表示する要求を受信することと、
前記以前にキャプチャされたメディアアイテムを表示する前記要求を受信したことに応じて、
前記それぞれの基準が満たされなかったときに前記以前にキャプチャされたメディアアイテムがキャプチャされたとの判定に従って、追加のコンテンツのインジケーションを表示することと、
前記それぞれの基準が満たされたときに前記以前にキャプチャされたメディアアイテムがキャプチャされたとの判定に従って、追加のコンテンツのインジケーションの表示をやめることと、
を更に含む、項目59に記載の方法。
[項目61]
前記それぞれの基準は、4000水平ピクセル以上の解像度でメディアアイテムをキャプチャするように前記電子デバイスが構成されているときに満たされる基準を含む、項目59又は60に記載の方法。
[項目62]
前記それぞれの基準は、所定のズームレベルにてポートレートモードで動作するように前記電子デバイスが構成されているときに満たされる基準を含む、項目59から61のいずれか一項に記載の方法。
[項目63]
前記それぞれの基準は、前記1つ以上のカメラのうちの少なくとも1つのカメラが所定の期間にわたって焦点を維持できないときに満たされる基準を含む、項目59から62のいずれか一項に記載の方法。
[項目64]
前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する前記入力は、前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する第1の入力であり、
前記方法は、
前記カメラユーザインタフェースが表示されている間に、前記1つ以上のカメラでメディアをキャプチャする要求に対応する第2の入力を検出することと、
前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する前記第2の入力を検出したことに応じて、
追加のコンテンツ設定に基づいて前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツをキャプチャするように前記電子デバイスが構成されているとの判定に従って、
前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの前記第1の表現をキャプチャし、前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも前記一部分の前記表現をキャプチャすることと、
前記追加のコンテンツ設定に基づいて前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツをキャプチャするように前記電子デバイスが構成されていないとの判定に従って、
前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも前記一部分の前記表現をキャプチャすることなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの前記第1の表現をキャプチャすることと、
を更に含む、項目51から63のいずれか一項に記載の方法。
[項目65]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目51から64のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目66]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目51から64のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目67]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目51から64のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目68]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
カメラユーザインタフェースを表示する要求を受信し、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、かつそれぞれの基準が満たされていないとの判定に従って、
前記表示デバイスを介して、前記カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、
前記1つ以上のカメラの前記視野の第2の部分の表現を含む第2の領域であって、前記1つ以上のカメラの前記視野の前記第2の部分は、前記第1の部分と視覚的に区別される、第2の領域と、
を含む前記カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースが表示されている間に、前記1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出し、
前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する前記入力を検出したことに応じて、前記1つ以上のカメラの前記視野の前記第1の部分に対応する視覚コンテンツと、前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、前記1つ以上のカメラでキャプチャし、
前記メディアアイテムをキャプチャした後に、前記メディアアイテムを表示する要求を受信し、
前記メディアアイテムを表示する前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも一部分の表現を表示することなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの第1の表現を表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目69]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
カメラユーザインタフェースを表示する要求を受信し、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、かつそれぞれの基準が満たされていないとの判定に従って、
前記表示デバイスを介して、前記カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、
前記1つ以上のカメラの前記視野の第2の部分の表現を含む第2の領域であって、前記1つ以上のカメラの前記視野の前記第2の部分は、前記第1の部分と視覚的に区別される、第2の領域と、
を含む前記カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースが表示されている間に、前記1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出し、
前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する前記入力を検出したことに応じて、前記1つ以上のカメラの前記視野の前記第1の部分に対応する視覚コンテンツと、前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、前記1つ以上のカメラでキャプチャし、
前記メディアアイテムをキャプチャした後に、前記メディアアイテムを表示する要求を受信し、
前記メディアアイテムを表示する前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも一部分の表現を表示することなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの第1の表現を表示する、
命令を含む、電子デバイス。
[項目70]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
カメラユーザインタフェースを表示する要求を受信する手段と、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、かつそれぞれの基準が満たされていないとの判定に従って、
前記表示デバイスを介して、前記カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、
前記1つ以上のカメラの前記視野の第2の部分の表現を含む第2の領域であって、前記1つ以上のカメラの前記視野の前記第2の部分は、前記第1の部分と視覚的に区別される、第2の領域と、
を含む、手段と、
前記カメラユーザインタフェースが表示されている間に、前記1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出する手段と、
前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する前記入力を検出したことに応じて、前記1つ以上のカメラの前記視野の前記第1の部分に対応する視覚コンテンツと、前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、前記1つ以上のカメラでキャプチャする手段と、
前記メディアアイテムをキャプチャした後に、前記メディアアイテムを表示する要求を受信する手段と、
前記メディアアイテムを表示する前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも一部分の表現を表示することなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの第1の表現を表示する手段と、
を備える、電子デバイス。
[項目71]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、ことと、
前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする要求を検出することと、
前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする前記要求を検出したことに応じて、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャし、前記キャプチャされたメディアの表現を表示することと、
前記キャプチャされたメディアの前記表現を表示している間に、前記キャプチャされたメディアの前記表現が所定の期間にわたって表示されたことを検出することと、
前記キャプチャされたメディアの前記表現が前記所定の期間にわたって表示されたことを検出したことに応じて、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも第1の部分を表示することを停止することと、
を含む、方法。
[項目72]
前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも前記第1の部分を表示することを停止することは、
前記キャプチャされたメディアの前記表現の少なくとも第2の部分の表示を維持することを含む、項目71に記載の方法。
[項目73]
前記表現の前記第1の部分を表示することを停止する前に、前記キャプチャされたメディアの前記表現が、前記表示デバイス上の第1の位置に表示され、
前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも前記第1の部分を表示することを停止することは、
前記表示デバイス上の前記第1の位置から前記表示デバイスの縁部に対応する前記表示デバイス上の第2の位置に向かって前記キャプチャされたメディアの前記表現を動かすアニメーションを表示することを含む、項目71又は72に記載の方法。
[項目74]
前記キャプチャされたメディアの前記表現は、前記表示デバイス上の第3の位置に表示され、前記方法は、
前記キャプチャされたメディアの第2の表現が表示されている間に、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記第2の表現の少なくとも一部分の表示を停止する要求に対応するユーザ入力を検出することと、
前記第2の表現の少なくとも一部分の表示を停止する前記要求を検出したことに応じて、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記第2の表現の少なくとも一部分を表示することを停止することと、
を含む、項目71から73のいずれか一項に記載の方法。
[項目75]
前記表現の前記第1の部分を表示することを停止した後に、前記表示デバイスの縁部に対応する前記表示デバイス上の第4の位置から、前記表示デバイス上の前記第4の位置とは異なる第5の位置への接触の移動に対応するユーザ入力を受信することと、
前記表示デバイスの前記縁部に対応する前記表示デバイス上の前記第4の位置から、前記表示デバイス上の前記第5の位置への前記接触の移動に対応するユーザ入力を受信したことに応じて、前記表現の前記第1の部分を再表示することと、
を更に含む、項目71から74のいずれか一項に記載の方法。
[項目76]
前記キャプチャされたメディアの前記表現が表示されている間に、前記キャプチャされたメディアの拡大表現を表示する要求に対応するユーザ入力を検出することと、
前記キャプチャされたメディアの前記表現の前記選択に対応するユーザ入力を検出したことに応じて、前記表示デバイスを介して、前記キャプチャされたメディアの拡大表現を表示することと、
を更に含む、項目71から75のいずれか一項に記載の方法。
[項目77]
前記カメラユーザインタフェースが表示されていない間に、前記カメラユーザインタフェースを再表示する要求を受信することと、
前記カメラユーザインタフェースを再表示する前記要求を受信したことに応じて、キャプチャされたメディアの第2の表現を含む、前記カメラユーザインタフェースの第2のインスタンスを表示することと、
を更に含む、項目71から76のいずれか一項に記載の方法。
[項目78]
前記キャプチャされたメディアの前記表現は、前記表示デバイス上の第5の位置に表示され、前記方法は、
前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも前記第1の部分を表示することを停止した後に、前記第5の位置に複数のカメラ設定を制御するアフォーダンスを表示することを更に含む、項目71から77のいずれか一項に記載の方法。
[項目79]
前記1つ以上のカメラの前記視野に対応するメディアをキャプチャすることは、画像のシーケンスをキャプチャすることを含み、
前記キャプチャされたメディアの前記表現を表示することは、少なくとも2つの画像を含む画像の前記キャプチャされたシーケンスの少なくとも一部分を再生することを含む、項目71から78のいずれか一項に記載の方法。
[項目80]
前記所定の期間は、画像の前記キャプチャされたシーケンスの持続時間に基づく、項目79に記載の方法。
[項目81]
前記キャプチャされたメディアの前記表現を表示している間に、前記キャプチャされたメディアを共有するためのオプションを表示する要求に対応するユーザ入力を受信することと、
前記キャプチャされたメディアを共有するためのオプションを表示する前記要求に対応する前記ユーザ入力を受信したことに応じて、前記キャプチャされたメディアを共有するためのユーザインタフェースを表示することと、
を更に含む、項目71から80のいずれか一項に記載の方法。
[項目82]
前記キャプチャされたメディアを共有するための前記ユーザインタフェースは、前記キャプチャされたメディアを共有するための複数のオプションを含む、項目81に記載の方法。
[項目83]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目71から82のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目84]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目71から82のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目85]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目71から82のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目86]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする要求を検出し、
前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする前記要求を検出したことに応じて、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャし、前記キャプチャされたメディアの表現を表示し、
前記キャプチャされたメディアの前記表現を表示している間に、前記キャプチャされたメディアの前記表現が所定の期間にわたって表示されたことを検出し、
前記キャプチャされたメディアの前記表現が前記所定の期間にわたって表示されたことを検出したことに応じて、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも第1の部分を表示することを停止する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目87]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする要求を検出し、
前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする前記要求を検出したことに応じて、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャし、前記キャプチャされたメディアの表現を表示し、
前記キャプチャされたメディアの前記表現を表示している間に、前記キャプチャされたメディアの前記表現が所定の期間にわたって表示されたことを検出し、
前記キャプチャされたメディアの前記表現が前記所定の期間にわたって表示されたことを検出したことに応じて、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも第1の部分を表示することを停止する、
命令を含む、電子デバイス。
[項目88]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、手段と、
前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする要求を検出する手段と、
前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする前記要求を検出したことに応じて、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャし、前記キャプチャされたメディアの表現を表示する手段と、
前記キャプチャされたメディアの前記表現を表示している間に、前記キャプチャされたメディアの前記表現が所定の期間にわたって表示されたことを検出する手段と、
前記キャプチャされたメディアの前記表現が前記所定の期間にわたって表示されたことを検出したことに応じて、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも第1の部分を表示することを停止する手段と、
を備える、電子デバイス。
[項目89]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、ことと、
メディアをキャプチャする要求を受信したことに応じて、第1のアスペクト比でメディアをキャプチャするように前記電子デバイスが構成されている間に、前記1つ以上のカメラの前記視野の前記表現上のそれぞれの位置での第1の接触を含む第1の入力を検出することと、
前記第1の入力を検出したことに応じて、
1組のアスペクト比変化基準が満たされているとの判定に従って、メディアをキャプチャする要求に応じて、前記第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することであって、
前記1組のアスペクト比変化基準は、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応じてキャプチャされる前記メディアの境界部の少なくとも一部分を示す前記カメラディスプレイ領域の既定の部分に対応する第1の位置で前記第1の接触を維持し、続いて、前記第1の位置とは異なる第2の位置への前記第1の接触の移動を検出することを前記第1の入力が含むときに満たされる基準を含む、ことと、
を含む、方法。
[項目90]
前記第1の入力の少なくとも第1の部分を検出したことに応じて、
前記第1の入力の前記第1の部分が少なくとも前記閾値時間量にわたって前記第1の位置で前記第1の接触を維持することを含むとの判定に従って、第1の触知出力を提供することを更に含む、項目89に記載の方法。
[項目91]
前記第1の入力の少なくとも第2の部分を検出したことに応じて、
前記第1の入力の第2の部分が少なくとも前記閾値時間量にわたって前記第1の位置で前記第1の接触を維持することを含むとの判定に従って、メディアをキャプチャする要求に応じてキャプチャされる前記メディアの前記境界部の視覚インジケーションを表示することを更に含む、項目89又は90に記載の方法。
[項目92]
前記視覚インジケーションが表示されている間に、かつ前記第1の入力の少なくとも第3の部分を検出したことに応じて、
前記第1の入力の前記第3の部分が前記第1の接触の移動を含むとの判定に従って、前記第1の接触が前記閾値時間量にわたって前記第1の位置で維持された後に、前記第1の接触の前記移動は第1の大きさ及び第1の方向を有し、前記第1の大きさ及び前記第1の方向に基づいて前記視覚インジケーションの外観を修正することを更に含む、項目91に記載の方法。
[項目93]
前記第1の入力の少なくとも第1の部分を検出したことに応じて、
前記第1の入力の前記第1の部分が少なくとも前記閾値時間量にわたって前記第1の位置で前記第1の接触を維持することを含むとの判定に従って、前記視覚インジケーションによって示される前記1つ以上のカメラの前記視野の前記表現の一部分のサイズを縮小することを含むアニメーションを表示することを更に含む、項目91又は92に記載の方法。
[項目94]
前記視覚インジケーションが表示されている間に、かつ前記第1の入力の少なくとも第4の部分を検出したことに応じて、
前記第1の入力の前記第4の部分が前記第1の接触のリフトオフを含むとの判定に従って、前記視覚インジケーションによって示される前記1つ以上のカメラの前記視野の前記表現の一部分のサイズを増大することを含むアニメーションを表示することを更に含む、項目91から93のいずれか一項に記載の方法。
[項目95]
前記1つ以上のカメラの前記視野の前記表現の第1の部分は、前記メディアの前記境界部の前記視覚インジケーションによって選択されたものとして示され、前記1つ以上のカメラの前記視野の前記表現の第2の部分は、前記メディアの前記境界部の前記視覚インジケーションによって選択されたものとして示されず、
前記第2の部分は、前記第1の部分と視覚的に区別される、項目91から94のいずれか一項に記載の方法。
[項目96]
第2のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することは、
第1の移動範囲内にある移動の第1の大きさ及び/又は方向を有する前記第2の位置への前記第1の接触の前記移動に従って、所定のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することと、
前記第1の移動範囲内にない移動の第2の大きさ及び/又は方向を有する前記第2の位置への前記第1の接触の前記移動に従って、所定ではなく、かつ移動の前記第2の大きさ及び/又は方向に基づくアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することと、
を含む、項目90から95のいずれか一項に記載の方法。
[項目97]
前記所定のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することは、1つ以上の触知出力デバイスを介して、第2の触知出力を生成することを含む、項目96に記載の方法。
[項目98]
前記第1の入力を検出する前に、前記電子デバイスは、第1のカメラモードを使用してメディアをキャプチャするように構成されており、前記方法は、
前記第1の入力を検出したことに応じて、
前記第1の入力が前記閾値時間量にわたって前記第1の位置で前記第1の接触を維持することを含まないとの判定、及び前記第1の入力が第1の移動閾値を上回る前記第1の接触の移動を含むとの判定に従って、前記第1のカメラモードとは異なる第2のカメラモードを使用してメディアをキャプチャするように前記電子デバイスを構成することを更に含む、項目89から97のいずれか一項に記載の方法。
[項目99]
前記カメラユーザインタフェースは、第1のメディアキャプチャモードで動作するように前記電子デバイスが構成されているというインジケーションを更に含み、前記方法は、
前記カメラディスプレイ領域上の第2の方向の第4の接触の連続的な移動を検出することを含む、第4の入力を検出することに従って、
メディアキャプチャ動作に関連付けられた特性を調整するコントロールを表示することを更に含む、項目89から98のいずれか一項に記載の方法。
[項目100]
前記第1の入力を検出したことに応じて、
前記第1の入力が前記閾値時間量未満にわたって前記第1の位置で前記第1の接触を検出することを含むとの判定に従って、前記第1の位置に対応する前記1つ以上のカメラの前記視野内の位置でのコンテンツに基づく焦点設定でメディアをキャプチャするように前記電子デバイスを構成することを含む、焦点設定を調整することを更に含む、項目89から99のいずれか一項に記載の方法。
[項目101]
前記第1の入力を検出したことに応じて、
前記第1の入力が、メディアをキャプチャする前記要求に応じてキャプチャされる前記メディアの前記境界部の少なくとも前記一部分を示す、前記カメラディスプレイ領域の既定の部分に対応しない第3の位置で第2の閾値時間量にわたって前記第1の接触を維持することを含むとの判定に従って、前記第3の位置に対応する前記1つ以上のカメラの前記視野内の位置でのコンテンツに基づく第1の露出設定でメディアをキャプチャするように前記電子デバイスを構成することを更に含む、項目89から100のいずれか一項に記載の方法。
[項目102]
前記第3の位置に対応する前記1つ以上のカメラの前記視野内の位置でのコンテンツに基づく前記第1の露出設定でメディアをキャプチャするように前記電子デバイスを構成した後に、前記第3の位置に対応する前記1つ以上のカメラの視野内の前記位置での前記コンテンツを、前記1つ以上のカメラの前記視野内にもはや存在させない、前記1つ以上のカメラの前記視野の前記表現の変化を検出することと、
前記変化を検出したことに応じて、前記第1の露出設定でメディアをキャプチャするように前記電子デバイスを構成し続けることと、
を更に含む、項目101に記載の方法。
[項目103]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目89から102のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目104]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目89から102のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目105]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目89から102のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目106]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示し、
メディアをキャプチャする要求を受信したことに応じて、第1のアスペクト比でメディアをキャプチャするように前記電子デバイスが構成されている間に、前記1つ以上のカメラの前記視野の前記表現上のそれぞれの位置での第1の接触を含む第1の入力を検出し、
前記第1の入力を検出したことに応じて、
1組のアスペクト比変化基準が満たされているとの判定に従って、メディアをキャプチャする要求に応じて、前記第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成する、命令を含み、
前記1組のアスペクト比変化基準は、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応じてキャプチャされる前記メディアの境界部の少なくとも一部分を示す前記カメラディスプレイ領域の既定の部分に対応する第1の位置で前記第1の接触を維持し、続いて、前記第1の位置とは異なる第2の位置への前記第1の接触の移動を検出することを前記第1の入力が含むときに満たされる基準を含む、非一時的コンピュータ可読記憶媒体。
[項目107]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示し、
メディアをキャプチャする要求を受信したことに応じて、第1のアスペクト比でメディアをキャプチャするように前記電子デバイスが構成されている間に、前記1つ以上のカメラの前記視野の前記表現上のそれぞれの位置での第1の接触を含む第1の入力を検出し、
前記第1の入力を検出したことに応じて、
1組のアスペクト比変化基準が満たされているとの判定に従って、メディアをキャプチャする要求に応じて、前記第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成する、命令を含み、
前記1組のアスペクト比変化基準は、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応じてキャプチャされる前記メディアの境界部の少なくとも一部分を示す前記カメラディスプレイ領域の既定の部分に対応する第1の位置で前記第1の接触を維持し、続いて、前記第1の位置とは異なる第2の位置への前記第1の接触の移動を検出することを前記第1の入力が含むときに満たされる基準を含む、電子デバイス。
[項目108]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、手段と、
メディアをキャプチャする要求を受信したことに応じて、第1のアスペクト比でメディアをキャプチャするように前記電子デバイスが構成されている間に、前記1つ以上のカメラの前記視野の前記表現上のそれぞれの位置での第1の接触を含む第1の入力を検出する手段と、
前記第1の入力を検出したことに応じて、
1組のアスペクト比変化基準が満たされているとの判定に従って、メディアをキャプチャする要求に応じて、前記第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成する手段であって、
前記1組のアスペクト比変化基準は、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応じてキャプチャされる前記メディアの境界部の少なくとも一部分を示す前記カメラディスプレイ領域の既定の部分に対応する第1の位置で前記第1の接触を維持し、続いて、前記第1の位置とは異なる第2の位置への前記第1の接触の移動を検出することを前記第1の入力が含むときに満たされる基準を含む、手段と、
を備える、電子デバイス。
[項目109]
方法であって、
表示デバイス及び1つ以上のカメラを備える電子デバイスにおいて、
前記電子デバイスが第1の向きにある間に、前記表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示することと、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの変化を検出することと、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの前記変化を検出したことに応じて、
ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているとの判定に従って、前記第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示することと、を含む、方法。
[項目110]
メディアキャプチャアフォーダンスを表示することと、
前記メディアキャプチャアフォーダンスに対応する第1の入力を検出することと、
前記第1の入力を検出したことに応じて、
前記第1のカメラユーザインタフェースが表示されている間に前記第1の入力が検出されたとの判定に従って、前記第1のズームレベルでメディアをキャプチャすることと、
前記第2のカメラユーザインタフェースが表示されている間に前記第1の入力が検出されたとの判定に従って、前記第2のズームレベルでメディアをキャプチャすることと、
を更に含む、項目109に記載の方法。
[項目111]
前記第1のカメラユーザインタフェースを表示することは、前記1つ以上のカメラの視野の第1の表現を表示することを含み、
前記第1の表現は、前記第1のズームレベルで前記第1のカメラの向きで表示され、
前記第2のカメラユーザインタフェースを表示することは、前記1つ以上のカメラの前記視野の第2の表現を表示することを含み、
前記第2の表現は、前記第2のズームレベルで前記第2のカメラの向きで表示される、項目109又は110に記載の方法。
[項目112]
前記第1の向きは、縦向きであり、前記第1の表現は、前記1つ以上のカメラの前記視野の一部分であり、前記第2の向きは、横向きであり、前記第2の表現は、前記1つ以上のカメラの視野全体である、項目111に記載の方法。
[項目113]
前記1つ以上のカメラの前記視野の前記第1の表現を表示している間に、前記第1のズームレベルを第3のズームレベルに変更する要求を受信することと、
前記第1のズームレベルを前記第3のズームレベルに変更する前記要求を受信したことに応じて、前記第1の表現の表示を、前記1つ以上のカメラの前記視野の第3の表現に置き換えることであって、前記第3の表現は、前記第1のカメラの向きであり、かつ前記第3のズームレベルである、ことと、
を更に含む、項目111又は112に記載の方法。
[項目114]
前記1つ以上のカメラの前記視野の前記第1の表現を表示している間に、ズームトグルアフォーダンスを表示することと、
前記ズームトグルアフォーダンスの選択に対応する第2の入力を検出することであって、前記ズームトグルアフォーダンスの選択は、前記第1のズームレベルを第4のズームレベルに変更する要求に対する、ことと、
前記第2の入力を検出したことに応じて、前記第1の表現の表示を、前記1つ以上のカメラの前記視野の第4の表現に置き換えることであって、前記第4の表現は、前記第1のカメラの向きであり、かつ前記第4のズームレベルである、ことと、
を更に含む、項目111から113のいずれか一項に記載の方法。
[項目115]
前記ズームトグルアフォーダンスは、前記第1のカメラユーザインタフェース及び前記第2のカメラユーザインタフェース内に表示される、項目114に記載の方法。
[項目116]
前記1つ以上のカメラの前記視野の前記第1の表現を表示している間に、前記第1のズームレベルを第3のズームレベルに変更する要求を受信することと、
前記第1のズームレベルを前記第3のズームレベルに変更する前記要求を受信したことに応じて、
前記第1の表現の表示を、前記1つ以上のカメラの前記視野の第5の表現に置き換えることであって、前記第5の表現は、前記第1のカメラの向きで、かつ前記第3のズームレベルである、ことと、
を更に含む、項目111から115のいずれか一項に記載の方法。
[項目117]
前記1つ以上のカメラは、第1のカメラと、前記第1のカメラとは別個の第2のカメラとを含み、
前記1組の自動ズーム基準は、前記電子デバイスが前記第1のカメラユーザインタフェース内に、前記第1のカメラの前記視野の表現を表示しており、かつ前記第2のカメラの前記視野の表現を表示していないときに満たされる基準を含む、項目109から116のいずれか一項に記載の方法。
[項目118]
前記1組の自動ズーム基準は、前記電子デバイスがビデオキャプチャ動作モードにないときに満たされる基準を含む、項目109から117のいずれか一項に記載の方法。
[項目119]
前記1組の自動ズーム基準は、ライブ通信セッションのビデオをキャプチャするように前記電子デバイスが構成されているときに満たされる基準を含む、項目109から118のいずれか一項に記載の方法。
[項目120]
前記第1のズームレベルは、前記第2のズームレベルよりも高く、前記方法は、
前記第2のカメラユーザインタフェースを表示している間に、前記第2の向きから前記第1の向きへの前記電子デバイスの向きの変化を検出することと、
前記第2の向きから前記第1の向きへの前記電子デバイスの向きの前記変化を検出したことに応じて、前記表示デバイス上に、前記第1のカメラユーザインタフェースを表示することと、
を更に含む、項目109から119のいずれか一項に記載の方法。
[項目121]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目109から120のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目122]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目109から120のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目123]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目109から120のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目124]
表示デバイス及びカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記電子デバイスが第1の向きにある間に、前記表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示し、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの変化を検出し、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの前記変化を検出したことに応じて、
ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているとの判定に従って、前記第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目125]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記電子デバイスが第1の向きにある間に、前記表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示し、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの変化を検出し、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの前記変化を検出したことに応じて、
ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているとの判定に従って、前記第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示する、
命令を含む、電子デバイス。
[項目126]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記電子デバイスが第1の向きにある間に、前記表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示する手段と、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの変化を検出する手段と、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの前記変化を検出したことに応じて、
ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているとの判定に従って、前記第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示する手段と、
を備える、電子デバイス。
[項目127]
方法であって、
表示デバイス及び1つ以上のカメラを備える電子デバイスにおいて、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、
前記メディアキャプチャユーザインタフェースを表示している間に、前記1つ以上のカメラを介して、前記1つ以上のカメラの前記視野内の変化を検出することと、
前記1つ以上のカメラの前記視野内の前記変化を検出したことに応じて、かつ前記1つ以上のカメラの前記視野内の周辺光が第1の閾値を下回るときに満たされる基準を含む、可変フレームレート基準が満たされているとの判定に従って、
前記1つ以上のカメラの前記視野内の前記検出された変化が移動基準を満たすとの判定に従って、第1のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新することであって、前記ライブプレビューの前記更新が、前記1つ以上のカメラの前記視野内の前記検出された変化が移動基準を満たすときに、第1のフレームレートで行われ、かつ前記第1のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて更新される前記1つ以上のカメラの前記視野の前記表現は、前記表示デバイス上に、第1の輝度で表示される、ことと、
前記1つ以上のカメラの前記視野内の前記検出された変化が前記移動基準を満たさないとの判定に従って、前記第1のフレームレートよりも低い第2のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新することであって、前記ライブプレビューの前記更新が、前記1つ以上のカメラの前記視野内の前記検出された変化が前記移動基準を満たさないときに、第2のフレームレートで行われ、かつ前記第1のフレームレートよりも低い前記第2のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて更新される前記1つ以上のカメラの前記視野の前記表現は、前記表示デバイス上に、前記第1の輝度より視覚的に明るい第2の輝度で表示される、ことと、
を含む、方法。
[項目128]
前記1つ以上のカメラの前記視野内の前記変化を検出する前に、前記1つ以上のカメラの前記視野の前記表現が、第3のフレームレートで更新され、前記方法は、
前記1つ以上のカメラの前記視野内の前記変化を検出したことに応じて、かつ前記可変フレームレート基準が満たされていないとの判定に従って、前記第3のフレームレートで前記1つ以上のカメラの前記視野の前記表現の前記更新を維持することを更に含む、項目127に記載の方法。
[項目129]
前記可変フレームレート基準は、フラッシュモードが非アクティブであるときに満たされる基準を含む、項目128に記載の方法。
[項目130]
前記メディアキャプチャユーザインタフェースを表示することは、
前記可変フレームレート基準が満たされているとの判定に従って、可変フレームレートモードがアクティブであるというインジケーションを表示することと、
前記可変フレームレート基準が満たされていないとの判定に従って、前記可変フレームレートモードがアクティブであるという前記インジケーションなしで、前記メディアキャプチャユーザインタフェースを表示することと、
を含む、項目127から129のいずれか一項に記載の方法。
[項目131]
(キャンセル)。
[項目132]
前記第2のフレームレートは、それぞれの閾値を下回る前記1つ以上のカメラの前記視野内の周辺光の量に基づく、項目127から130のいずれか一項に記載の方法。
[項目133]
前記検出された変化は、検出された移動を含み、前記第2のフレームレートは、前記検出された移動の量に基づく、項目127から130及び132のいずれか一項に記載の方法。
[項目134]
前記移動基準は、前記1つ以上のカメラの前記視野内の前記検出された変化が移動閾値よりも大きい前記電子デバイスの移動に対応するときに満たされる基準を含む、項目127から130及び132から133のいずれか一項に記載の方法。
[項目135]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目127から130及び132から134のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目136]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目127から130及び132から134のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目137]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
項目127から130及び132から134のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目138]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示し、
前記メディアキャプチャユーザインタフェースを表示している間に、前記1つ以上のカメラを介して、前記1つ以上のカメラの前記視野内の変化を検出し、
前記1つ以上のカメラの前記視野内の前記変化を検出したことに応じて、かつ前記1つ以上のカメラの前記視野内の周辺光が第1の閾値を下回るときに満たされる基準を含む、可変フレームレート基準が満たされているとの判定に従って、
前記1つ以上のカメラの前記視野内の前記検出された変化が移動基準を満たすとの判定に従って、第1のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新し、前記ライブプレビューの前記更新が、前記1つ以上のカメラの前記視野内の前記検出された変化が移動基準を満たすときに、第1のフレームレートで行われ、かつ前記第1のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて更新される前記1つ以上のカメラの前記視野の前記表現は、前記表示デバイス上に、第1の輝度で表示され、
前記1つ以上のカメラの前記視野内の前記検出された変化が前記移動基準を満たさないとの判定に従って、前記第1のフレームレートよりも低い第2のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新し、前記ライブプレビューの前記更新が、前記1つ以上のカメラの前記視野内の前記検出された変化が前記移動基準を満たさないときに、第2のフレームレートで行われ、かつ前記第1のフレームレートよりも低い前記第2のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて更新される前記1つ以上のカメラの前記視野の前記表現は、前記表示デバイス上に、前記第1の輝度より視覚的に明るい第2の輝度で表示される、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目139]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示し、
前記メディアキャプチャユーザインタフェースを表示している間に、前記1つ以上のカメラを介して、前記1つ以上のカメラの前記視野内の変化を検出し、
前記1つ以上のカメラの前記視野内の前記変化を検出したことに応じて、かつ前記1つ以上のカメラの前記視野内の周辺光が第1の閾値を下回るときに満たされる基準を含む、可変フレームレート基準が満たされているとの判定に従って、
前記1つ以上のカメラの前記視野内の前記検出された変化が移動基準を満たすとの判定に従って、第1のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新し、前記ライブプレビューの前記更新が、前記1つ以上のカメラの前記視野内の前記検出された変化が移動基準を満たすときに、第1のフレームレートで行われ、かつ前記第1のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて更新される前記1つ以上のカメラの前記視野の前記表現は、前記表示デバイス上に、第1の輝度で表示され、
前記1つ以上のカメラの前記視野内の前記検出された変化が前記移動基準を満たさないとの判定に従って、前記第1のフレームレートよりも低い第2のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新し、前記ライブプレビューの前記更新が、前記1つ以上のカメラの前記視野内の前記検出された変化が前記移動基準を満たさないときに、第2のフレームレートで行われ、かつ前記第1のフレームレートよりも低い前記第2のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて更新される前記1つ以上のカメラの前記視野の前記表現は、前記表示デバイス上に、前記第1の輝度より視覚的に明るい第2の輝度で表示される、
命令を含む、電子デバイス。
[項目140]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示する手段と、
前記メディアキャプチャユーザインタフェースを表示している間に、前記1つ以上のカメラを介して、前記1つ以上のカメラの前記視野内の変化を検出する手段と、
前記1つ以上のカメラの前記視野内の前記変化を検出したことに応じて、かつ前記1つ以上のカメラの前記視野内の周辺光が第1の閾値を下回るときに満たされる基準を含む、可変フレームレート基準が満たされているとの判定に従って、
前記1つ以上のカメラの前記視野内の前記検出された変化が移動基準を満たすとの判定に従って、第1のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新し、前記ライブプレビューの前記更新が、前記1つ以上のカメラの前記視野内の前記検出された変化が移動基準を満たすときに、第1のフレームレートで行われ、かつ前記第1のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて更新される前記1つ以上のカメラの前記視野の前記表現は、前記表示デバイス上に、第1の輝度で表示され、
前記1つ以上のカメラの前記視野内の前記検出された変化が前記移動基準を満たさないとの判定に従って、前記第1のフレームレートよりも低い第2のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新し、前記ライブプレビューの前記更新が、前記1つ以上のカメラの前記視野内の前記検出された変化が前記移動基準を満たさないときに、第2のフレームレートで行われ、かつ前記第1のフレームレートよりも低い前記第2のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて更新される前記1つ以上のカメラの前記視野の前記表現は、前記表示デバイス上に、前記第1の輝度より視覚的に明るい第2の輝度で表示される、
手段と、
を備える、電子デバイス。
[項目141]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
カメラユーザインタフェースを表示する要求を受信することと、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することと、
前記1つ以上のカメラの前記視野内の周辺光がそれぞれの閾値を下回るときに満たされる条件を含む低光条件が満たされたとの判定に従って、前記1つ以上のカメラの前記視野の前記表現と同時に、メディアをキャプチャする要求に応じてメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、
前記低光条件が満たされなかったとの判定に従って、前記キャプチャ持続時間を調整する前記コントロールの表示をやめることと、
を含む、ことと、
を含む、方法。
[項目142]
前記キャプチャ持続時間を調整する前記コントロールを表示している間に、低光条件がもはや満たされていないというインジケーションを取得することと、
前記インジケーションを取得したことに応じて、前記表示デバイスを介して、前記キャプチャ持続時間を調整する前記コントロールを表示することを停止することと、
を更に含む、項目141に記載の方法。
[項目143]
前記キャプチャ持続時間を調整する前記コントロールを同時に表示することなく、前記1つ以上のカメラの前記視野の前記表現を表示している間に、低光条件が満たされたというインジケーションを取得することと、
前記インジケーションを取得したことに応じて、前記1つ以上のカメラの前記視野の前記表現と同時に、前記キャプチャ持続時間を調整する前記コントロールを表示することと、
を更に含む、項目141又は142に記載の方法。
[項目144]
前記低光条件は、フラッシュモードが非アクティブであるときに満たされる条件を含む、項目141から143のいずれか一項に記載の方法。
[項目145]
前記キャプチャ持続時間を調整する前記コントロールはスライダである、項目141から144のいずれか一項に記載の方法。
[項目146]
前記カメラユーザインタフェースを表示することは、
前記1つ以上のカメラの前記視野の前記表現と同時に、選択されると、前記1つ以上のカメラを使用してメディアの前記キャプチャを開始するメディアキャプチャアフォーダンスを表示することを含む、項目141から145のいずれか一項に記載の方法。
[項目147]
前記キャプチャ持続時間を調整する前記コントロールを表示している間に、第1のキャプチャ持続時間の第1のインジケーションを表示することと、
前記第1のキャプチャ持続時間から第2のキャプチャ持続時間に前記キャプチャ持続時間を調整する前記コントロールを調整する要求を受信したことに応じて、前記第1のキャプチャ持続時間の前記第1のインジケーションの表示を、前記第2のキャプチャ持続時間の第2のインジケーションの表示に置き換えることと、
を更に含む、項目146に記載の方法。
[項目148]
前記1つ以上のカメラの前記視野の前記表現は、前記1つ以上のカメラの前記視野の第1の表現であり、前記方法は、
前記第1のキャプチャ持続時間から前記第2のキャプチャ持続時間に前記キャプチャ持続時間を調整する前記コントロールを調整する前記要求を受信したことに応じて、
前記第1の表現の表示を、前記1つ以上のカメラの前記視野の第2の表現に置き換えることであって、前記第2の表現は、前記第2のキャプチャ持続時間に基づき、かつ前記第1の表現と視覚的に区別される、ことを更に含む、項目147に記載の方法。
[項目149]
前記第2のキャプチャ持続時間の前記第2のインジケーションを表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、かつ前記第2のキャプチャ持続時間が低光キャプチャモードを非アクティブ化する所定のキャプチャ持続時間に対応するとの判定に従って、前記第2のキャプチャ持続時間とは異なる持続時間に基づいて、前記1つ以上のカメラを介して、メディアのキャプチャを開始することと、
を更に含む、項目147又は148に記載の方法。
[項目150]
前記第2のキャプチャ持続時間の前記第2のインジケーションを表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、前記第2のキャプチャ持続時間に基づいて、前記1つ以上のカメラを介して、メディアのキャプチャを開始することと、
を更に含む、項目147又は148に記載の方法。
[項目151]
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記表現を表示することを停止することを更に含む、項目150に記載の方法。
[項目152]
前記キャプチャ持続時間を調整する前記コントロールは、第1の色で表示され、前記方法は、
メディアをキャプチャする前記要求を受信したことに応じて、前記第1の色とは異なる第2の色で前記キャプチャ持続時間を調整する前記コントロールを表示することを更に含む、項目150又は151に記載の方法。
[項目153]
メディアをキャプチャする前記要求を受信したことに応じて、第3のキャプチャ値の第3のインジケーションを前記第2のキャプチャ持続時間の前記第2のインジケーションに動かす第1のアニメーションを表示することと、
前記第1のアニメーションを表示した後に、前記第2のキャプチャ持続時間の前記第2のインジケーションを前記第3のキャプチャ値の前記第3のインジケーションに動かす第2のアニメーションを表示することであって、前記第2のアニメーションの持続時間は、前記第2のキャプチャ持続時間の持続時間に対応し、前記第1のアニメーションの持続時間とは異なる、ことと、
を更に含む、項目150から152のいずれか一項に記載の方法。
[項目154]
前記第1のアニメーションを表示している間に、第1の触知出力を提供することと、
前記第2のアニメーションを表示している間に、第2の触知出力を提供することと、
を更に含む、項目153に記載の方法。
[項目155]
前記メディアのキャプチャを開始した後に、前記第2のキャプチャ持続時間に基づいて前記メディアをキャプチャすることを更に含む、項目150から154のいずれか一項に記載の方法。
[項目156]
前記メディアは、前記第2のキャプチャ持続時間に基づいてキャプチャされる第1のメディアであり、前記方法は、
前記第1のメディアをキャプチャした後に、前記第2のキャプチャ持続時間に基づいて第2のメディアをキャプチャする要求を受信することと、
前記第2のキャプチャ持続時間に基づいて第2のメディアをキャプチャする前記要求を受信したことに応じて、前記第2のキャプチャ持続時間に基づいて前記第2のメディアのキャプチャを開始することと、
前記第2のキャプチャ持続時間に基づいて前記第2のメディアのキャプチャを開始した後に、前記第2のキャプチャ持続時間が経過する前に、前記第2のメディアのキャプチャを終了する要求を受信することと、
前記第2のメディアのキャプチャを終了する前記要求を受信したことに応じて、
前記第2のキャプチャ持続時間に基づく前記第2のメディアの前記キャプチャを終了することと、
前記第2のメディアのキャプチャを終了する前記要求を受信する前に前記1つ以上のカメラによってキャプチャされた視覚情報に基づいて、終了前にキャプチャされた前記第2のメディアの表現を表示することと、
を更に含む、項目155に記載の方法。
[項目157]
前記メディアは、前記第2のキャプチャ持続時間に基づいてキャプチャされる第1のメディアであり、前記方法は、
前記第1のメディアをキャプチャした後に、前記第2のキャプチャ持続時間に基づいて第3のメディアをキャプチャする要求を受信することと、
前記第2のキャプチャ持続時間に基づいて第3のメディアをキャプチャする前記要求を受信したことに応じて、前記第2のキャプチャ持続時間に基づいて前記第3のメディアのキャプチャを開始することと、
前記第2のキャプチャ持続時間に基づいて前記第3のメディアのキャプチャを開始した後に、
前記1つ以上のカメラの前記視野内の検出された変化が移動基準を上回るとの判定に従って、
前記第3のメディアの前記キャプチャを終了することと、
前記第2のメディアのキャプチャを終了する前記要求を受信する前に前記1つ以上のカメラによってキャプチャされた視覚情報に基づいて、終了前にキャプチャされた前記第3のメディアの表現を表示することと、
を更に含む、項目155又は156に記載の方法。
[項目158]
メディアをキャプチャする前記要求を受信したことに応じて、メディアをキャプチャするように要求する前記アフォーダンスの表示をメディアのキャプチャを終了するアフォーダンスの表示に置き換えることを更に含む、項目155から167のいずれか一項に記載の方法。
[項目159]
前記メディアのキャプチャを開始した後に、第1のキャプチャ時間でキャプチャされた前記第1のメディアの第1の表現を表示することと、
前記第1のメディアの前記第1の表現を表示した後に、前記第1のメディアの前記第1の表現の表示を、前記第1のキャプチャ時間の後の第2のキャプチャ時間でキャプチャされた前記第1のメディアの第2の表現の表示に置き換えることであって、前記第2の表現は、前記第1のメディアの前記第1の表現と視覚的に区別される、ことと、
を更に含む、項目155から158のいずれか一項に記載の方法。
[項目160]
前記第1のメディアの前記第1の表現の表示を前記第1のメディアの前記第2の表現の表示に前記置き換えることは、所定の期間後に行われる、項目159に記載の方法。
[項目161]
前記カメラユーザインタフェースを表示することは、低光条件が満たされたとの判定に従って、キャプチャ持続時間を調整する前記コントロールと同時に、低光キャプチャモードの状態がアクティブであることを示す低光キャプチャ状態インジケータを表示することを含み、
前記方法は、
前記低光キャプチャ状態インジケータを表示している間に、前記低光キャプチャ状態インジケータの第1の選択を受信することと、
前記低光状態キャプチャインジケータの第1の選択を受信したことに応じて、
前記低光キャプチャ状態インジケータの表示を維持している間に、前記キャプチャ持続時間を調整する前記コントロールを表示することを停止することと、
前記低光キャプチャモードの前記状態が非アクティブであることを示すように、前記低光キャプチャ状態インジケータの外観を更新することと、
を含む、項目141から160のいずれか一項に記載の方法。
[項目162]
前記カメラユーザインタフェースを表示することは、低光条件が満たされたとの判定に従って、前記低光キャプチャモードが非アクティブであることを示す前記低光キャプチャ状態インジケータを表示している間に、前記低光キャプチャ状態インジケータの第2の選択を受信することを含み、
前記方法は、
前記低光キャプチャ状態インジケータの前記第2の選択を受信したことに応じて、前記キャプチャ持続時間を調整する前記コントロールを再表示することを含む、項目161に記載の方法。
[項目163]
前記低光キャプチャ状態インジケータの前記第1の選択を受信したことに応じて、フラッシュ動作を実行しないように前記電子デバイスを構成することを含む、項目161に記載の方法。
[項目164]
前記低光条件は、前記低光キャプチャ状態インジケータが選択されるときに満たされる条件を含む、項目161から163のいずれか一項に記載の方法。
[項目165]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目141から164のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目166]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目141から164のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目167]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目141から164のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目168]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
カメラユーザインタフェースを表示する要求を受信し、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、前記表示デバイスを介して、カメラユーザインタフェースを表示する、命令を含み、前記カメラユーザインタフェースを表示することは、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することと、
前記1つ以上のカメラの前記視野内の周辺光がそれぞれの閾値を下回るときに満たされる条件を含む低光条件が満たされたとの判定に従って、前記1つ以上のカメラの前記視野の前記表現と同時に、メディアをキャプチャする要求に応じてメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、
前記低光条件が満たされなかったとの判定に従って、前記キャプチャ持続時間を調整する前記コントロールの表示をやめることと、
を含む、非一時的コンピュータ可読記憶媒体。
[項目169]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
カメラユーザインタフェースを表示する要求を受信し、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、前記表示デバイスを介して、カメラユーザインタフェースを表示する、命令を含み、前記カメラユーザインタフェースを表示することは、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することと、
前記1つ以上のカメラの前記視野内の周辺光がそれぞれの閾値を下回るときに満たされる条件を含む低光条件が満たされたとの判定に従って、前記1つ以上のカメラの前記視野の前記表現と同時に、メディアをキャプチャする要求に応じてメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、
前記低光条件が満たされなかったとの判定に従って、前記キャプチャ持続時間を調整する前記コントロールの表示をやめることと、
を含む、電子デバイス。
[項目170]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
カメラユーザインタフェースを表示する要求を受信する手段と、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することと、
前記1つ以上のカメラの前記視野内の周辺光がそれぞれの閾値を下回るときに満たされる条件を含む低光条件が満たされたとの判定に従って、前記1つ以上のカメラの前記視野の前記表現と同時に、メディアをキャプチャする要求に応じてメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、
前記低光条件が満たされなかったとの判定に従って、前記キャプチャ持続時間を調整する前記コントロールの表示をやめることと、
を含む、手段と、
を備える、電子デバイス。
[項目171]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、カメラユーザインタフェースを表示することと、
前記カメラユーザインタフェースを表示している間に、前記電子デバイスの1つ以上のセンサを介して、前記1つ以上のカメラの視野内の光量を検出することと、
前記1つ以上のカメラの前記視野内の前記光量を検出したことに応じて、
前記1つ以上のカメラの前記視野内の前記光量が、前記1つ以上のカメラの前記視野内の前記光量が所定の閾値を下回るときに満たされる基準を含む、低光環境基準を満たすとの判定に従って、前記カメラユーザインタフェース内に、
フラッシュ動作の状態を示すフラッシュ状態インジケータと、
低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、
を同時に表示することと、
前記1つ以上のカメラの前記視野内の前記光量が前記低光環境基準を満たしていないとの判定に従って、前記カメラユーザインタフェース内の前記低光キャプチャ状態インジケータの表示をやめることと、
を含む、方法。
[項目172]
前記1つ以上のカメラの前記視野内の前記光量が低光環境基準を満たし、かつ、前記フラッシュ動作がアクティブ又は非アクティブに設定されているかを自動的に判定するようにフラッシュ設定が設定されているときに満たされる基準を含む、フラッシュ動作基準が満たされているとの判定に従って、
前記フラッシュ状態インジケータは、前記フラッシュ動作の前記状態がアクティブであることを示し、
前記低光キャプチャインジケータは、前記低光キャプチャモードの前記状態が非アクティブであることを示す、項目171に記載の方法。
[項目173]
前記1つ以上のカメラの前記視野内の前記光量が低光環境基準を満たしている間に、
前記1つ以上のカメラの前記視野内の前記光量が第1の所定の範囲内にあり、かつフラッシュ設定がアクティブに設定されているとの判定に従って、
前記フラッシュ状態インジケータは、前記フラッシュ動作の前記状態がアクティブであることを示し、
前記低光キャプチャインジケータは、前記低光キャプチャモードの前記状態が非アクティブであることを示し、
前記1つ以上のカメラの前記視野内の前記光量が前記第1の所定の範囲内にあり、かつ前記フラッシュ設定がアクティブに設定されていないとの判定に従って、
前記フラッシュ状態インジケータは、前記フラッシュ動作の前記状態が非アクティブであることを示し、
前記低光キャプチャインジケータは、前記低光キャプチャモードの前記状態がアクティブであることを示す、項目171又は172に記載の方法。
[項目174]
前記1つ以上のカメラの前記視野内の前記光量が低光環境基準を満たしている間に、
前記1つ以上のカメラの前記視野内の前記光量が前記第1の所定の範囲とは異なる第2の所定の範囲内にあり、かつ前記フラッシュ設定が非アクティブに設定されているとの判定に従って、
前記フラッシュ状態インジケータは、前記フラッシュ動作の前記状態が非アクティブであることを示し、
前記低光キャプチャインジケータは、前記低光キャプチャモードの前記状態がアクティブであることを示し、
前記1つ以上のカメラの前記視野内の前記光量が前記第1の所定の範囲とは異なる前記第2の所定の範囲内にあり、かつ前記フラッシュ設定が非アクティブに設定されていないとの判定に従って、
前記フラッシュ状態インジケータは、前記フラッシュ動作の前記状態がアクティブであることを示し、
前記低光キャプチャインジケータは、前記低光キャプチャモードの前記状態が非アクティブであることを示す、項目173に記載の方法。
[項目175]
前記フラッシュ状態インジケータが表示されており、かつ前記フラッシュ動作の前記状態がアクティブであることを示し、前記低光キャプチャインジケータが表示されており、かつ前記低光キャプチャモードの前記状態が非アクティブであることを示している間に、前記フラッシュ状態インジケータの選択を受信することと、
前記フラッシュ状態インジケータの前記選択を受信したことに応じて、
前記フラッシュ動作の前記状態が非アクティブであることを示すように、前記フラッシュ状態インジケータを更新することと、
前記低光キャプチャモードの前記状態がアクティブであることを示すように、前記低光キャプチャインジケータを更新することと、
を更に含む、項目171から174のいずれか一項に記載の方法。
[項目176]
前記フラッシュ状態インジケータが表示されており、かつ前記フラッシュ動作の前記状態がアクティブであることを示し、前記低光キャプチャインジケータが表示されており、かつ前記低光キャプチャモードの前記状態が非アクティブであることを示している間に、前記低光キャプチャ状態インジケータの選択を受信することと、
前記低光キャプチャ状態インジケータの前記選択を受信したことに応じて、
前記フラッシュ動作の前記状態が非アクティブであることを示すように、前記フラッシュ状態インジケータを更新することと、
前記低光キャプチャモードの前記状態がアクティブであることを示すように、前記低光キャプチャ状態インジケータを更新することと、
を更に含む、項目171から175のいずれか一項に記載の方法。
[項目177]
前記低光キャプチャモードの前記状態がアクティブであるとの判定に従って、キャプチャ持続時間を調整するコントロールを表示することを更に含む、項目171から176のいずれか一項に記載の方法。
[項目178]
前記キャプチャ持続時間を調整する前記コントロールを表示している間に、第1のキャプチャ持続時間から第2のキャプチャ持続時間に前記コントロールを変更する要求を受信することと、
前記第1のキャプチャ持続時間から前記第2のキャプチャ持続時間に前記コントロールを変更する前記要求を受信したことに応じて、
前記第2のキャプチャ持続時間が低光キャプチャモードを非アクティブ化する所定のキャプチャ持続時間であるとの判定に従って、前記低光キャプチャモードの前記状態が非アクティブであることを示すように、前記低光キャプチャ状態インジケータを更新することと、
を更に含む、項目177に記載の方法。
[項目179]
前記キャプチャ持続時間を調整する前記コントロールを表示している間に、低光キャプチャモードの状態の変化を検出することと、
前記低光キャプチャモードの状態の前記変化を検出したことに応じて、
低光キャプチャモードの前記状態が非アクティブであるとの判定に従って、前記キャプチャ持続時間を調整する前記コントロールの表示を停止することと、
を更に含む、項目177に記載の方法。
[項目180]
前記カメラユーザインタフェース内に、前記1つ以上のカメラの前記視野の第1の表現を表示することと、
低光キャプチャモードの前記状態がアクティブである間に、前記1つ以上のカメラの前記視野の第1のメディアをキャプチャする要求を受信することと、
低光キャプチャモードの前記状態がアクティブである間に、第1のメディアをキャプチャする前記要求を受信したことに応じて、
前記第1のメディアのキャプチャを開始することと、
前記第1のメディアの前記キャプチャの持続時間にわたって前記1つ以上のカメラの前記視野の前記第1の表現の前記表示を維持することと、
を更に含む、項目171から179のいずれか一項に記載の方法。
[項目181]
低光キャプチャモードの前記状態がアクティブである間に、前記1つ以上のカメラの前記視野の第2のメディアをキャプチャする要求を受信することと、
低光キャプチャモードの前記状態がアクティブである間に第2のメディアをキャプチャする前記要求を受信したことに応じて、前記第2のメディアのキャプチャを開始することと、
前記第2のメディアをキャプチャしている間に、前記カメラユーザインタフェース内に、前記第2のメディアの表現を同時に表示することと、
を更に含む、項目171から180のいずれか一項に記載の方法。
[項目182]
前記カメラユーザインタフェース内に、前記1つ以上のカメラの前記視野の第2の表現を表示することと、
低光キャプチャモードの前記状態がアクティブである間に、前記1つ以上のカメラの前記視野の第3のメディアをキャプチャする要求を受信することと、
前記低光キャプチャモードの前記状態がアクティブである間に前記第3のメディアをキャプチャする前記要求を受信したことに応じて、前記第3のメディアのキャプチャを開始することと、
前記第3のメディアをキャプチャしている間に、前記カメラユーザインタフェース内に前記1つ以上のカメラの前記視野から導出された表現を表示することを停止することと、
を更に含む、項目171から181のいずれか一項に記載の方法。
[項目183]
前記1つ以上のカメラの前記視野内の前記光量が前記低光環境基準を満たしていないとの判定に従って、前記カメラユーザインタフェース内に、前記フラッシュ動作の前記状態を示す前記フラッシュ状態インジケータを表示することを更に含む、項目171から182のいずれか一項に記載の方法。
[項目184]
前記フラッシュ動作の前記状態及び前記低光キャプチャモードの前記状態は、互いに排他的である、項目171から183のいずれか一項に記載の方法。
[項目185]
前記低光キャプチャモードの前記状態は、アクティブ状態、利用可能状態、及び非アクティブ状態からなる群から選択される、項目171から184のいずれか一項に記載の方法。
[項目186]
前記1つ以上のカメラの前記視野内の前記光量が低光環境基準を満たしている間に、
前記1つ以上のカメラの前記視野内の前記光量が第3の所定の範囲内にあるとの判定に従って、前記フラッシュ状態インジケータは、前記フラッシュ動作の前記状態が利用可能であることを示す、項目171又は172及び174から185のいずれか一項に記載の方法。
[項目187]
前記キャプチャ持続時間を調整する前記コントロールは、前記キャプチャ持続時間を調整する第1のコントロールであり、前記方法は、
前記フラッシュ状態インジケータが、前記フラッシュ動作の前記状態が利用可能であることを示している間に、前記低光キャプチャ状態インジケータの選択を受信することと、
前記低光キャプチャ状態インジケータの選択を受信したことに応じて、
前記低光キャプチャモードの前記状態がアクティブであることを示すように、前記低光キャプチャ状態インジケータを更新することと、
キャプチャ持続時間を調整する第2のコントロールを表示することと、
を更に含む、項目186に記載の方法。
[項目188]
前記1つ以上のカメラの前記視野内の周辺光が第4の所定範囲内にあるとの判定に従って、第1の低光キャプチャ状態インジケータは、前記第1のキャプチャ持続時間の第1の視覚表現を含み、
前記1つ以上のカメラの前記視野内の周辺光が前記第4の所定の範囲内にないとの判定に従って、前記第1の低光キャプチャ状態インジケータは、前記第1のキャプチャ持続時間の前記第1の視覚表現を含まない、項目171から187のいずれか一項に記載の方法。
[項目189]
前記1つ以上のカメラの前記視野内の前記光量を検出したことに応じて、前記1つ以上のカメラの前記視野内の前記光量が低光環境基準を満たすとの前記判定に従って、
前記1つ以上のカメラの前記視野内の周辺光が第3の所定の範囲内にあるとの判定に従って、前記低光キャプチャ状態インジケータは、前記低光キャプチャモードの状態がアクティブであること、及び前記第1のキャプチャ持続時間の第2の視覚表現を含むことを示し、
前記1つ以上のカメラの前記視野内の周辺光が第4の所定の範囲内にあるとの判定に従って、前記低光キャプチャ状態インジケータは、前記低光キャプチャモードの前記状態がアクティブであることを示し、前記第1のキャプチャ持続時間の前記第2の視覚表現を含まず、
前記1つ以上のカメラの前記視野内の周辺光が第5の所定範囲内であるとの判定に従って、前記低光キャプチャ状態インジケータは、前記低光キャプチャモードの状態が利用可能であることを示し、前記低光キャプチャモードの前記状態がアクティブであることを示し、かつ前記第1のキャプチャ持続時間の前記第2の視覚表現を含む、前記低光キャプチャ状態インジケータと、前記低光キャプチャモードの前記状態がアクティブであることを示し、かつ前記第1のキャプチャ持続時間の前記第2の視覚表現を含まない、前記低光キャプチャ状態インジケータと、前記低光キャプチャモードの状態が利用可能であることを示す、前記低光キャプチャ状態インジケータとは、互いに視覚的に異なる、
ことを更に含む、項目171から188のいずれか一項に記載の方法。
[項目190]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目171から189のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目191]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目171から189のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目192]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目171から189のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目193]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記電子デバイスの1つ以上のセンサを介して、前記1つ以上のカメラの視野内の光量を検出し、
前記1つ以上のカメラの前記視野内の前記光量を検出したことに応じて、
前記1つ以上のカメラの前記視野内の前記光量が、前記1つ以上のカメラの前記視野内の前記光量が所定の閾値を下回るときに満たされる基準を含む、低光環境基準を満たすとの判定に従って、前記カメラユーザインタフェース内に、
フラッシュ動作の状態を示すフラッシュ状態インジケータと、
低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、
を同時に表示し、
前記1つ以上のカメラの前記視野内の前記光量が前記低光環境基準を満たしていないとの判定に従って、前記カメラユーザインタフェース内の前記低光キャプチャ状態インジケータの表示をやめる、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目194]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記電子デバイスの1つ以上のセンサを介して、前記1つ以上のカメラの視野内の光量を検出し、
前記1つ以上のカメラの前記視野内の前記光量を検出したことに応じて、
前記1つ以上のカメラの前記視野内の前記光量が、前記1つ以上のカメラの前記視野内の前記光量が所定の閾値を下回るときに満たされる基準を含む、低光環境基準を満たすとの判定に従って、前記カメラユーザインタフェース内に、
フラッシュ動作の状態を示すフラッシュ状態インジケータと、
低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、
を同時に表示し、
前記1つ以上のカメラの前記視野内の前記光量が前記低光環境基準を満たしていないとの判定に従って、前記カメラユーザインタフェース内の前記低光キャプチャ状態インジケータの表示をやめる、
命令を含む、電子デバイス。
[項目195]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段と、
前記カメラユーザインタフェースを表示している間に、前記電子デバイスの1つ以上のセンサを介して、前記1つ以上のカメラの視野内の光量を検出する手段と、
前記1つ以上のカメラの前記視野内の前記光量を検出したことに応じて、
前記1つ以上のカメラの前記視野内の前記光量が、前記1つ以上のカメラの前記視野内の前記光量が所定の閾値を下回るときに満たされる基準を含む、低光環境基準を満たすとの判定に従って、前記カメラユーザインタフェース内に、
フラッシュ動作の状態を示すフラッシュ状態インジケータと、
低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、
を同時に表示し、
前記1つ以上のカメラの前記視野内の前記光量が前記低光環境基準を満たしていないとの判定に従って、前記カメラユーザインタフェース内の前記低光キャプチャ状態インジケータの表示をやめる、
手段と、
を備える、電子デバイス。
[項目196]
方法であって、
表示デバイスを備える電子デバイスにおいて、
前記表示デバイス上に、メディア編集ユーザインタフェースを表示することであって、前記メディア編集ユーザインタフェースは、
視覚メディアの表現と、
前記視覚メディアの前記表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、
前記視覚メディアの前記表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、
を含む、ことと、
前記メディア編集ユーザインタフェースを表示している間に、前記第1のアフォーダンスの選択に対応する第1のユーザ入力を検出することと、
前記第1のアフォーダンスの選択に対応する前記第1のユーザ入力を検出したことに応じて、前記表示デバイス上に、前記メディア編集ユーザインタフェース内のそれぞれの位置に、前記第1の編集可能パラメータを調整する調整可能なコントロールを表示することと、
前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第1のジェスチャを検出することと、
前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出したことに応じて、前記第1のジェスチャに従って前記第1の編集可能パラメータの現在値を調整することと、
前記表示デバイス上に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、前記第2のアフォーダンスの選択に対応する第2のユーザ入力を検出することと、
前記第2のアフォーダンスの選択に対応する前記第2のユーザ入力を検出したことに応じて、前記メディア編集ユーザインタフェース内の前記それぞれの位置に、前記第2の編集可能パラメータを調整する調整可能なコントロールを表示することと、
前記第2の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第2のジェスチャを検出することと、
前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第2のジェスチャを検出したことに応じて、前記第2のジェスチャに従って前記第2の編集可能パラメータの現在値を調整することと、
を含む、方法。
[項目197]
前記第1の編集可能パラメータを調整する前記調整可能なコントロールは、第1の静的部分及び第1の可変部分を含み、
前記第2の編集可能パラメータを調整する前記調整可能なコントロールは、前記第1の静的部分及び第2の可変部分を含み、
前記メディア編集ユーザインタフェース内の前記それぞれの位置に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールを表示することは、
前記表示デバイス上に、前記メディア編集ユーザインタフェース内の前記それぞれの位置に前記第1の静的部分の表示を維持することを含む、項目196に記載の方法。
[項目198]
前記第1の編集可能パラメータを調整する前記調整可能なコントロール及び前記第2の編集可能パラメータを調整する前記調整可能なコントロールは、同じ相対位置に調整されたときに1つ以上の視覚的特徴を共有する、項目196又は197に記載の方法。
[項目199]
前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出したことに応じて、前記視覚メディアの前記表現の表示を、前記第1の編集可能パラメータの調整された現在値に基づいて調整された前記視覚メディアの調整された表現に置き換えることと、
前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第2のジェスチャを検出したことに応じて、前記視覚メディアの前記表現の表示を、前記第2の編集可能パラメータの調整された現在値に基づいて調整された前記視覚メディアの調整された表現に置き換えることと、
を更に含む、項目196から198のいずれか一項に記載の方法。
[項目200]
前記第1の編集可能パラメータは、自動調整編集可能パラメータであり、
前記第1のジェスチャに従って前記第1の編集可能パラメータの前記現在値を調整することは、前記第2の編集可能パラメータを含む複数の編集可能パラメータの現在値を調整することを含む、項目196から199のいずれか一項に記載の方法。
[項目201]
前記メディア編集ユーザインタフェースは、複数の編集可能パラメータ現在値インジケータを含み、前記複数の編集可能パラメータ現在値インジケータは、
前記視覚メディアの前記表現の前記第2の編集可能パラメータに対応する値インジケータと、
前記視覚メディアの前記表現の第3の編集可能パラメータに対応する値インジケータと、
を含み、
前記複数の編集可能パラメータの現在値を調整することは、
第3の編集可能パラメータの現在値を調整することと、
前記第2の編集可能パラメータの前記調整された現在値に基づいて、前記第2の編集可能パラメータに対応する前記値インジケータを更新することと、
前記第3の編集可能パラメータの調整された現在値に基づいて、前記第3の編集可能パラメータに対応する前記値インジケータを更新することと、
を含む、項目199に記載の方法。
[項目202]
前記メディア編集ユーザインタフェースが、前記視覚メディアの前記表現を編集する第4の編集可能パラメータに対応する第3のアフォーダンスを含まない間に、第3のユーザ入力を検出することと、
前記第3のユーザ入力を検出したことに応じて、前記第3のアフォーダンスを表示することと、
を更に含む、項目196から201のいずれか一項に記載の方法。
[項目203]
前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示し、かつ前記第3のユーザ入力を検出している間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを視覚的に抑制することを更に含む、項目202に記載の方法。
[項目204]
前記第3のユーザ入力は、前記第1の編集可能パラメータを調整する前記調整可能なコントロールが表示されている間に受信され、
前記第3のアフォーダンスを表示することは、
前記第4の編集可能パラメータが第1のタイプのパラメータであるときに満たされる基準を含む、第1の1組の基準が満たされているとの判定に従って、前記メディア編集ユーザインタフェース内の前記それぞれの位置に、前記第4の編集可能パラメータを調整する調整可能なコントロールを表示することと、
前記第1の1組の基準が満たされていないとの判定に従って、前記メディア編集ユーザインタフェース内の前記それぞれの位置に前記第4の編集可能パラメータを調整する前記調整可能なコントロールを表示することをやめることと、
を含む、項目203に記載の方法。
[項目205]
前記第1のユーザ入力は、前記第1のアフォーダンス上のタップ入力であり、前記第2のユーザ入力は、前記第2のアフォーダンス上のタップ入力である、項目196から204のいずれか一項に記載の方法。
[項目206]
前記視覚メディアの前記表現及び前記第1のアフォーダンスを表示している間に、前記視覚メディアの前記表現が前記第1の編集可能パラメータに基づいて現在調整されているかどうかの状態を示す第1の編集可能パラメータ状態インジケータを表示することと、
前記第1のアフォーダンスの選択に対応する第4のユーザ入力を検出することと、
前記第4のユーザ入力を検出したことに応じて、
前記視覚メディアの前記表現が前記第1の編集可能パラメータに基づいて現在調整されているとの判定に従って、
前記視覚メディアの前記表現が前記第1の編集可能パラメータに基づいて現在調整されていないことを示すように、前記第1の編集可能パラメータ状態インジケータを更新することと、
前記視覚メディアの前記表現の表示を、前記第1の編集可能パラメータに基づいて調整されなかった前記視覚メディアの表現に置き換えることと、
前記視覚メディアの前記表現が前記第1の編集可能パラメータに基づいて現在調整されていないとの判定に従って、
前記視覚メディアの前記表現が前記第1の編集可能パラメータの前記現在値に基づいて現在調整されていることを示すように、前記第1の編集可能パラメータ状態インジケータを更新することと、
前記視覚メディアの前記表現の表示を、前記第1の編集可能パラメータに基づいて調整された前記視覚メディアの表現に置き換えることと、
を更に含む、項目196から205のいずれか一項に記載の方法。
[項目207]
前記第1のジェスチャに従って前記第1の編集可能パラメータの前記現在値を調整することは、
前記第1の編集可能パラメータの前記現在値が前記第1の編集可能パラメータに対する所定のリセット値に対応するとの判定に従って、触知出力を生成することと、
前記第1の編集可能パラメータの前記現在値が前記第1の編集可能パラメータに対する前記所定のリセット値に対応しないとの判定に従って、触知出力を生成することをやめることと、
を含む、項目196から206のいずれか一項に記載の方法。
[項目208]
前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出している間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを視覚的に強調することを更に含む、項目196から207のいずれか一項に記載の方法。
[項目209]
第3の編集可能パラメータ現在値インジケータは、前記第1のアフォーダンスの少なくとも一部分を視覚的に包囲しており、第4の編集可能パラメータ現在値インジケータは、前記第2のアフォーダンスを視覚的に包囲している、項目196から208のいずれか一項に記載の方法。
[項目210]
前記電子デバイスは、1つ以上のカメラを含み、
前記視覚メディアの前記表現は、前記1つ又はカメラの視野の表現であり、
前記メディア編集ユーザインタフェースは、前記電子デバイスが、照明効果及び深度効果の適用を可能にする第1のキャプチャモードで視覚メディアをキャプチャするように構成されている間に表示され、
前記第1の編集可能パラメータは、照明効果強度であり、
前記第2の編集可能パラメータは、深度効果強度である、項目196から199及び202から209のいずれか一項に記載の方法。
[項目211]
前記第1の編集可能パラメータは、照明効果パラメータに対応し、
前記メディア編集ユーザインタフェースは、前記照明効果パラメータに対応する値インジケータを含み、
前記第1のジェスチャに従って前記第1の編集可能パラメータの前記現在値を調整することは、前記第1の編集可能パラメータの前記調整された現在値に基づいて、前記照明効果パラメータを調整することを含む、項目196から199及び202から209のいずれか一項に記載の方法。
[項目212]
前記第1の編集可能パラメータは、視覚フィルタ効果強度であり、
前記第1のジェスチャに従って前記第1の編集可能パラメータの前記現在値を調整することは、
視覚メディアの前記表現の表示を、前記視覚フィルタ効果強度の前記現在値に基づいて調整された前記視覚メディアの表現に置き換えることを含む、項目196から199及び202から209のいずれか一項に記載の方法。
[項目213]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目196から212のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目214]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目196から212のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目215]
電子デバイスであって、
表示デバイスと、項目196から212のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目216]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイス上に、メディア編集ユーザインタフェースであって、
視覚メディアの表現と、
前記視覚メディアの前記表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、
前記視覚メディアの前記表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、
を含むメディア編集ユーザインタフェースを表示し、
前記メディア編集ユーザインタフェースを表示している間に、前記第1のアフォーダンスの選択に対応する第1のユーザ入力を検出し、
前記第1のアフォーダンスの選択に対応する前記第1のユーザ入力を検出したことに応じて、前記表示デバイス上に、前記メディア編集ユーザインタフェース内のそれぞれの位置に、前記第1の編集可能パラメータを調整する調整可能なコントロールを表示し、
前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第1のジェスチャを検出し、
前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出したことに応じて、前記第1のジェスチャに従って前記第1の編集可能パラメータの現在値を調整し、
前記表示デバイス上に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、前記第2のアフォーダンスの選択に対応する第2のユーザ入力を検出し、
前記第2のアフォーダンスの選択に対応する前記第2のユーザ入力を検出したことに応じて、前記メディア編集ユーザインタフェース内の前記それぞれの位置に、前記第2の編集可能パラメータを調整する調整可能なコントロールを表示し、
前記第2の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第2のジェスチャを検出し、
前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第2のジェスチャを検出したことに応じて、前記第2のジェスチャに従って前記第2の編集可能パラメータの現在値を調整する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目217]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイス上に、メディア編集ユーザインタフェースであって、
視覚メディアの表現と、
前記視覚メディアの前記表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、
前記視覚メディアの前記表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、
を含むメディア編集ユーザインタフェースを表示し、
前記メディア編集ユーザインタフェースを表示している間に、前記第1のアフォーダンスの選択に対応する第1のユーザ入力を検出し、
前記第1のアフォーダンスの選択に対応する前記第1のユーザ入力を検出したことに応じて、前記表示デバイス上に、前記メディア編集ユーザインタフェース内のそれぞれの位置に、前記第1の編集可能パラメータを調整する調整可能なコントロールを表示し、
前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第1のジェスチャを検出し、
前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出したことに応じて、前記第1のジェスチャに従って前記第1の編集可能パラメータの現在値を調整し、
前記表示デバイス上に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、前記第2のアフォーダンスの選択に対応する第2のユーザ入力を検出し、
前記第2のアフォーダンスの選択に対応する前記第2のユーザ入力を検出したことに応じて、前記メディア編集ユーザインタフェース内の前記それぞれの位置に、前記第2の編集可能パラメータを調整する調整可能なコントロールを表示し、
前記第2の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第2のジェスチャを検出し、
前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第2のジェスチャを検出したことに応じて、前記第2のジェスチャに従って前記第2の編集可能パラメータの現在値を調整する、
命令を含む、電子デバイス。
[項目218]
電子デバイスであって、
表示デバイスと、
前記表示デバイス上に、メディア編集ユーザインタフェースを表示する手段であって、前記メディア編集ユーザインタフェースは、
視覚メディアの表現と、
前記視覚メディアの前記表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、
前記視覚メディアの前記表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、
を含む、手段と、
前記メディア編集ユーザインタフェースを表示している間に、前記第1のアフォーダンスの選択に対応する第1のユーザ入力を検出する手段と、
前記第1のアフォーダンスの選択に対応する前記第1のユーザ入力を検出したことに応じて、前記表示デバイス上に、前記メディア編集ユーザインタフェース内のそれぞれの位置に、前記第1の編集可能パラメータを調整する調整可能なコントロールを表示する手段と、
前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第1のジェスチャを検出する手段と、
前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出したことに応じて、前記第1のジェスチャに従って前記第1の編集可能パラメータの現在値を調整する手段と、
前記表示デバイス上に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、前記第2のアフォーダンスの選択に対応する第2のユーザ入力を検出する手段と、
前記第2のアフォーダンスの選択に対応する前記第2のユーザ入力を検出したことに応じて、前記メディア編集ユーザインタフェース内の前記それぞれの位置に、前記第2の編集可能パラメータを調整する調整可能なコントロールを表示する手段と、
前記第2の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第2のジェスチャを検出する手段と、
前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第2のジェスチャを検出したことに応じて、前記第2のジェスチャに従って前記第2の編集可能パラメータの現在値を調整する手段と、
を備える、電子デバイス。
[項目219]
方法であって、
表示デバイスを備える電子デバイスにおいて、
前記表示デバイス上に、第1のユーザインタフェースを表示することであって、
第1の視覚メディアの第1の表現と、
前記第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、
を同時に表示することを含む、
ことと、
前記表示デバイス上に、前記第1のユーザインタフェースを表示している間に、前記調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出することと、
前記調整可能なコントロールに向けられた前記ジェスチャを含む前記ユーザ入力を検出したことに応じて、
前記表示デバイス上に、前記ジェスチャの大きさに基づいて選択された前記遠近歪に対するそれぞれの調整量で前記第1の視覚メディアの第2の表現を表示することと、
を含む、方法。
[項目220]
前記第1のユーザインタフェースは、
選択されると、前記第1の視覚メディアの水平遠近歪に対する現在の調整量を示すように、前記調整可能なコントロールの前記インジケーションを更新し、かつユーザ入力に基づいて前記第1の視覚メディアの前記水平遠近歪に対する前記現在の調整量の調整を可能にするように前記調整可能なコントロールを構成する、第1のアフォーダンスと、
選択されると、前記第1の視覚メディアの垂直遠近歪に対する現在の調整量を示すように、前記調整可能なコントロールの前記インジケーションを更新し、かつユーザ入力に基づいて前記第1の視覚メディアの前記垂直遠近歪に対する前記現在の調整量の調整を可能にするように前記調整可能なコントロールを構成する、第2のアフォーダンスと、
を含む、項目219に記載の方法。
[項目221]
前記第1のアフォーダンス及び前記第2のアフォーダンスを表示している間に、選択されると、前記第1の視覚メディアの前記第1の表現内の視覚コンテンツを回転させる現在の調整量を示すように、前記調整可能なコントロールの前記インジケーションを更新する、第3のアフォーダンスを同時に表示することを更に含む、項目220に記載の方法。
[項目222]
前記遠近歪は、水平遠近歪に対応し、
前記第1の視覚メディアの前記第1の表現の水平遠近歪の量は、前記第1の視覚メディアの前記第2の表現の水平遠近歪の量とは異なる、項目219から221のいずれか一項に記載の方法。
[項目223]
前記遠近歪は、垂直遠近歪に対応し、
前記第1の視覚メディアの前記第1の表現の垂直遠近歪の量は、前記第1の視覚メディアの前記第2の表現の垂直遠近歪の量とは異なる、項目219から222のいずれか一項に記載の方法。
[項目224]
前記第1の表現は、第1の実視水平線を含み、前記方法は、
前記第1の視覚メディアの前記第1の表現が、前記第1の視覚メディアの前記第1の表現内の視覚境界部に対する回転度を含んでいる間に、前記第1の視覚メディアの前記第1の表現の前記回転度を変化させる入力を検出することと、
前記第1の視覚メディアの前記第1の表現の前記回転度を変化させる入力を検出したことに応じて、前記入力に基づいて判定された量だけ前記第1の視覚メディアの前記第1の表現を回転させることと、
を更に含む、項目219から223のいずれか一項に記載の方法。
[項目225]
前記第1の表現は、前記第1の視覚メディアの第1の視覚コンテンツを含み、前記方法は、
前記第1の視覚メディアの前記第1の表現が前記第1の視覚コンテンツを含んでいる間に、前記第1の表現の前記第1の視覚コンテンツを変化させる1組の1つ以上の入力を検出することと、
前記第1の視覚メディアの前記第1の表現の前記第1の視覚コンテンツを変化させる前記1組の1つ以上の入力を検出したことに応じて、前記第1の視覚メディアの前記第1の視覚コンテンツとは異なる前記第1の視覚メディアの第2の視覚コンテンツを含む前記第1の視覚メディアの第4の表現を表示することと、
を含む、項目219から224のいずれか一項に記載の方法。
[項目226]
前記第1のユーザインタフェースは、自動調整アフォーダンスを含み、前記方法は、
前記自動調整アフォーダンスに対応する入力を検出することと、
前記自動調整アフォーダンスに対応する前記入力を検出したことに応じて、
水平遠近歪パラメータ、垂直遠近歪パラメータ、回転パラメータからなる群から選択される前記第1の視覚メディアの2つ以上のパラメータの現在値を自動的に調整することと、
前記調整された2つ以上のパラメータの前記調整された現在値に基づいて、前記第1の視覚メディアの第5の表現を表示することと、
を更に含む、項目219から225のいずれか一項に記載の方法。
[項目227]
前記自動調整アフォーダンスを含む前記第1のユーザインタフェースを表示している間に、前記第1のユーザインタフェースとは異なる第3のユーザインタフェースを表示する要求に対応する第2の1組の1つ以上の入力を検出することと、
前記第2の1組の1つ以上の入力を検出したことに応じて、前記表示デバイス上に、第3のユーザインタフェースを表示することであって、
第2の視覚メディアの第2の視覚コンテンツの少なくとも一部分の表現を表示することと、
前記第2の視覚メディアが前記第2の視覚メディアの前記第2の視覚コンテンツの所定の空間的境界の外側にある追加の視覚コンテンツを含むとの判定に従って、前記自動調整アフォーダンスを表示することと、
前記第2の視覚メディアが前記第2の視覚メディアの前記第2の視覚コンテンツの所定の空間的境界の外側にある追加の視覚コンテンツを含まないとの判定に従って、前記自動調整アフォーダンスを表示することをやめることと、
を含む、ことと、
を更に含む、項目226に記載の方法。
[項目228]
前記第1の視覚メディアの前記第1の表現は、前記第1の視覚メディアがキャプチャされたときにまたキャプチャされた視覚コンテンツの所定の空間的境界の外側にある追加の視覚コンテンツを含まない前記第1の視覚メディアの前記視覚コンテンツの第1の部分の表現であり、
前記第1の視覚メディアの前記第2の表現は、前記第1の視覚メディアがキャプチャされたときにまたキャプチャされた前記視覚コンテンツの所定の空間的境界の外側にある前記追加の視覚コンテンツの少なくとも一部分を含む、項目219から227のいずれか一項に記載の方法。
[項目229]
前記第1の視覚メディアの前記第1の表現は、第1のアスペクト比で表示され、
前記第1のユーザインタフェースは、アスペクト比アフォーダンスを含み、
前記方法は、
前記第1の視覚メディアの前記第1の表現を表示している間に、前記アスペクト比アフォーダンスに対応するユーザ入力を検出することと、
前記アスペクト比アフォーダンスに対応する前記ユーザ入力を検出したことに応じて、前記第1のアスペクト比とは異なる第2のアスペクト比で前記第1の視覚メディアの第6の表現を表示することと、
を更に含む、項目219から228のいずれか一項に記載の方法。
[項目230]
前記第1の視覚メディアの前記第1の表現は、第1の向きで表示され、
前記第1のアスペクト比は、第1の水平アスペクト比値及び第1の垂直アスペクト比値を有し、
前記第1のユーザインタフェースは、アスペクト比アフォーダンスを含み、
前記方法は、
前記第1の視覚メディアの前記第1の表現を表示している間に、前記アスペクト比アフォーダンスに対応するユーザ入力を検出することと、
前記アスペクト比アフォーダンスに対応する前記ユーザ入力を検出したことに応じて、前記第1の視覚メディアの前記第1の表現を回転させることなく、前記第1のアスペクト比とは異なる第3のアスペクト比に対応する前記第1の視覚メディアの一部分を示す視覚的フィードバックを表示することであって、前記第3のアスペクト比は、
前記第1の垂直アスペクト比値と等しい第2の水平アスペクト比値と、
前記第1の水平アスペクト比値と等しい第2の垂直アスペクト比値と、
を有する、ことと、
を更に含む、項目229に記載の方法。
[項目231]
前記第1のユーザインタフェースを表示することは、
前記第1の視覚メディアが異なる時間に対応するコンテンツの複数のフレームを含むとの判定に従って、前記画像の遠近歪、クロッピング、及び/又は回転を調整する1つ以上のコントロールと共に、前記第1の視覚メディアに対応するコンテンツのどのフレームが表示されるかを調整する調整可能なコントロールを表示することを含む、項目219から230のいずれか一項に記載の方法。
[項目232]
視覚境界部は、前記第1の視覚メディアの第7の表現の第1の部分の周囲に表示され、前記第7の表現は、前記第1の視覚メディア内の第1の時間に対応し、
前記方法は、
前記第1の視覚メディアに対応するコンテンツのどのフレームが表示されるかを調整する前記調整可能なコントロールを表示している間に、それぞれの時間に対応する前記第1の視覚メディアの時間ベースの表現を選択する要求を検出することと、
それぞれの時間に対応する前記第1の視覚メディアの前記時間ベースの表現を選択する前記要求を検出したことに応じて、
前記第1の視覚メディア内の第2の時間に対応する前記第1の視覚メディアの第8の表現を表示することと、
前記第1の視覚メディアの前記第8の表現の第1の部分の周囲に表示される視覚境界部の表示を維持することと、
を更に含む、項目231に記載の方法。
[項目233]
前記第1の視覚メディアの前記第1の表現は、第1のズームレベルで表示され、前記方法は、
前記第1の視覚メディアの前記第1の表現を表示している間に、前記第1の視覚メディアの表現のズームレベルを変更する要求を検出することと、
前記第1の視覚メディアの前記表現の前記ズームレベルを変更する前記要求を検出したことに応じて、前記第1のズームレベルとは異なる第2のズームレベルで前記第1の視覚メディアの第9の表現を表示することと、
を更に含む、項目219から232のいずれか一項に記載の方法。
[項目234]
前記第1の視覚メディアの前記第1の表現は、第1のカメラレンズの形状及び/又は第1のカメラの位置に基づく遠近歪を含み、
前記第1の視覚メディアの前記第2の表現は、前記カメラレンズの形状及び/又は前記カメラの位置に基づく前記遠近歪を低減するように調整される、項目219から233のいずれか一項に記載の方法。
[項目235]
前記調整可能なコントロールは、遠近歪を補正するコントロールに対応し、
前記方法は、
前記調整可能なコントロールに向けられた前記ジェスチャを含む前記ユーザ入力を検出したことに応じて、前記調整可能なコントロールに向けられた前記ジェスチャの方向及び/又は大きさに従って、遠近歪の補正量を更新することを更に含む、項目219から234のいずれか一項に記載の方法。
[項目236]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目219から235及び399のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目237]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目219から235及び399のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目238]
電子デバイスであって、
表示デバイスと、項目219から235及び399のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目239]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイス上に、第1のユーザインタフェースを表示し、
第1の視覚メディアの第1の表現と、
前記第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、
を同時に表示することを含み、
前記表示デバイス上に、前記第1のユーザインタフェースを表示している間に、前記調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出し、
前記調整可能なコントロールに向けられた前記ジェスチャを含む前記ユーザ入力を検出したことに応じて、
前記表示デバイス上に、前記ジェスチャの大きさに基づいて選択された前記遠近歪に対するそれぞれの調整量で前記第1の視覚メディアの第2の表現を表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目240]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイス上に、第1のユーザインタフェースを表示し、
第1の視覚メディアの第1の表現と、
前記第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、
を同時に表示することを含み、
前記表示デバイス上に、前記第1のユーザインタフェースを表示している間に、前記調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出し、
前記調整可能なコントロールに向けられた前記ジェスチャを含む前記ユーザ入力を検出したことに応じて、
前記表示デバイス上に、前記ジェスチャの大きさに基づいて選択された前記遠近歪に対するそれぞれの調整量で前記第1の視覚メディアの第2の表現を表示する、
命令を含む、電子デバイス。
[項目241]
電子デバイスであって、
表示デバイスと、
前記表示デバイス上に、第1のユーザインタフェースを表示する手段であって、
第1の視覚メディアの第1の表現と、
前記第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、
を同時に表示することを含む、手段と、
前記表示デバイス上に、前記第1のユーザインタフェースを表示している間に、前記調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出する手段と、
前記調整可能なコントロールに向けられた前記ジェスチャを含む前記ユーザ入力を検出したことに応じて、
前記表示デバイス上に、前記ジェスチャの大きさに基づいて選択された前記遠近歪に対するそれぞれの調整量で前記第1の視覚メディアの第2の表現を表示する手段と、
を備える、電子デバイス。
[項目242]
方法であって、
表示デバイスを有する電子デバイスにおいて、
前記表示デバイスを介して、メディアキャプチャユーザインタフェースを表示することであって、
1つ以上のカメラの視野の表現を表示することを含む、ことと、
低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することであって、
前記1つ以上のカメラの前記視野内の周辺光が第1の閾値を上回るときに満たされる基準を含む、1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、
前記コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、前記第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように前記電子デバイスを構成することと、
前記1組の第1のキャプチャ持続時間基準とは異なり、かつ前記1つ以上のカメラの前記視野内の周辺光が前記第1の閾値を下回るときに満たされる基準を含む、1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、
前記コントロールが前記第1のキャプチャ持続時間よりも長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応じて、前記第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を含む、ことと、
前記低光カメラモードがアクティブである間に、かつメディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールを表示している間に、シャッターアフォーダンス上のタップ入力に対応する入力を検出することと、
前記シャッターアフォーダンス上の前記タップ入力に対応する前記入力を検出したことに応じて、複数の画像から単一の合成画像を生成することであって、
前記1つ以上のカメラの前記視野内の前記周辺光が前記第1の閾値を上回るときに前記1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、前記第1のキャプチャ持続時間にわたって第1の数の画像をキャプチャして、前記第1の数の画像を前記単一の合成画像に組み合わせることと、
前記1つ以上のカメラの前記視野内の前記周辺光が前記第1の閾値を下回るときに前記1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、前記第2のキャプチャ持続時間にわたって前記第1の数の画像よりも多い第2の数の画像をキャプチャして、前記第2の数の画像を前記単一の合成画像に組み合わせることと、
を含む、ことと、
を含む、方法。
[項目243]
(キャンセル)。
[項目244]
(キャンセル)。
[項目245]
(キャンセル)。
[項目246]
(今回補正)前記コントロールが前記第1のキャプチャ持続時間に設定されているという前記インジケーションを表示している間に、前記電子デバイスの第1の安定度を検出することと、
前記電子デバイスの前記第1の安定度を検出したことに応じて、
前記電子デバイスの前記第1の安定度が第1の安定性閾値を上回るとの判定に従って、
前記コントロールが前記第1のキャプチャ持続時間よりも長い第3のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応じて、前記第3のキャプチャ持続時間にわたって第3の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を更に含む、項目242に記載の方法。
[項目247]
前記低光カメラモードがアクティブである間に、前記低光カメラモードの状態を示し、かつ、
キャプチャ持続時間表示基準が満たされているとの判定に従って、前記第1のキャプチャ持続時間の視覚表現を含み、
キャプチャ持続時間表示基準が満たされていないとの判定に従って、前記第1のキャプチャ持続時間の前記視覚表現を含まない、
第1の低光キャプチャ状態インジケータを表示することを更に含む、項目242から246のいずれか一項に記載の方法。
[項目248]
前記キャプチャ持続時間表示基準は、前記1つ以上のカメラの前記視野内の周辺光が第1の所定の範囲内にあるときに満たされる基準を含む、項目247に記載の方法。
[項目249]
前記低光カメラモードがアクティブである前に、
前記1つ以上のカメラの前記視野内の周辺光が第2の所定の範囲内にあるとの判定に従って、前記低光カメラモードの状態がアクティブであることを示し、かつ第3のキャプチャ持続時間の視覚表現を含む、第2の低光キャプチャ状態インジケータを表示することと、
前記1つ以上のカメラの前記視野内の周辺光が第4の所定の範囲内にあるとの判定に従って、前記低光カメラモードの状態がアクティブであることを示し、かつ前記第3のキャプチャ持続時間の前記視覚表現を含まない、第3の低光キャプチャ状態インジケータを表示することと、
前記1つ以上のカメラの前記視野内の周辺光が第5の所定範囲内にあるとの判定に従って、前記低光カメラモードの状態が利用可能であることを示す第4の低光キャプチャ状態インジケータを表示することであって、前記第2の低光キャプチャ状態インジケータと、前記第3の低光キャプチャ状態インジケータと、前記第4の低光キャプチャ状態インジケータとは、互いに視覚的に異なる、ことと、
前記1つ以上のカメラの前記視野内の周辺光が第6の所定の範囲内にあるとの判定に従って、前記第2の低光キャプチャ状態インジケータ、前記第3の低光キャプチャ状態インジケータ、及び前記第4の低光キャプチャ状態インジケータを表示することをやめることと、
を更に含む、項目242及び246から248のいずれか一項に記載の方法。
[項目250]
メディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールは、
第1の推奨されるキャプチャ持続時間値に対応する第1の状態と、
第2の推奨されるキャプチャ持続時間値に対応する第2の状態と、
第3の推奨されるキャプチャ持続時間値に対応する第3の状態と、
に調整可能であるように構成されている、項目242及び246から249のいずれか一項に記載の方法。
[項目251]
メディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールを表示することは、
前記1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、前記第2の状態に調整されたメディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールを表示することであって、前記第1のキャプチャ持続時間は、前記第2の推奨されるキャプチャ持続時間値である、ことと、
前記1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、前記第2の状態に調整されたメディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールを表示することであって、前記第2のキャプチャ持続時間は、前記第2の推奨されるキャプチャ持続時間値である、ことと、
を含む、項目250に記載の方法。
[項目252]
メディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールを表示することは、
メディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールが前記第3の状態にあるとの前記判定、及び前記1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、前記第3の推奨されるキャプチャ持続時間値が、第3のキャプチャ持続時間値であり、
メディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールが前記第3の状態にあるとの前記判定、及び前記1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、前記第3の推奨されるキャプチャ持続時間値が、前記第3のキャプチャ持続時間値とは異なる第4のキャプチャ持続時間値である、
ことを含む、項目250又は251に記載の方法。
[項目253]
前記第2の推奨されるキャプチャ持続時間値は、第5のキャプチャ持続時間値であり、前記第3の推奨されるキャプチャ持続時間値は、第6のキャプチャ持続時間値であり、前記方法は、
メディアをキャプチャするキャプチャ持続時間を調整する前記コントロールを表示している間に、前記電子デバイスの現在の条件の第1の変化を検出することと、
前記電子デバイスの現在の条件の前記第1の変化を検出したことに応じて、
第1の現在の条件が第3のキャプチャ持続時間基準が満たされていることを満たすとの判定に従って、
前記第2の推奨されるキャプチャ持続時間値を、第7のキャプチャ持続時間値であって、前記第5のキャプチャ持続時間値は、前記第7のキャプチャ持続時間値とは異なる、第7のキャプチャ持続時間値に、及び、
前記第3の推奨されるキャプチャ持続時間値を、前記第6のキャプチャ持続時間値とは異なる第8のキャプチャ持続時間値に、
のうちの少なくとも1つに変更することと、
を更に含む、項目250から252のいずれか一項に記載の方法。
[項目254]
前記1組の第1のキャプチャ持続時間基準は、
前記1つ以上のカメラの前記視野内で検出された移動と、
前記電子デバイスの第2の安定度と、
からなる群から選択される1つ以上のパラメータに基づく基準を含む、項目250から253のいずれか一項に記載の方法。
[項目255]
前記メディアキャプチャユーザインタフェースを表示することは、前記1つ以上のカメラの前記視野の前記表現と同時に、メディアをキャプチャするアフォーダンスを表示することを含み、前記方法は、
メディアをキャプチャする前記アフォーダンスを表示し、かつ前記コントロールが第3のキャプチャ持続時間に設定されているという前記インジケーションを表示している間に、メディアをキャプチャする前記アフォーダンスの選択を含む第1の入力を検出することであって、メディアをキャプチャする前記アフォーダンスの選択は、前記1つ以上のカメラの前記視野に対応する画像をキャプチャする前記単一の要求に対応する、ことと、
メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応じて、前記第1のキャプチャ持続時間にわたって第4の複数の画像のキャプチャを開始することと、
を更に含む、項目250から254のいずれか一項に記載の方法。
[項目256]
前記コントロールが前記第3のキャプチャ持続時間に設定されているという前記インジケーションは、第1のインジケーションであり、
前記第1のインジケーションは、前記第3のキャプチャ持続時間に対応する前記コントロール上の第1の位置に表示され、
前記方法は、
メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応じて、前記コントロール上の前記第1の位置から前記コントロール上の第2の位置に前記第1のインジケーションを動かすアニメーションを表示することと、
前記第2の位置に前記第1のインジケーションを表示したことに応じて、前記コントロール上の前記第1の位置に前記第1のインジケーションを再表示することと、
を更に含む、項目255に記載の方法。
[項目257]
前記コントロールが前記第3のキャプチャ持続時間に設定されているという前記インジケーションは、第2のインジケーションであり、
前記第2のインジケーションは、前記第3のキャプチャ持続時間に対応する前記コントロール上の第3の位置に表示され、
前記方法は、
メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応じて、
前記コントロール上の前記第3の位置から前記コントロール上の第4の位置に前記第2のインジケーションを動かすアニメーションを表示することと、
前記アニメーションを表示している間に、前記電子デバイスの現在の条件の第2の変化を検出することと、
現在の条件の前記第2の変化を検出したことに応じて、
第2の現在の条件が第4のキャプチャ持続時間基準を満たすとの判定に従って、かつ前記第4の位置に前記第1のインジケーションを表示したことに応じて、前記第3のキャプチャ持続時間とは異なる第4のキャプチャ持続時間に対応する前記コントロール上の第5の位置に前記第2のインジケーションを表示することと、
を更に含む、項目256に記載の方法。
[項目258]
前記メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応じて、メディアをキャプチャする前記アフォーダンスの視覚外観を変更することを更に含む、項目255から257のいずれか一項に記載の方法。
[項目259]
前記メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応じて、前記メディアをキャプチャする前記アフォーダンスの表示を、前記メディアをキャプチャする前記アフォーダンスと視覚的に異なる、メディアのキャプチャを終了するアフォーダンスの表示に置き換えることを更に含む、項目255から258のいずれか一項に記載の方法。
[項目260]
前記メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応じて、前記表示デバイスを介して、前記メディアのキャプチャが開始されたときの前記電子デバイスのポーズと、メディアのキャプチャを開始した後の第1の時間における前記電子デバイスのポーズとの間の差の視覚インジケーションを表示することを更に含む、項目255から259のいずれか一項に記載の方法。
[項目261]
前記第1のキャプチャ持続時間にわたる前記第1の複数の画像のキャプチャを開始した後に、かつ前記第1のキャプチャ持続時間にわたる前記第1の複数の画像のキャプチャの終了を検出する前に、
前記第1のキャプチャ持続時間が閾値を上回るとの判定に従って、1つ以上の低光モードアニメーションを表示することと、
前記第1のキャプチャ持続時間が閾値を上回らないとの判定に従って、前記1つ以上の低光モードアニメーションを表示することをやめることと、
を更に含む、項目255に記載の方法。
[項目262]
前記メディアをキャプチャしている間に、
前記第1のキャプチャ持続時間にわたる前記第1の複数の画像のキャプチャを開始した後の第1の時間において、前記第1の時間の前に前記1つ以上のカメラによってキャプチャされた複数の画像からの少なくともなんらかのコンテンツに基づく第3の合成画像の表現を表示することと、
前記第1のキャプチャ持続時間にわたる前記第1の複数の画像のキャプチャを開始した後の第2の時間において、前記第2の時間の前に前記1つ以上のカメラによってキャプチャされた複数の画像からの少なくともなんらかのコンテンツに基づく第4の合成画像の表現を表示することであって、
前記第1の時間は、前記第2の時間とは異なり、
前記第3の合成画像の前記表現は、前記第4の合成画像の前記表現と視覚的に区別される、
ことと、
を更に含む、項目242及び246から261のいずれか一項に記載の方法。
[項目263]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目242及び246から262のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目264]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目242及び246から262のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目265]
電子デバイスであって、
表示デバイスと、
項目242及び246から262のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目266]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
1つ以上のカメラの視野の表現を表示することを含む、
前記表示デバイスを介して、メディアキャプチャユーザインタフェースを表示し、
低光カメラモードがアクティブである間に、
前記1つ以上のカメラの前記視野内の周辺光が第1の閾値を上回るときに満たされる基準を含む、1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、
コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、前記第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように前記電子デバイスを構成することと、
前記1組の第1のキャプチャ持続時間基準とは異なり、かつ前記1つ以上のカメラの前記視野内の周辺光が前記第1の閾値を下回るときに満たされる基準を含む、1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、
前記コントロールが前記第1のキャプチャ持続時間よりも長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応じて、前記第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を含む、メディアをキャプチャするキャプチャ持続時間を調整する前記コントロールを表示し、
前記低光カメラモードがアクティブである間に、かつメディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールを表示している間に、シャッターアフォーダンス上のタップ入力に対応する入力を検出し、
前記シャッターアフォーダンス上の前記タップ入力に対応する前記入力を検出したことに応じて、
前記1つ以上のカメラの前記視野内の前記周辺光が前記第1の閾値を上回るときに前記1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、前記第1のキャプチャ持続時間にわたって第1の数の画像をキャプチャして、前記第1の数の画像を単一の合成画像に組み合わせることと、
前記1つ以上のカメラの前記視野内の前記周辺光が前記第1の閾値を下回るときに前記1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、前記第2のキャプチャ持続時間にわたって前記第1の数の画像よりも多い第2の数の画像をキャプチャして、前記第2の数の画像を前記単一の合成画像に組み合わせることと、
を含む、複数の画像から前記単一の合成画像を生成する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目267]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
1つ以上のカメラの視野の表現を表示することを含む、
前記表示デバイスを介して、メディアキャプチャユーザインタフェースを表示し、
低光カメラモードがアクティブである間に、
前記1つ以上のカメラの前記視野内の周辺光が第1の閾値を上回るときに満たされる基準を含む、1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、
コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、前記第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように前記電子デバイスを構成することと、
前記1組の第1のキャプチャ持続時間基準とは異なり、かつ前記1つ以上のカメラの前記視野内の周辺光が前記第1の閾値を下回るときに満たされる基準を含む、1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、
前記コントロールが前記第1のキャプチャ持続時間よりも長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応じて、前記第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を含む、メディアをキャプチャするキャプチャ持続時間を調整する前記コントロールを表示し、
前記低光カメラモードがアクティブである間に、かつメディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールを表示している間に、シャッターアフォーダンス上のタップ入力に対応する入力を検出し、
前記シャッターアフォーダンス上の前記タップ入力に対応する前記入力を検出したことに応じて、
前記1つ以上のカメラの前記視野内の前記周辺光が前記第1の閾値を上回るときに前記1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、前記第1のキャプチャ持続時間にわたって第1の数の画像をキャプチャして、前記第1の数の画像を単一の合成画像に組み合わせることと、
前記1つ以上のカメラの前記視野内の前記周辺光が前記第1の閾値を下回るときに前記1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、前記第2のキャプチャ持続時間にわたって前記第1の数の画像よりも多い第2の数の画像をキャプチャして、前記第2の数の画像を前記単一の合成画像に組み合わせることと、
を含む、複数の画像から前記単一の合成画像を生成する、
命令を含む、電子デバイス。
[項目268]
電子デバイスであって、
表示デバイスと、
前記表示デバイスを介して、メディアキャプチャユーザインタフェースを表示する手段であって、
1つ以上のカメラの視野の表現を表示することを含む、
手段と、
低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示する手段であって、
前記1つ以上のカメラの前記視野内の周辺光が第1の閾値を上回るときに満たされる基準を含む、1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、
前記コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、前記第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように前記電子デバイスを構成することと、
前記1組の第1のキャプチャ持続時間基準とは異なり、かつ前記1つ以上のカメラの前記視野内の周辺光が前記第1の閾値を下回るときに満たされる基準を含む、1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、
前記コントロールが前記第1のキャプチャ持続時間よりも長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応じて、前記第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を含む、手段と、
前記低光カメラモードがアクティブである間に、かつメディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールを表示している間に、シャッターアフォーダンス上のタップ入力に対応する入力を検出する手段と、
前記シャッターアフォーダンス上の前記タップ入力に対応する前記入力を検出したことに応じて、複数の画像から単一の合成画像を生成する手段であって、
前記1つ以上のカメラの前記視野内の前記周辺光が前記第1の閾値を上回るときに前記1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、前記第1のキャプチャ持続時間にわたって第1の数の画像をキャプチャして、前記第1の数の画像を前記単一の合成画像に組み合わせることと、
前記1つ以上のカメラの前記視野内の前記周辺光が前記第1の閾値を下回るときに前記1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、前記第2のキャプチャ持続時間にわたって前記第1の数の画像よりも多い第2の数の画像をキャプチャして、前記第2の数の画像を前記単一の合成画像に組み合わせることと、
を含む、手段と、
を備える、電子デバイス。
[項目269]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示することと、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始することと、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、
低光モードがアクティブであるときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、前記メディアのキャプチャが開始されたときの前記電子デバイスのポーズと、メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスのポーズとの間の差の視覚インジケーションを表示することと、
を含む、方法。
[項目270]
前記1組のガイダンス基準が、閾値持続時間を上回る第1のキャプチャ持続時間にわたって複数の画像をキャプチャするように前記電子デバイスが構成されているときに満たされる基準を含む、項目269に記載の方法。
[項目271]
前記視覚インジケーションは、
前記メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズを表す第1の1組の1つ以上の形状であって、前記メディアキャプチャユーザインタフェース上の第1の位置に表示される、第1の1組の1つ以上の形状と、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの前記ポーズを表す第2の1組の1つ以上の形状であって、第2の位置に表示される、第2の1組の1つ以上の形状と、
を含む、形状の組を含む、項目269又は270に記載の方法。
[項目272]
前記第1の1組の1つ以上の形状は、第1の色を含み、
前記第2の1組の1つ以上の形状は、前記第1の色とは異なる第2の色を含む、項目271に記載の方法。
[項目273]
キャプチャを開始した後の第2の時間において、前記電子デバイスのポーズの変化を検出することと、
前記電子デバイスの前記ポーズの前記変化を検出したことに応じて、前記メディアキャプチャユーザインタフェース上の前記第2の位置とは異なる前記メディアキャプチャユーザインタフェース上の第3の位置に前記第2の1組の1つ以上の形状を表示することと、
を更に含む、項目271又は272に記載の方法。
[項目274]
前記電子デバイスの前記ポーズの前記変化を検出したことに応じて、
前記第1の1組の1つ以上の形状の前記第1の位置と前記第2の1組の1つ以上の形状の第3の位置との間の差が第1の閾値差内にあるとの判定に従って、前記第1の1組の1つ以上の形状又は前記第2の1組の1つ以上の形状のうちの少なくとも1つの表示をやめることと、
前記第1の1組の1つ以上の形状の前記第1の位置と、前記第2の1組の1つ以上の形状の第3の位置との間の差が、第1の閾値差内にないとの判定に従って、前記第1の1組の1つ以上の形状又は前記第2の1組の1つ以上の形状の表示を維持することと、
を更に含む、項目271から273のいずれか一項に記載の方法。
[項目275]
キャプチャを開始した後の第2の時間において、前記電子デバイスのポーズの変化を検出することと、
前記電子デバイスの前記ポーズの前記変化を検出したことに応じて、
前記メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと、前記メディアのキャプチャを開始した後の前記第2の時間における前記電子デバイスのポーズとの間の差が、第2の閾値差内にあるとの判定に従って、触知出力を生成することと、
前記メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと、メディアのキャプチャを開始した後の前記第2の時間における前記電子デバイスのポーズとの間の差が、前記第2の閾値差内にないとの判定に従って、前記触知出力を生成することをやめることと、
を更に含む、項目269から274のいずれか一項に記載の方法。
[項目276]
1組のガイダンス基準が満たされているとの判定に従って、
メディアをキャプチャしている間に、前記電子デバイスを安定化させる要求に対応する表現を表示することを更に含む、項目269から275のいずれか一項に記載の方法。
[項目277]
前記1組のガイダンス基準が満たされていないとの判定に従って、前記表示デバイスを介して、前記差の前記視覚インジケーションを表示することをやめることを更に含む、項目269から276のいずれか一項に記載の方法。
[項目278]
前記視覚インジケーションは、前記第1の時間に表示され、前記方法は、
前記第1の時間とは異なる第3の時間において、前記メディアの前記キャプチャの終了を検出することと、
前記メディアの前記キャプチャの前記終了を検出したことに応じて、前記表示デバイスを介して、前記視覚インジケーションを表示することをやめることと、
を更に含む、項目269から277のいずれか一項に記載の方法。
[項目279]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目269から278のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目280]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目269から278のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目281]
電子デバイスであって、
表示デバイスと、項目269から278のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目282]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示し、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信し、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始し、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、
低光モードがアクティブであるときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、前記メディアのキャプチャが開始されたときの前記電子デバイスのポーズと、メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスのポーズとの間の差の視覚インジケーションを表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目283]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示し、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信し、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始し、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、
低光モードがアクティブであるときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、前記メディアのキャプチャが開始されたときの前記電子デバイスのポーズと、メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスのポーズとの間の差の視覚インジケーションを表示する、
命令を含む、電子デバイス。
[項目284]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示する手段と、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信する手段と、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始する手段と、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、
低光モードがアクティブであるときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、前記メディアのキャプチャが開始されたときの前記電子デバイスのポーズと、メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスのポーズとの間の差の視覚インジケーションを表示する手段と、
を備える、電子デバイス。
[項目285]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、
前記第1の領域の外側にあり、かつ前記第1の領域と視覚的に区別される第2の領域と、を含み、
前記1つ以上のカメラの前記視野内の第1のそれぞれのオブジェクトが前記1つ以上のカメラから第1の距離であるときに満たされる基準を含む、1組の第1のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の第2の部分を第1の視覚外観で表示することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第2の距離であるときに満たされる基準を含み、かつ前記第2の距離が、前記第1の距離よりも短い、1組の第2のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることと、
を含む、ことを含む、方法。
[項目286]
前記第2の領域は、複数のカメラ設定を制御する複数のコントロールアフォーダンスを含む、項目285に記載の方法。
[項目287]
前記電子デバイスは、前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトに焦点を合わせるように構成されており、前記方法は、
前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示している間に、前記電子デバイスの焦点設定を調整する第1の要求を受信することと、
前記電子デバイスの前記焦点設定を調整する前記第1の要求を受信したことに応じて、前記1つ以上のカメラの前記視野内の第2のそれぞれのオブジェクトに焦点を合わせるように前記電子デバイスを構成することと、
前記1つ以上のカメラの前記視野内の前記第2のそれぞれのオブジェクトに焦点を合わせるように前記電子デバイスが構成されている間に、
前記1つ以上のカメラの前記視野内の前記第2のそれぞれのオブジェクトが前記1つ以上のカメラからの第3の距離であるときに満たされる基準を含む、1組の第3のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることと、
を更に含む、項目285又は286に記載の方法。
[項目288]
前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示している間に、前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトと前記1つ以上のカメラとの間の距離の第1の変化を検出することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトと前記1つ以上のカメラとの間の距離の前記第1の変化を検出したことに応じて、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第4の距離であるときに満たされる基準を含む、1組の第4のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることと、
を更に含む、項目285から287のいずれか一項に記載の方法。
[項目289]
前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることは、
前記第2の領域内に、前記第2の領域内に以前に表示されていた前記1つ以上のカメラの前記視野の第3の部分の少なくとも一部を表示することを停止することを含む、項目285から288のいずれか一項に記載の方法。
[項目290]
前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることは、前記第2の領域上に重ね合わされた第1の黒化層の不透明度を増大させることを含む、項目285から289のいずれか一項に記載の方法。
[項目291]
前記電子デバイスは、前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトに焦点を合わせるように構成されており、前記方法は、
前記1つ以上のカメラの前記視野の前記第2の部分が前記第1の視覚外観で表示されていない間に、前記電子デバイスの焦点設定を調整する第2の要求を受信することと、
前記電子デバイスの前記焦点設定を調整する前記第2の要求を受信したことに応じて、前記1つ以上のカメラの前記視野内の第3のそれぞれのオブジェクトに焦点を合わせるように前記電子デバイスを構成することと、
前記1つ以上のカメラの前記視野内の前記第3のそれぞれのオブジェクトに焦点を合わせるように前記電子デバイスが構成されている間に、
前記1つ以上のカメラの前記視野内の前記第3のそれぞれのオブジェクトが前記1つ以上のカメラから第5の距離であるときに満たされる基準を含む、1組の第5のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することと、
を更に含む、項目285から290のいずれか一項に記載の方法。
[項目292]
前記1つ以上のカメラの前記視野の前記第2の部分が前記第1の視覚外観で表示されていない間に、前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトと前記1つ以上のカメラとの間の距離の第2の変化を検出することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトと前記1つ以上のカメラとの間の前記距離の前記第2の変化を検出したことに応じて、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第6の距離であるときに満たされる基準を含む、1組の第6のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することと、
を更に含む、項目285から291のいずれか一項に記載の方法。
[項目293]
前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することは、前記第2の領域内に、前記第2の領域内に以前に表示されなかった前記1つ以上のカメラの前記視野の第4の部分を表示することを含む、項目285から292のいずれか一項に記載の方法。
[項目294]
前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することは、前記第2の領域上に重ね合わされた第2の黒化層の不透明度を減少させることを含む、項目285から293のいずれか一項に記載の方法。
[項目295]
前記第1の視覚外観は、第1の視覚プロミネンスを含み、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することは、
前記1つ以上のカメラの前記視野の前記第2の部分を第2の視覚外観から前記第1の視覚外観に漸進的に遷移させるアニメーションを表示することであって、前記第2の視覚外観は、前記第1の視覚プロミネンスとは異なる第2の視覚プロミネンスを有する、ことを含む、項目285から294のいずれか一項に記載の方法。
[項目296]
前記第1の部分は、前記第1の視覚外観とは異なる第3の視覚外観で表示され、
前記方法は、
前記第1の部分が前記第3の視覚外観で表示され、かつ前記1つ以上のカメラの前記視野の前記第2の部分が前記第1の視覚外観で表示されている間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャすることであって、前記メディアは、前記1つ以上のカメラの前記視野の前記第1の部分からのコンテンツ及び前記1つ以上のカメラの前記視野の前記第2の部分からのコンテンツを含む、ことと、
前記1つ以上のカメラの前記視野に対応する前記メディアをキャプチャした後に、前記1つ以上のカメラの前記視野の前記第1の部分からのコンテンツ及び前記1つ以上のカメラの前記視野の前記第2の部分からのコンテンツを含む、前記メディアの表現を表示することと、
を更に含む、項目285に記載の方法。
[項目297]
前記第2の領域の少なくとも第1の部分は、前記第1の領域の上方にある、項目285から296のいずれか一項に記載の方法。
[項目298]
前記第2の領域の少なくとも第2の部分は、前記第2の領域の下方にある、項目285から297のいずれか一項に記載の方法。
[項目299]
前記カメラユーザインタフェース上の位置での入力を受信することと、
前記カメラユーザインタフェース上の前記位置での前記入力を受信したことに応じて、
前記入力の前記位置が前記第1の領域内にあるとの判定に従って、前記入力の前記位置に焦点を合わせるように前記電子デバイスを構成することと、
前記入力の前記位置が前記第2の領域内にあるとの判定に従って、前記入力の前記位置に焦点を合わせるように前記電子デバイスを構成することをやめることと、
を更に含む、項目285から298のいずれか一項に記載の方法。
[項目300]
前記第1の視覚外観で表示されるとき、前記第2の領域は、前記第1領域と視覚的に区別される、項目285から299のいずれか一項に記載の方法。
[項目301]
前記1組の第1のそれぞれの基準は、前記第1のそれぞれのオブジェクトが前記1つ以上のカメラの前記視野内で識別された最も近いオブジェクトであるときに満たされる基準を含む、項目285から300のいずれか一項に記載の方法。
[項目302]
前記1組の第1のそれぞれの基準は、前記第1のそれぞれのオブジェクトが前記1つ以上のカメラの前記視野内の焦点の位置にあるときに満たされる基準を含む、項目285から301のいずれか一項に記載の方法。
[項目303]
前記第1の領域は、境界部によって前記第2の領域から分離され、
前記1組の第1のそれぞれの基準は、前記境界部に隣接する検出された視覚的引裂きが視覚的引裂きの閾値レベルを上回るときに満たされる基準を含む、項目285から302のいずれか一項に記載の方法。
[項目304]
前記1組の第1のそれぞれの基準は、前記1つ以上のカメラの前記視野の前記第1の部分が第1のカメラの視野の一部分であるときに満たされる基準を含み、
前記1組の第2のそれぞれの基準は、前記1つ以上のカメラの前記視野の前記第2の部分が第2のカメラの視野の一部分であるときに満たされる基準を含む、項目285から303のいずれか一項に記載の方法。
[項目305]
前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャすることであって、前記メディアは、前記1つ以上のカメラの前記視野の前記第1の部分からのコンテンツ及び前記1つ以上のカメラの前記視野の前記第2の部分からのコンテンツを含む、ことと、
前記メディアをキャプチャした後に、前記キャプチャされたメディアを編集する要求を受信することと、
前記キャプチャされたメディアを編集する前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記第1の部分からの前記コンテンツの少なくとも一部及び前記1つ以上のカメラの前記視野の前記第2の部分からの前記コンテンツの少なくとも一部を含む、前記キャプチャされたメディアの表現を表示することと、
を更に含む、項目285から304のいずれか一項に記載の方法。
[項目306]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目285から305のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目307]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目285から305のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目308]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目285から305のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目309]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、
前記第1の領域の外側にあり、かつ前記第1の領域と視覚的に区別される第2の領域と、を含むカメラユーザインタフェースであって、
前記1つ以上のカメラの前記視野内の第1のそれぞれのオブジェクトが前記1つ以上のカメラから第1の距離であるときに満たされる基準を含む、1組の第1のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の第2の部分を第1の視覚外観で表示することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第2の距離であるときに満たされる基準を含み、かつ前記第2の距離が、前記第1の距離よりも短い、1組の第2のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることと、
を含む、
カメラユーザインタフェースを表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目310]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、
前記第1の領域の外側にあり、かつ前記第1の領域と視覚的に区別される第2の領域と、
を含むカメラユーザインタフェースであって、
前記1つ以上のカメラの前記視野内の第1のそれぞれのオブジェクトが前記1つ以上のカメラから第1の距離であるときに満たされる基準を含む、1組の第1のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の第2の部分を第1の視覚外観で表示することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第2の距離であるときに満たされる基準を含み、かつ前記第2の距離が、前記第1の距離よりも短い、1組の第2のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることと、
を含む、
カメラユーザインタフェースを表示する、
命令を含む、電子デバイス。
[項目311]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、
前記第1の領域の外側にあり、かつ前記第1の領域と視覚的に区別される第2の領域と、を含み、
前記1つ以上のカメラの前記視野内の第1のそれぞれのオブジェクトが前記1つ以上のカメラから第1の距離であるときに満たされる基準を含む、1組の第1のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の第2の部分を第1の視覚外観で表示することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第2の距離であるときに満たされる基準を含み、かつ前記第2の距離が、前記第1の距離よりも短い、1組の第2のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることと、
を含む、
手段と、
を備える、電子デバイス。
[項目312]
方法であって、
表示デバイスと、視野を有する第1のカメラと、前記第1のカメラの前記視野よりも広い視野を有する第2のカメラとを有する電子デバイスにおいて、
前記表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、
前記第1のズームレベルでの前記第1のカメラの前記視野の第1の部分の表現を含む第1の領域と、
前記第1のズームレベルでの前記第2のカメラの前記視野の第1の部分の表現を含む第2の領域と、
を含む、ことと、
前記表示デバイスを介して、前記第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の前記表現を含む前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第2のズームレベルまで上げる第1の要求を受信することと、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第2のズームレベルまで上げる前記第1の要求を受信したことに応じて、
前記第1の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第1の部分の少なくともサブセットを除外する前記第1のカメラの前記視野の第2の部分の表現を表示することと、
前記第2の領域において、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットと重なり合う前記第2のカメラの前記視野の第2の部分の表現を表示することと、
を含む、方法。
[項目313]
前記第2のカメラの前記視野の前記第1の部分は、前記第2のカメラの前記視野の前記第2の部分とは異なる、項目312に記載の方法。
[項目314]
前記第1の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第2の部分の前記表現を表示し、かつ前記第2の領域において、前記第2のズームレベルで、前記第2のカメラの前記視野の前記第2の部分の前記表現を表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第3のズームレベルまで上げる第2の要求を受信することと、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第3のズームレベルまで上げる前記第2の要求を受信したことに応じて、
前記第3のズームレベルが第1のズーム値範囲内にあるとの判定に従って、
前記第1の領域において、前記第3のズームレベルで、前記第1のカメラの前記視野の第3の部分の表現を表示することと、
前記第2の領域において、前記第3のズームレベルで、前記第1のカメラの前記視野の第4の部分の表現を表示することと、
を更に含む、項目312又は313に記載の方法。
[項目315]
前記第1の領域において、前記第3のズームレベルで、前記第1のカメラの前記視野の前記第3の部分の前記表現を表示し、かつ前記第2の領域において、前記第3のズームレベルで、前記第1のカメラの前記視野の前記第4の部分の前記表現を表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第4のズームレベルまで上げる第3の要求を受信することと、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第4のズームレベルまで上げる前記第3の要求を受信したことに応じて、
前記第4のズームレベルが第2のズーム値範囲内にあるとの判定に従って、
前記第1の領域において、前記第4のズームレベルで、第3のカメラの前記視野の第3の部分の少なくともサブセットを除外する前記第3のカメラの前記視野の第5の部分の表現を表示することと、
前記第2の領域において、前記第3のカメラの前記視野の前記第5の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第4のズームレベルで、前記第3のカメラの前記視野の前記第5の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットと重なり合う前記第1のカメラの前記視野の第5の部分の表現を表示することと、
を更に含む、項目314に記載の方法。
[項目316]
前記第1の領域において、前記第4のズームレベルで、前記第3のカメラの前記視野の前記第3の部分の少なくとも前記サブセットを除外する前記第3のカメラの前記視野の前記第5の部分の前記表現を表示し、かつ前記第2の領域において、前記第3のカメラの前記視野の前記第5の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットの前記表現を表示することなく、前記第2の領域において、前記第4のズームレベルで、前記第3のカメラの前記視野の前記第5の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットと重なり合う前記第1のカメラの前記視野の前記第5の部分の前記表現を表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第5のズームレベルまで上げる第4の要求を受信することと、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第5のズームレベルまで上げる前記第4の要求受信したことに応じて、
前記第5のズームレベルが第3のズーム値範囲内にあるとの判定に従って、
前記第1の領域において、前記第5のズームレベルで、前記第3のカメラの前記視野の第6の部分の表現を表示することと、
前記第2の領域において、前記第5のズームレベルで、前記第3のカメラの前記視野の第7の部分の表現を表示することと、
を更に含む、項目315に記載の方法。
[項目317]
前記第1の領域において、前記第5のズームレベルで、前記第3のカメラの前記視野の前記第6の部分の前記表現を表示し、かつ前記第2の領域において、前記第5のズームレベルで、前記第3のカメラの前記視野の前記第7の部分の前記表現を表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第6のズームレベルまで下げる第1の要求を受信することと、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第6のズームレベルまで下げる前記第1の要求を受信したことに応じて、
前記第6のズームレベルが前記第2の領域内に表示するために第4のズーム値範囲内にあるとの判定に従って、
前記第1の領域において、前記第6のズームレベルで、前記第3のカメラの前記視野の前記第3の部分の少なくともサブセットを除外する前記第3のカメラの前記視野の第8の部分の表現を表示することと、
前記第2の領域において、前記第3のカメラの前記視野の前記第8の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第6のズームレベルで、前記第3のカメラの前記視野の前記第8の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットと重なり合う前記第1のカメラの前記視野の第8の部分の表現を表示することと、
を更に含む、項目316に記載の方法。
[項目318]
前記第1の領域において、前記第1のカメラの前記視野の前記第8の部分の少なくとも前記サブセットの前記表現を表示することなく、前記第1の領域において、前記第6のズームレベルで、前記第1のカメラの前記視野の前記第8の部分の少なくともサブセットと重なり合う前記第3のカメラの前記視野の前記第8の部分の前記表現を表示し、かつ前記第2の領域において、前記第6のズームレベルで、前記第1のカメラの前記視野の前記第8の部分の少なくとも前記サブセットを除外する前記第1のカメラの前記視野の前記第8の部分の前記表現を表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第7のズームレベルまで下げる第2の要求を受信することと、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第7のズームレベルまで下げる前記第2の要求を受信したことに応じて、
前記第7のズームレベルが第5のズーム値範囲内にあるとの判定に従って、
前記第1の領域において、前記第7のズームレベルで、前記第1のカメラの前記視野の第9の部分の表現を表示することと、
前記第2の領域において、前記第7のズームレベルで、前記第1のカメラの前記視野の第10の部分の表現を表示することと、
を更に含む、項目317に記載の方法。
[項目319]
前記第2の領域は、複数のカメラ設定を制御する複数のコントロールアフォーダンスを含む、項目312から318のいずれか一項に記載の方法。
[項目320]
前記カメラユーザインタフェース上の位置での入力を受信することと、
前記カメラユーザインタフェース上の前記位置での前記入力を受信したことに応じて、
前記入力の前記位置が前記第1の領域内にあるとの判定に従って、前記入力の前記位置に焦点を合わせるように前記電子デバイスを構成することと、
前記入力の前記位置が前記第2の領域内にあるとの判定に従って、前記入力の前記位置に焦点を合わせるように前記電子デバイスを構成することをやめることと、
を更に含む、項目312から319のいずれか一項に記載の方法。
[項目321]
前記表示デバイスを介して、前記第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の前記表現を含む前記カメラユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャすることであって、前記メディアは、前記第1のズームレベルでの前記第1のカメラの前記視野の前記第1の部分からのコンテンツ及び前記第1のズームレベルでの前記第2のカメラの前記視野の前記第1の部分からのコンテンツを含む、ことと、
前記メディアをキャプチャした後に、前記キャプチャされたメディアを編集する要求を受信することと、
前記キャプチャされたメディアを編集する前記要求を受信したことに応じて、前記第1のズームレベルでの前記第1のカメラの前記視野の前記第1の部分からの前記コンテンツの少なくとも一部及び前記第1のズームレベルでの前記第2のカメラの前記視野の前記第1の部分からの前記コンテンツの少なくとも一部を含む、前記キャプチャされたメディアの表現を表示することと、
を更に含む、項目312に記載の方法。
[項目322]
表示デバイスと、視野を有する第1のカメラと、前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目312から321のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目323]
電子デバイスであって、
表示デバイスと、
視野を有する第1のカメラと、
前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目312から321のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目324]
電子デバイスであって、
表示デバイスと、
視野を有する第1のカメラと、
前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、項目312から321のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目325]
表示デバイスと、視野を有する第1のカメラと、前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースであって、
前記第1のズームレベルでの前記第1のカメラの前記視野の第1の部分の表現を含む第1の領域と、
前記第1のズームレベルでの前記第2のカメラの前記視野の第1の部分の表現を含む第2の領域と、
を含む、カメラユーザインタフェースを表示し、
前記表示デバイスを介して、前記第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の前記表現を含む前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第2のズームレベルまで上げる第1の要求を受信し、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第2のズームレベルまで上げる前記第1の要求を受信したことに応じて、
前記第1の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第1の部分の少なくともサブセットを除外する前記第1のカメラの前記視野の第2の部分の表現を表示し、
前記第2の領域において、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットと重なり合う前記第2のカメラの前記視野の第2の部分の表現を表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目326]
電子デバイスであって、
表示デバイスと、
視野を有する第1のカメラと、
前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースであって、
前記第1のズームレベルでの前記第1のカメラの前記視野の第1の部分の表現を含む第1の領域と、
前記第1のズームレベルでの前記第2のカメラの前記視野の第1の部分の表現を含む第2の領域と、
を含む、カメラユーザインタフェースを表示し、
前記表示デバイスを介して、前記第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の前記表現を含む前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第2のズームレベルまで上げる第1の要求を受信し、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第2のズームレベルまで上げる前記第1の要求を受信したことに応じて、
前記第1の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第1の部分の少なくともサブセットを除外する前記第1のカメラの前記視野の第2の部分の表現を表示し、
前記第2の領域において、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットと重なり合う前記第2のカメラの前記視野の第2の部分の表現を表示する、
命令を含む、電子デバイス。
[項目327]
電子デバイスであって、
表示デバイスと、
視野を有する第1のカメラと、
前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、
1つ以上のカメラと、
前記表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、
前記第1のズームレベルでの前記第1のカメラの前記視野の第1の部分の表現を含む第1の領域と、
前記第1のズームレベルでの前記第2のカメラの前記視野の第1の部分の表現を含む第2の領域と、
を含む、手段と、
前記表示デバイスを介して、前記第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の前記表現を含む前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第2のズームレベルまで上げる第1の要求を受信する手段と、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第2のズームレベルまで上げる前記第1の要求を受信したことに応じて、
前記第1の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第1の部分の少なくともサブセットを除外する前記第1のカメラの前記視野の第2の部分の表現を表示し、
前記第2の領域において、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットと重なり合う前記第2のカメラの前記視野の第2の部分の表現を表示する、
手段と、
を備える、電子デバイス。
[項目328]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、複数のズームアフォーダンスを含み、前記複数のズームアフォーダンスは、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、ことと、
前記複数のズームアフォーダンスを表示している間に、前記複数のズームアフォーダンスのうちの1つに向けられた第1のジェスチャを受信することと、
前記第1のジェスチャを受信したことに応じて、
前記第1のジェスチャが前記第1のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第2のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示することと、
前記第1のジェスチャが前記第2のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、前記第1のズームレベル及び前記第2のズームレベルとは異なる第3のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示することと、
を含む、方法。
[項目329]
前記第1のジェスチャが前記第1のズームアフォーダンスに向けられた前記ジェスチャであるとの前記判定に従って、前記第2のズームアフォーダンスの視覚特性を維持し、前記第1のズームアフォーダンスの視覚特性を変更することと、
前記第1のジェスチャが前記第2のズームアフォーダンスに向けられた前記ジェスチャであるとの前記判定に従って、前記第1のズームアフォーダンスの前記視覚特性を維持し、前記第2のズームアフォーダンスの前記視覚特性を変更することと、
を更に含む、項目328に記載の方法。
[項目330]
前記第1のズームアフォーダンスの前記視覚特性を変更することは、
第1のサイズから第2のサイズに前記第1のズームアフォーダンスのサイズを変更することであって、前記第1のズームアフォーダンスの前記第2のサイズは、前記第2のズームアフォーダンスの現在のサイズとは異なる、こと、及び
第1の色から第2の色に前記第1のズームアフォーダンスの色を変更することであって、前記第1のズームアフォーダンスの前記第2の色は、前記第2のズームアフォーダンスの現在の色とは異なる、こと、
のうちの1つ以上を含む、項目329に記載の方法。
[項目331]
前記第2のズームレベルで、前記1つ以上のカメラの前記視野の少なくとも前記一部分の前記第2の表現を表示している間に、前記第1のズームアフォーダンスに向けられた第2のジェスチャを受信することと、
前記第1のズームアフォーダンスに向けられた前記第2のジェスチャを受信したことに応じて、
前記第1のズームアフォーダンスが第1のそれぞれの基準を満すことが満たされているとの判定に従って、第4のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第4の表現を表示することと、
前記第1のズームアフォーダンスが第2のそれぞれの基準を満すとの判定に従って、
前記第4のズームレベルで、前記1つ以上のカメラの前記視野の少なくとも前記一部分の前記第4の表現を表示することをやめることと、
前記第2のズームレベルで、前記1つ以上のカメラの前記視野の前記一部分の前記第2の表現の表示を維持することと、
を更に含む、項目328から330のいずれか一項に記載の方法。
[項目332]
前記第1のジェスチャは、第1のタイプのジェスチャであり、前記方法は、
前記第1のズームアフォーダンスに向けられた第3のジェスチャを受信することであって、前記第3のジェスチャは、前記第1のタイプのジェスチャとは異なる第2のタイプのジェスチャである、ことと、
前記第1のズームアフォーダンスに向けられた前記第3のジェスチャを受信したことに応じて、第1の現在表示されている表現のズームレベルを変更するコントロールを表示することであって、前記第1の現在表示されている表現の前記ズームレベルを変更するための前記コントロールは、前記第1の現在表示されている表現の現在のズームレベルの第1のインジケーションを含む、ことと、
前記第1の現在表示されている表現の前記ズームレベルを変更するための前記コントロールを表示している間に、前記ズームレベルを変更するための前記コントロールに向けられた第4のジェスチャを受信することと、
前記ズームレベルを変更するための前記コントロールに向けられた前記第4のジェスチャを受信したことに応じて、
前記ズームレベルを変更するための前記コントロール上に第5のズームレベルの第2のインジケーションを表示することと、
前記第5のズームレベルで、前記1つ以上のカメラの前記視野の第4の表現を表示することと、
を更に含む、項目328から331のいずれか一項に記載の方法。
[項目333]
前記第1の現在表示されている表現の前記ズームレベルの前記第1のインジケーションは、前記第1の現在表示されている表現の前記ズームレベルを変更するための前記コントロール上の選択されたズームレベルに対応する位置に表示される、項目332に記載の方法。
[項目334]
前記第1の現在表示されている表現の前記ズームレベルを変更するための前記コントロールは、回転可能なユーザインタフェース要素である、項目332又は333に記載の方法。
[項目335]
前記第1の現在表示されている表現の前記ズームレベルを変更するための前記コントロールを表示することは、前記複数のズームアフォーダンスの表示を、前記第1の現在表示されている表現の前記ズームレベルを変更ためのする前記コントロールの前記表示に置き換えることを含む、項目332から334のいずれか一項に記載の方法。
[項目336]
前記第3のジェスチャは、第1の方向の移動を含み、
前記第4のジェスチャは、前記第1の方向とは異なる第2の方向の移動を含む、項目332から335のいずれか一項に記載の方法。
[項目337]
前記ズームレベルを変更するための前記コントロールに向けられた前記第4のジェスチャを受信した後に、前記第4のジェスチャのリフトオフを検出することと、
前記第4のジェスチャのリフトオフを検出した後に、
所定の時間枠内で前記ズームレベルを変更するための前記コントロールに向けられたジェスチャがないとの判定に従って、前記ズームレベルを変更するための前記コントロールを表示することを停止することと、
を更に含む、項目332から336のいずれか一項に記載の方法。
[項目338]
前記第1の現在表示されている表現の前記ズームレベルを変更するための前記コントロールを表示することは、
調整可能なコントロール上に複数の視覚インジケータを同時に表示することであって、前記複数のズームアフォーダンスに対応する前記複数のズームレベルのそれぞれのズームレベルは、前記複数の視覚インジケータの異なる対応する視覚インジケータによって表される、ことを含む、項目332から337のいずれか一項に記載の方法。
[項目339]
前記第1のジェスチャを受信したことに応じて、
前記第1のジェスチャが前記複数のズームアフォーダンスのうちの少なくとも1つに向けられておらず、かつ前記第1の表現の第1の部分に向けられているとの判定に従って、前記第1のジェスチャの位置に焦点を合わせるように前記電子デバイスを構成することを更に含む、項目328から338のいずれか一項に記載の方法。
[項目340]
前記第1のジェスチャを受信したことに応じて、
前記第1のジェスチャが前記複数のズームアフォーダンスのうちの少なくとも1つに向けられておらず、かつ前記第1の表現の第2の部分に向けられているとの判定に従って、前記第1のジェスチャの位置に焦点を合わせるように前記電子デバイスを構成することをやめることを更に含む、項目328から339のいずれか一項に記載の方法。
[項目341]
前記1つ以上のカメラの前記視野の少なくとも前記一部分の前記第2の表現は、前記1つ以上のカメラの第1のカメラの前記視野の少なくとも一部分の表現であり、
前記1つ以上のカメラの前記視野の少なくとも前記一部分の前記第3の表現は、前記1つ以上のカメラの第2のカメラの前記視野の少なくとも一部分の表現であり、
前記第1のカメラは、前記第2のカメラとは異なる、項目328から340のいずれか一項に記載の方法。
[項目342]
前記第2のズームレベルで、前記1つ以上のカメラの前記視野の少なくとも前記一部分の前記第2の表現を表示することは、
前記第2のズームレベルが第6のズームレベルであるとの判定に従って、前記第2の表現の一部分を第1の視覚外観で表示することと、
前記第2のズームレベルが前記第6のズームレベルとは異なる第7のズームレベルであるとの判定に従って、前記第2の表現の一部分を前記第1の視覚外観とは異なる第2の視覚外観で表示することと、
を含む、項目328から341のいずれか一項に記載の方法。
[項目343]
前記複数のズームアフォーダンスは、第3のズームアフォーダンスを含み、
前記方法は、
第2の現在表示されている表現のズームレベルを変更する要求を受信することと、
前記第2の現在表示されている表現の前記ズームレベルを第8のズームレベルに変更する前記要求を受信したことに応じて、
前記第8のズームレベルが第1のズーム値範囲内にあるとの判定に従って、前記第1のズームアフォーダンスの表示を、前記第8のズームレベルに対応する第4のズームアフォーダンスの表示に置き換えることと、
前記第8のズームレベルが第2のズーム値範囲内にあるとの判定に従って、前記第2のズームアフォーダンスの表示を、前記第8のズームレベルに対応する前記第4のズームアフォーダンスの表示に置き換えることと、
前記第8のズームレベルが第3のズーム値範囲内にあるとの判定に従って、前記第3のズームアフォーダンスの表示を、前記第8のズームレベルに対応する前記第4のズームアフォーダンスの表示に置き換えることと、
を更に含む、項目328から342のいずれか一項に記載の方法。
[項目344]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目328から343のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目345]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目328から343のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目346]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目328から343のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目347]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースであって、複数のズームアフォーダンスを含み、前記複数のズームアフォーダンスは、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、カメラユーザインタフェースを表示し、
前記複数のズームアフォーダンスを表示している間に、前記複数のズームアフォーダンスのうちの1つに向けられた第1のジェスチャを受信し、
前記第1のジェスチャを受信したことに応じて、
前記第1のジェスチャが前記第1のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第2のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示し、
前記第1のジェスチャが前記第2のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、前記第1のズームレベル及び前記第2のズームレベルとは異なる第3のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目348]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースであって、複数のズームアフォーダンスを含み、前記複数のズームアフォーダンスは、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、カメラユーザインタフェースを表示し、
前記複数のズームアフォーダンスを表示している間に、前記複数のズームアフォーダンスのうちの1つに向けられた第1のジェスチャを受信し、
前記第1のジェスチャを受信したことに応じて、
前記第1のジェスチャが前記第1のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第2のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示し、
前記第1のジェスチャが前記第2のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、前記第1のズームレベル及び前記第2のズームレベルとは異なる第3のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示する、
命令を含む、電子デバイス。
[項目349]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、複数のズームアフォーダンスを含み、前記複数のズームアフォーダンスは、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、手段と、
前記複数のズームアフォーダンスを表示している間に、前記複数のズームアフォーダンスのうちの1つに向けられた第1のジェスチャを受信する手段と、
前記第1のジェスチャを受信したことに応じて、
前記第1のジェスチャが前記第1のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第2のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示し、
前記第1のジェスチャが前記第2のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、前記第1のズームレベル及び前記第2のズームレベルとは異なる第3のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示する、
手段と、
を備える、電子デバイス。
[項目350]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に前記1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含む、ことと、
前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示している間に、前記カメラユーザインタフェースに向けられた第1のジェスチャを検出することと、
前記カメラユーザインタフェースに向けられた前記第1のジェスチャを検出したことに応じて、
前記第1の位置に第1の1組のカメラ設定アフォーダンスを表示することであって、前記第1の1組のカメラ設定アフォーダンスは、第1のカメラモードの画像キャプチャを調整する設定である、ことと、
前記第1の位置に前記カメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することを停止することと、
前記第1の位置に前記第1の1組のカメラ設定アフォーダンスを表示している間に、かつ前記第1のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されている間に、前記カメラユーザインタフェースに向けられた第2のジェスチャを受信することと、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応じて、
前記第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように前記電子デバイスを構成することと、
前記第1の位置に前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することなく、前記第1の位置に第2の1組のカメラ設定アフォーダンスを表示することと、
を含む、方法。
[項目351]
前記第2の1組のカメラ設定アフォーダンスは、前記第2のカメラモードの画像キャプチャを調整する設定である、項目350に記載の方法。
[項目352]
前記第2の1組のカメラ設定アフォーダンスは、前記第1の1組のカメラ設定アフォーダンスとは異なる、項目350又は351に記載の方法。
[項目353]
前記第1の1組のカメラ設定アフォーダンスは、フラッシュ設定アフォーダンス、画像キャプチャ設定アフォーダンス、アスペクト比カメラ設定アフォーダンス、フィルタ設定カメラ設定アフォーダンス、高ダイナミックレンジイメージングカメラ設定アフォーダンス、及び低光カメラ設定アフォーダンスのうちの1つ以上を含む、項目350から352のいずれか一項に記載の方法。
[項目354]
前記第1のジェスチャを検出することは、前記カメラユーザインタフェースに向けられた第1の接触を検出することを含み、前記方法は、
前記第1のジェスチャを検出している間に、前記第1の接触のリフトオフを検出する前に、前記第1のジェスチャの完了を検出することと、
前記第1の接触のリフトオフを検出する前に前記第1のジェスチャの完了を検出したことに応じて、触知出力を提供することと、
を更に含む、項目350から353のいずれか一項に記載の方法。
[項目355]
前記カメラユーザインタフェースを表示している間に、前記カメラユーザインタフェースに向けられた第3のジェスチャを検出することと、
前記カメラユーザインタフェースに向けられた前記第3のジェスチャを検出したことに応じて、
前記第2の1組のカメラ設定アフォーダンスは、前記第3のジェスチャが検出されたときに表示されていたとの判定に従って、
第3のカメラモードでメディアをキャプチャするように前記電子デバイスを構成することと、
前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することなく、前記第1の位置に第3の1組のカメラ設定アフォーダンスを表示することと、
前記第1の複数のカメラモードアフォーダンスは、前記第3のジェスチャが検出されたときに表示されていたとの判定に従って、
前記第2の1組のカメラ設定アフォーダンス及び前記第3の1組のカメラ設定アフォーダンスを表示することなく、前記第1の位置に前記1つ以上のカメラの異なるカメラ動作モードを示す第2の複数のカメラモードアフォーダンスを表示し、前記第1のカメラモード及び前記第3のカメラモードでメディアをキャプチャするように前記電子デバイスを構成することであって、前記第2の複数のカメラモードアフォーダンスは、前記第1の複数のカメラモードアフォーダンスとは異なる、ことと、
を更に含む、項目350から354のいずれか一項に記載の方法。
[項目356]
前記第1の位置に前記第3の1組のカメラ設定アフォーダンスを表示することは、前記第1の1組のカメラ設定アフォーダンスを置き換える前記第3の1組のカメラ設定アフォーダンスのアニメーションを表示することを含む、項目355に記載の方法。
[項目357]
前記1つ以上のカメラの前記視野の前記表現は、前記1つ以上のカメラの前記視野の第1の部分の第1の表現であり、前記方法は、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応じて、
第1のタイプのカメラを介してメディアをキャプチャするように前記電子デバイスが構成されているとの判定に従って、前記1つ以上のカメラの前記視野の第2の部分の第2の表現を表示することであって、前記視野の前記第2の部分は、前記1つ以上のカメラの前記視野の前記第1の部分の一部を含まない、ことを更に含む、項目350から356のいずれか一項に記載の方法。
[項目358]
前記1つ以上のカメラの前記視野の前記表現は、前記1つ以上のカメラの前記視野の第3の部分の第3の表現であり、前記方法は、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応じて、
第2のタイプのカメラを使用してメディアをキャプチャするように前記電子デバイスが構成されているとの判定に従って、前記1つ以上のカメラの視野の第4の部分の第4の表現を表示することであって、前記1つ以上のカメラの前記視野の前記第4の部分は、前記1つ以上のカメラの前記視野の前記第3の部分にない前記1つ以上のカメラの視野の一部分を含む、ことを更に含む、項目350から357のいずれか一項に記載の方法。
[項目359]
前記1つ以上のカメラの前記視野の前記表現は、前記1つ以上のカメラの前記視野の第5の部分の第5の表現であり、
前記第5の表現は、前記表示デバイス上の第2の位置に表示され、
前記方法は、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応じて、
第3のタイプのカメラを使用してメディアをキャプチャするように前記電子デバイスが構成されているとの判定に従って、
前記表示デバイス上の前記第2の位置から前記表示デバイス上の第3の位置に前記第5の表現を動かすことを更に含む、項目357又は358に記載の方法。
[項目360]
前記第1のカメラモードは、ポートレートモードであり、
前記1つ以上のカメラの視野の前記表現は、第1のズームレベルで表示され、
前記方法は、
前記第1の複数のカメラモードアフォーダンスを表示している間に、
照明効果動作を制御するアフォーダンス及びズームアフォーダンスを表示することと、
前記ズームアフォーダンスを表示している間に、前記ズームアフォーダンスに向けられた第4のジェスチャを受信することと、
前記ズームアフォーダンスに向けられた前記第4のジェスチャを受信したことに応じて、第2のズームレベルで前記1つ以上のカメラの前記視野の表現を表示することと、
を更に含む、項目350から359のいずれか一項に記載の方法。
[項目361]
前記第1の複数のカメラモードアフォーダンスは、
選択されると、メディアをキャプチャする要求に応じて、前記電子デバイスに前記第1のカメラモードでメディアをキャプチャさせる、第1のカメラモードアフォーダンスと、
選択されると、メディアをキャプチャする要求に応じて、前記電子デバイスに前記第2のカメラモードでメディアをキャプチャさせる、第2のカメラモードアフォーダンスと、
を含む、項目350から360のいずれか一項に記載の方法。
[項目362]
前記第1の複数のカメラモードアフォーダンスを表示している間に、前記第1のカメラモードアフォーダンスは、前記第2のカメラモードアフォーダンスに隣接して表示される、項目361に記載の方法。
[項目363]
前記カメラユーザインタフェースに向けられた前記第1のジェスチャを検出する前に、かつ前記第1の複数のカメラモードアフォーダンスを表示している間に、前記第1のカメラモードアフォーダンスは、前記第1のカメラモードがアクティブであるというインジケーションとともに表示される、項目361又は362に記載の方法。
[項目364]
前記第1の位置に前記第2の1組のカメラ設定アフォーダンスを表示している間に、前記カメラユーザインタフェースに向けられた第5のジェスチャを検出することと、
前記カメラユーザインタフェースに向けられた前記第5のジェスチャを検出したことに応じて、
前記1つ以上のカメラの異なるカメラ動作モードを示す第3の複数のカメラモードアフォーダンスを表示することであって、
前記第3の複数のカメラモードアフォーダンスは、前記第2のカメラモードアフォーダンスを含み、
前記第2のカメラモードアフォーダンスは、前記第2のカメラモードがアクティブであるというインジケーションとともに表示される、
ことと、
を更に含む、項目362又は363に記載の方法。
[項目365]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目350から364のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目366]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目350から364のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目367]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目350から364のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目368]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に前記1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含む、カメラユーザインタフェースを表示し、
前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示している間に、前記カメラユーザインタフェースに向けられた第1のジェスチャを検出し、
前記カメラユーザインタフェースに向けられた前記第1のジェスチャを検出したことに応じて、
前記第1の位置に第1の1組のカメラ設定アフォーダンスであって、第1のカメラモードの画像キャプチャを調整する設定である、第1の1組のカメラ設定アフォーダンスを表示し、
前記第1の位置に前記カメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することを停止し、
前記第1の位置に前記第1の1組のカメラ設定アフォーダンスを表示している間に、かつ前記第1のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されている間に、前記カメラユーザインタフェースに向けられた第2のジェスチャを受信し、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応じて、
前記第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように前記電子デバイスを構成し、
前記第1の位置に前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することなく、前記第1の位置に第2の1組のカメラ設定アフォーダンスを表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目369]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に前記1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含む、カメラユーザインタフェースを表示し、
前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示している間に、前記カメラユーザインタフェースに向けられた第1のジェスチャを検出し、
前記カメラユーザインタフェースに向けられた前記第1のジェスチャを検出したことに応じて、
前記第1の位置に第1の1組のカメラ設定アフォーダンスであって、第1のカメラモードの画像キャプチャを調整する設定であり、第1の1組のカメラ設定アフォーダンスを表示し、
前記第1の位置に前記カメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することを停止し、
前記第1の位置に前記第1の1組のカメラ設定アフォーダンスを表示している間に、かつ前記第1のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されている間に、前記カメラユーザインタフェースに向けられた第2のジェスチャを受信し、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応じて、
前記第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように前記電子デバイスを構成し、
前記第1の位置に前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することなく、前記第1の位置に第2の1組のカメラ設定アフォーダンスを表示する、
命令を含む、電子デバイス。
[項目370]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に前記1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含む、手段と、
前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示している間に、前記カメラユーザインタフェースに向けられた第1のジェスチャを検出する手段と、
前記カメラユーザインタフェースに向けられた前記第1のジェスチャを検出したことに応じて、
前記第1の位置に第1の1組のカメラ設定アフォーダンスを表示し、前記第1の1組のカメラ設定アフォーダンスが、第1のカメラモードの画像キャプチャを調整する設定であり、
前記第1の位置に前記カメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することを停止する、
手段と、
前記第1の位置に前記第1の1組のカメラ設定アフォーダンスを表示している間に、かつ前記第1のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されている間に、前記カメラユーザインタフェースに向けられた第2のジェスチャを受信する手段と、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応じて、
前記第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように前記電子デバイスを構成し、
前記第1の位置に前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することなく、前記第1の位置に第2の1組のカメラ設定アフォーダンスを表示する、
手段と、
を備える、電子デバイス。
[項目371]
方法であって、
表示デバイスを備える電子デバイスにおいて、
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信することと、
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、
自動メディア補正基準が満たされているとの判定に従って、
前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現を表示することと、
自動調整が前記以前にキャプチャされたメディアアイテムに適用されたことを示す第1の自動調整アフォーダンスを表示することと、
自動メディア補正基準が満たされていないとの判定に従って、
前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの表現を表示することと、
前記自動調整が前記以前にキャプチャされたメディアアイテムに適用されなかったことを示す第2の自動調整アフォーダンスを表示することであって、前記第2の自動調整アフォーダンスは、前記第1の自動調整アフォーダンスとは視覚的に異なる、ことと、
を含む、方法。
[項目372]
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信する前に、前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの前記視野の前記第1の部分の表現を含む第1の領域と、
前記1つ以上のカメラの前記視野の前記第2の部分の表現を含む第2の領域であって、前記1つ以上のカメラの前記視野の前記第2の部分の前記表現は、前記第1の部分の前記表現と視覚的に区別される、第2の領域と、
を含む、ことを更に含む、項目371に記載の方法。
[項目373]
(キャンセル)。
[項目374]
前記第1の自動調整アフォーダンスを表示し、かつ前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、前記第1の自動調整アフォーダンスの選択に対応する第1の入力を受信することと、
前記第1の自動調整アフォーダンスの選択に対応する前記第1の入力を受信したことに応じて、前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現を表示することと、
を更に含む、項目371に記載の方法。
[項目375]
前記第2の自動調整アフォーダンスを表示し、かつ前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、前記第2の自動調整アフォーダンスの選択に対応する第2の入力を受信することと、
前記第2の自動調整アフォーダンスの選択に対応する前記第2の入力を受信したことに応じて、前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現を表示することと、
を更に含む、項目371に記載の方法。
[項目376]
前記以前にキャプチャされたメディアアイテムは、画像であり、
前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現は、縁部部分を含み、
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現は、前記縁部部分を更に含まない、
項目371、372、及び374又は375のいずれか一項に記載の方法。
[項目377]
前記以前にキャプチャされたメディアアイテムは、ビデオであり、
前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現は、第1の量の移動を含み、
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現は、前記第1の量の移動とは異なる第2の量の移動を含む、
項目371、372、及び374から376のいずれか一項に記載の方法。
[項目378]
前記以前にキャプチャされたメディアアイテムは、識別可能なオブジェクトを含み、
前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現は、前記識別可能なオブジェクトの一部分を含み、
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現は、前記識別可能なオブジェクトの前記一部分を含まない、
項目371、372、及び374から377のいずれか一項に記載の方法。
[項目379]
前記自動メディア補正基準は、前記以前にキャプチャされたメディアアイテムが前記1つ以上のカメラの前記視野の前記第2の部分からの前記第2のコンテンツを使用して補正され得る1つ以上の視覚アスペクトを含むと判定されるときに満たされる第2の基準を含む、項目371、372、及び374から378のいずれか一項に記載の方法。
[項目380]
前記自動メディア補正基準は、前記以前にキャプチャされたメディアアイテムが表示される前に前記第2の基準が満たされていたときに満たされる第3の基準を含む、項目379に記載の方法。
[項目381]
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、かつ自動メディア補正基準が満たされているとの判定に従って、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現と同時に、選択されると、前記電子デバイスに第1の動作を実行させる、第3の自動調整アフォーダンスを表示することを更に含む、項目371、372、及び374から380のいずれか一項に記載の方法。
[項目382]
前記自動メディア補正基準が、自動適用設定が有効化されるときに満たされ、かつ前記自動適用設定が無効化されるときに満たされていない基準を含む、項目371、372、及び374から381のいずれか一項に記載の方法。
[項目383]
前記自動適用設定が、ユーザ構成可能設定である、項目371、372、及び374から382のいずれか一項に記載の方法。
[項目384]
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、かつ自動メディア補正基準が満たされていないとの判定に従って、
第1の1組の基準が満たされているとの判定に従って、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現と同時に、選択されると、前記電子デバイスに第2の動作を実行させる、第4の自動調整アフォーダンスを表示することを更に含む、項目371、372、及び374から383のいずれか一項に記載の方法。
[項目385]
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、かつ自動メディア補正基準が満たされていないとの判定に従って、
前記第1の1組の基準が満たされていないとの判定に従って、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現と同時に、非選択可能インジケータを表示することを更に含む、項目371、372、及び374から384のいずれか一項に記載の方法。
[項目386]
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、
コンテンツ処理基準が満たされているとの判定に従って、コンテンツ処理インジケータを表示することと、
前記コンテンツ処理基準が満たされていないとの判定に従って、前記コンテンツ処理インジケータを表示することをやめることと、
を更に含む、項目371、372、及び374から385のいずれか一項に記載の方法。
[項目387]
前記コンテンツ処理インジケータを表示している間に、かつ前記コンテンツ処理基準がもはや満たされていないとの判定に従って、前記コンテンツ処理インジケータの表示を停止することを更に含む、項目386に記載の方法。
[項目388]
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、かつ前記コンテンツ処理インジケータを表示している間に、かつ前記コンテンツ処理基準がもはや満たされていないとの判定に従って、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現を、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現に置き換えることを更に含む、項目386に記載の方法。
[項目389]
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、かつ前記コンテンツ処理インジケータを表示している間に、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの第2の表現を表示することと、
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記第2の表現を表示している間に、かつ前記コンテンツ処理基準がもはや満たされていないとの判定に従って、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記第2の表現を、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの第2の表現に置き換えることと、
を更に含む、項目386に記載の方法。
[項目390]
前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現に遷移する、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現のアニメーションを表示することを更に含む、項目371、372、及び374から389のいずれか一項に記載の方法。
[項目391]
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現に遷移する、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現のアニメーションを表示することを更に含む、項目371、372、及び374から390のいずれか一項に記載の方法。
[項目392]
1つ以上のカメラの視野の前記第1の部分からの第3のコンテンツを含み、かつ前記1つ以上のカメラの前記視野の前記第2の部分からの第4のコンテンツを含まない、メディアアイテムの表現を表示する要求を受信することと、
前記1つ以上のカメラの前記視野の前記第1の部分からの第3のコンテンツを含み、かつ前記1つ以上のカメラの前記視野の前記第2の部分からの第4のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記第1の部分の外側の追加のメディアコンテンツが利用可能であるというインジケーションの表示をやめることと、
を更に含む、項目371、372、及び374から391のいずれか一項に記載の方法。
[項目393]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目371、372、及び374から392のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目394]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目371、372、及び374から392のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目395]
電子デバイスであって、
表示デバイスと、
項目371、372、及び374から392のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目396]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信し、
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、
自動メディア補正基準が満たされているとの判定に従って、
前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現を表示し、
自動調整が前記以前にキャプチャされたメディアアイテムに適用されたことを示す第1の自動調整アフォーダンスを表示し、
自動メディア補正基準が満たされていないとの判定に従って、
前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの表現を表示し、
前記自動調整が前記以前にキャプチャされたメディアアイテムに適用されなかったことを示す第2の自動調整アフォーダンスを表示し、前記第2の自動調整アフォーダンスは、前記第1の自動調整アフォーダンスとは視覚的に異なる、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目397]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信し、
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、
自動メディア補正基準が満たされているとの判定に従って、
前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現を表示し、
自動調整が前記以前にキャプチャされたメディアアイテムに適用されたことを示す第1の自動調整アフォーダンスを表示し、
自動メディア補正基準が満たされていないとの判定に従って、
前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの表現を表示し、
前記自動調整が前記以前にキャプチャされたメディアアイテムに適用されなかったことを示す第2の自動調整アフォーダンスを表示し、前記第2の自動調整アフォーダンスは、前記第1の自動調整アフォーダンスとは視覚的に異なる、
命令を含む、電子デバイス。
[項目398]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信する手段と、
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、
自動メディア補正基準が満たされているとの判定に従って、
前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現を表示し、
自動調整が前記以前にキャプチャされたメディアアイテムに適用されたことを示す第1の自動調整アフォーダンスを表示し、
自動メディア補正基準が満たされていないとの判定に従って、
前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの表現を表示し、
前記自動調整が前記以前にキャプチャされたメディアアイテムに適用されなかったことを示す第2の自動調整アフォーダンスを表示し、前記第2の自動調整アフォーダンスは、前記第1の自動調整アフォーダンスとは視覚的に異なる、
手段と、
を備える、電子デバイス。
[項目399]
それぞれの時間に対応する前記第1の視覚メディアの時間ベースの表現を選択する前記調整可能なコントロールは、前記表示デバイス上のそれぞれの位置に表示される、項目219から235のいずれか一項に記載の方法。
[項目400]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示することと、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始することと、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、前記電子デバイスの移動を検出することと、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、
前記電子デバイスの前記検出された移動が移動閾値を上回るときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスのポーズと前記電子デバイスの現在のポーズとの間の1つ以上の差の視覚インジケーションを表示することと、
前記1組のガイダンス基準が満たされていない前記検出された移動との判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の前記1つ以上の差の前記視覚インジケーションの表示をやめることと、
を含む、方法。
[項目401]
前記メディアキャプチャユーザインタフェースは、メディアキャプチャアフォーダンスを含み、
メディアをキャプチャする前記要求を受信することは、前記メディアキャプチャアフォーダンスの選択を検出することを含む、項目400に記載の方法。
[項目402]
メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の1つ以上の差の前記視覚インジケーションを表示することは、
前記電子デバイスの前記ポーズが第1の様式で変化したとの判定に従って、外観の第1の変化を伴う前記視覚インジケーションを表示することと、
前記電子デバイスの前記ポーズが前記第1の様式とは異なる第2の様式で変化したとの判定に従って、外観の第2の変化を伴う前記視覚インジケーションを表示することと、
を含む、項目400又は401に記載の方法。
[項目403]
前記視覚インジケーションを表示することは、同時に
メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の第1の差を示す視覚特性を有する前記視覚インジケーションを表示することと、
メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の第2の差を示す視覚特性を有する前記視覚インジケーションを表示することであって、前記第1の差及び第2の差は、異なる種類の差である、ことと、
を含む、項目400から402のいずれか一項に記載の方法。
[項目404]
前記視覚インジケーションは、メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズを表す前記視覚インジケーションの第1の部分と、前記電子デバイスの前記現在のポーズを表す前記視覚インジケーションの第2の部分と、を含み、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、前記視覚インジケーションを表示することは、メディアのキャプチャが開始された後の前記電子デバイスの前記ポーズの変化に応じて変化する外観で前記視覚インジケーションの前記第1の部分及び第2の部分のうちの少なくとも1つを表示することを含む、項目400から403のいずれか一項に記載の方法。
[項目405]
前記視覚インジケーションは、前記視覚インジケーションの一部分を含み、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、前記視覚インジケーションを表示することは、前記電子デバイスの回転量に基づいて判定される第1の回転量、回転された前記視覚インジケーションの前記一部分を表示することを含む、項目400から404のいずれか一項に記載の方法。
[項目406]
前記第1の回転量、回転された前記視覚インジケーションの前記一部分を表示している間に、メディアのキャプチャを開始した後の第2の時間における前記電子デバイスの回転移動を検出することと、
メディアのキャプチャを開始した後の前記第2の時間における前記電子デバイスの回転移動を検出したことに応じて、前記検出された回転移動の量に基づいて判定される第2の回転量、前記視覚インジケーションの前記一部分を回転させることであって、前記第2の回転量は、前記第1の回転量とは異なる、ことと、
を更に含む、項目405に記載の方法。
[項目407]
前記視覚インジケーションは、前記視覚インジケーションの一部分を含み、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、前記視覚インジケーションを表示することは、前記電子デバイスの移動量に基づいて判定される第1のスキュー量を有する前記視覚インジケーションの前記一部分を表示することを含む、項目400から406のいずれか一項に記載の方法。
[項目408]
前記第1のスキュー量、歪められた前記一部分を表示している間に、メディアのキャプチャを開始した後の第3の時間における前記電子デバイスの移動を検出することと、
メディアのキャプチャを開始した後の前記第3の時間における前記電子デバイスの移動を検出したことに応じて、第2のスキュー量を有する前記一部分を表示することであって、前記第2のスキュー量は、前記第1のスキュー量とは異なる、ことと、
を更に含む、項目407に記載の方法。
[項目409]
前記視覚インジケーションは、前記視覚インジケーションの一部分を含み、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、前記視覚インジケーションを表示することは、前記電子デバイスの位置に基づいて判定される第1の位置に前記視覚インジケーションの前記一部分を表示することを含む、項目400から408のいずれか一項に記載の方法。
[項目410]
前記第1の位置に前記視覚インジケーションの前記一部分を表示している間に、メディアのキャプチャを開始した後の第4の時間における前記電子デバイスの平行移動を検出することと、
メディアのキャプチャを開始した後の前記第4の時間における前記電子デバイスの平行移動を検出したことに応じて、前記電子の平行移動に基づいて判定される第2の位置に前記視覚インジケーションの前記一部分を表示することであって、前記第2の位置は、前記第1の位置とは異なる、ことと、
を更に含む、項目409に記載の方法。
[項目411]
前記視覚インジケーションは、前記1つ以上の差の大きさを示す、項目400から410のいずれか一項に記載の方法。
[項目412]
前記電子デバイスの前記ポーズがメディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズとは異なる第1の時間において、
前記視覚インジケーションは、前記メディアキャプチャユーザインタフェース上の第1の位置に表示された、メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズを表す前記視覚インジケーションの第1の部分を含み、
前記視覚インジケーションは、前記メディアキャプチャユーザインタフェース上の前記第1の位置とは異なる前記メディアキャプチャユーザインタフェース上の第2の位置に、前記電子デバイスの前記現在のポーズを表す前記視覚インジケーションの第2の部分を含む、項目400から411のいずれか一項に記載の方法。
[項目413]
前記第1の位置に前記視覚インジケーションの前記第1の部分を表示し、前記第2の位置に前記視覚インジケーションの前記第2の部分を表示した後に、かつ前記メディアをキャプチャしている間に、メディアのキャプチャを開始した後の第5の時間における前記電子デバイスの移動を検出することと、
メディアのキャプチャを開始した後の前記第5の時間における前記電子デバイスの移動を検出したことに応じて、
メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の前記1つ以上の差が1つ以上の閾値差量未満であるとの判定に従って、前記メディアユーザインタフェース上の前記第2の位置に前記視覚インジケーションの前記第1の部分を表示することであって、前記視覚インジケーションの前記第1の部分及び前記視覚インジケーションの前記第2の部分は、互いに重なり合う、ことと、
を更に含む、項目412に記載の方法。
[項目414]
前記視覚インジケーションを表示している間に、
前記表示された視覚インジケーションの一部分は、検出されている前記電子デバイスの移動に応じて変化せず、
前記表示された視覚インジケーションの一部分は、検出されている前記電子デバイスの移動に応じて変化する、項目400から413のいずれか一項に記載の方法。
[項目415]
メディアのキャプチャを開始した後の第7の時間において、前記電子デバイスの移動を検出することと、
メディアのキャプチャを開始した後の前記第7の時間における前記電子デバイスの移動を検出したことに応じて、
前記電子デバイスのメディアのキャプチャを開始した後の前記第7の時間における前記検出された移動が第2の移動閾値を上回らないとの判定に従って、前記視覚インジケーションの表示を停止することと、
を更に含む、項目400から414のいずれか一項に記載の方法。
[項目416]
メディアのキャプチャを開始した後の前記第7の時間における前記電子デバイスの移動を検出したことに応じて、
前記電子デバイスのメディアのキャプチャを開始した後の前記第7の時間における前記検出された移動が第2の移動閾値を上回るとの判定に従って、前記視覚インジケーションの表示を継続することを更に含む、項目415に記載の方法。
[項目417]
前記1組のガイダンス基準は、低光モードがアクティブであるときに満たされる基準を含む、項目400から416のいずれか一項に記載の方法。
[項目418]
前記1組のガイダンス基準は、閾値持続時間を上回るキャプチャ持続時間にわたって複数の画像をキャプチャするように前記電子デバイスが構成されているときに満たされる基準を含む、項目400から417のいずれか一項に記載の方法。
[項目419]
前記視覚インジケーションは、前記1つ以上のカメラの前記視野の前記表現上に表示される、項目400から418のいずれか一項に記載の方法。
[項目420]
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第8の時間において、前記電子デバイスの移動を検出することと、
メディアのキャプチャを開始した後の前記第8の時間における前記電子デバイスの移動を検出したことに応じて、
前記電子デバイスの前記検出された移動が第2の移動閾値を上回るとの判定に従って、メディアのキャプチャを停止することと、
を更に含む、項目400から419のいずれか一項に記載の方法。
[項目421]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目400から420のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目422]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目400から420のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目423]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目400から420のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目424]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示し、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信し、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始し、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、前記電子デバイスの移動を検出し、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、
前記電子デバイスの前記検出された移動が移動閾値を上回るときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスのポーズと前記電子デバイスの現在のポーズとの間の1つ以上の差の視覚インジケーションを表示し、
前記1組のガイダンス基準が満たされていない前記検出された移動との判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の前記1つ以上の差の前記視覚インジケーションの表示をやめる、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目425]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示し、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信し、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始し、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、前記電子デバイスの移動を検出し、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、
前記電子デバイスの前記検出された移動が移動閾値を上回るときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスのポーズと前記電子デバイスの現在のポーズとの間の1つ以上の差の視覚インジケーションを表示し、
前記1組のガイダンス基準が満たされていない前記検出された移動との判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の前記1つ以上の差の前記視覚インジケーションの表示をやめる、
命令を含む、電子デバイス。
[項目426]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示する手段と、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信する手段と、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始する手段と、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、前記電子デバイスの移動を検出する手段と、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、
前記電子デバイスの前記検出された移動が移動閾値を上回るときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスのポーズと前記電子デバイスの現在のポーズとの間の1つ以上の差の視覚インジケーションを表示し、
前記1組のガイダンス基準が満たされていない前記検出された移動との判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の前記1つ以上の差の前記視覚インジケーションの表示をやめる、
手段と、
を備える、電子デバイス。
[項目427]
方法であって、
1つ以上の表示デバイス及び1つ以上の入力デバイスと通信する、1つ以上のカメラを有するコンピュータシステムにおいて、
第1のズームレベルでメディアをキャプチャするためのカメラプレビューを有するカメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、前記ズームレベルを変更するための選択可能ユーザインタフェースオブジェクトを含む、ことと、
前記カメラユーザインタフェースを表示している間に、前記選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出することと、
前記選択可能ユーザインタフェースオブジェクトの選択に対応する前記入力を検出したことに応じて、
利用可能な光が閾値を下回るとの判定に従って、前記ズームレベルを第2のズームレベルに変更し、低光キャプチャモードを有効化することと、
前記利用可能な光が前記閾値を上回るとの判定に従って、前記低光キャプチャモードを有効化することなく、前記ズームレベルを変更することと、
を含む、方法。
[項目428]
前記カメラユーザインタフェースは、メディアをキャプチャするための選択可能ユーザインタフェースオブジェクトを含み、
前記カメラプレビューが前記第1のズームレベルで表示されている間に、かつ前記利用可能な光が前記閾値を下回るとの判定に従って、メディアをキャプチャするための前記選択可能ユーザインタフェースオブジェクトは、無効化され、
前記カメラプレビューが前記第1のズームレベルで表示されている間に、かつ前記利用可能な光が前記閾値を上回るとの判定に従って、メディアをキャプチャするための前記選択可能ユーザインタフェースオブジェクトは、有効化される、項目427に記載の方法。
[項目429]
メディアをキャプチャするための前記選択可能ユーザインタフェースオブジェクトが無効化されているとの前記判定に従って、メディアをキャプチャするための前記選択可能ユーザインタフェースオブジェクトは、第1の視覚外観で表示され、
メディアをキャプチャするための前記選択可能ユーザインタフェースオブジェクトが有効化されているとの前記判定に従って、メディアをキャプチャするための前記選択可能ユーザインタフェースオブジェクトは、前記第1の視覚外観とは異なる第2の視覚外観で表示される、項目428に記載の方法。
[項目430]
前記カメラユーザインタフェースは、メディアをキャプチャするための選択可能ユーザインタフェースオブジェクトを含み、
前記カメラプレビューが前記第2のズームレベルで表示されている間に、前記利用可能な光が前記閾値を上回るかどうかに関係なく、メディアをキャプチャするための前記選択可能ユーザインタフェースオブジェクトは、有効化される、項目427から429のいずれか一項に記載の方法。
[項目431]
前記カメラプレビューが前記第1のズームレベルで表示されている間に、かつ前記利用可能な光が前記閾値を下回るとの判定に従って、前記ズームレベルを切り替えるためのガイダンスを表示することを更に含む、項目427から430のいずれか一項に記載の方法。
[項目432]
前記カメラプレビューが前記第2のズームレベルで表示されている間に、利用可能な光量が前記閾値を上回るかどうかに関係なく、前記ズームレベルを切り替えるためのガイダンスの表示をやめることを更に含む、項目427から431のいずれか一項に記載の方法。
[項目433]
前記カメラプレビューが前記第1のズームレベルで表示されている間に、かつ前記利用可能な光が前記閾値を下回るとの判定に従って、フラッシュモードを有効化するためのガイダンスを表示することを更に含む、項目427から432のいずれか一項に記載の方法。
[項目434]
前記第1のズームレベルは、前記第2のズームレベルよりも高い、項目427から433のいずれか一項に記載の方法。
[項目435]
前記コンピュータシステムは、1つ以上の深度センサを含み、
前記カメラプレビューが前記第1のズームレベルで表示されている間に、かつ前記利用可能な光が閾値を下回るとの判定に従って、前記1つ以上の深度センサは、第1の精度での前記第1のズームレベルにおける前記1つ以上のカメラの視野に関する深度情報の判定を有効化し、
前記カメラプレビューが前記第2のズームレベルで表示されている間に、かつ前記利用可能な光が閾値を下回るとの判定に従って、前記1つ以上の深度センサは、前記第1の精度よりも高い第2の精度での前記第2のズームレベルにおける前記1つ以上のカメラの前記視野に関する深度情報の前記判定を有効化する、項目427から434のいずれか一項に記載の方法。
[項目436]
前記カメラプレビューが前記第1のズームレベルで表示されている間に、かつ前記利用可能な光が前記閾値を下回るとの判定に従って、前記ズームレベルを変更するための前記選択可能ユーザインタフェースオブジェクトは、低光キャプチャモードに対応するインジケーションを含む、項目427から435のいずれか一項に記載の方法。
[項目437]
前記カメラプレビューが前記第2のズームレベルで表示されている間に、前記ズームレベルを変更するための前記選択可能ユーザインタフェースオブジェクトが、利用可能な光量が前記閾値を上回るかどうかに関係なく、前記低光キャプチャモードに対応するインジケーションを含まない、項目427から436のいずれか一項に記載の方法。
[項目438]
低光キャプチャモードが有効化されている間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、キャプチャ持続時間にわたる複数の画像のキャプチャを開始することと、
前記キャプチャ持続時間にわたる前記複数の画像のキャプチャを開始した後に、前記複数の画像の少なくとも一部のコンテンツを含む合成画像を生成することであって、前記合成画像は、前記複数の画像のうちの1つ以上よりも視覚的に明るい、ことと、
を更に含む、項目427から437のいずれか一項に記載の方法。
[項目439]
1つ以上のカメラを有するコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記コンピュータシステムは、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信し、前記1つ以上のプログラムは、項目427から438のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目440]
コンピュータシステムであって、
1つ以上のカメラであって、前記コンピュータシステムは、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信する、1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目427から438のいずれか一項に記載の方法を実行する命令を含む、
コンピュータシステム。
[項目441]
コンピュータシステムであって、
1つ以上のカメラであって、前記コンピュータシステムは、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信する、1つ以上のカメラと、項目427から438のいずれか一項に記載の方法を実行する手段と、
を備える、コンピュータシステム。
[項目442]
1つ以上のカメラを有するコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記コンピュータシステムは、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信し、前記1つ以上のプログラムは、
第1のズームレベルでメディアをキャプチャするためのカメラプレビューを有するカメラユーザインタフェースであって、前記ズームレベルを変更するための選択可能ユーザインタフェースオブジェクトを含む、カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出し、
前記選択可能ユーザインタフェースオブジェクトの選択に対応する前記入力を検出したことに応じて、
利用可能な光が閾値を下回るとの判定に従って、前記ズームレベルを第2のズームレベルに変更し、低光キャプチャモードを有効化し、
前記利用可能な光が前記閾値を上回るとの判定に従って、前記低光キャプチャモードを有効化することなく、前記ズームレベルを変更する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目443]
コンピュータシステムであって、
1つ以上のカメラであって、前記コンピュータシステムは、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信する、1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
第1のズームレベルでメディアをキャプチャするためのカメラプレビューを有するカメラユーザインタフェースであって、前記ズームレベルを変更するための選択可能ユーザインタフェースオブジェクトを含む、カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出し、
前記選択可能ユーザインタフェースオブジェクトの選択に対応する前記入力を検出したことに応じて、
利用可能な光が閾値を下回るとの判定に従って、前記ズームレベルを第2のズームレベルに変更し、低光キャプチャモードを有効化し、
前記利用可能な光が前記閾値を上回るとの判定に従って、前記低光キャプチャモードを有効化することなく、前記ズームレベルを変更する、
命令を含む、
コンピュータシステム。
[項目444]
コンピュータシステムであって、
1つ以上のカメラであって、前記コンピュータシステムは、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信する、1つ以上のカメラと、
第1のズームレベルでメディアをキャプチャするためのカメラプレビューを有するカメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、前記ズームレベルを変更するための選択可能ユーザインタフェースオブジェクトを含む、手段と、
前記カメラユーザインタフェースを表示している間に、前記選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出する手段と、
前記選択可能ユーザインタフェースオブジェクトの選択に対応する前記入力を検出したことに応じて、
利用可能な光が閾値を下回るとの判定に従って、前記ズームレベルを第2のズームレベルに変更し、低光キャプチャモードを有効化し、
前記利用可能な光が前記閾値を上回るとの判定に従って、前記低光キャプチャモードを有効化することなく、前記ズームレベルを変更する、
手段と、
を備える、コンピュータシステム。
Thus, while this disclosure broadly encompasses the use of personal information data to implement one or more of the various disclosed embodiments, this disclosure also contemplates that the various embodiments may also be implemented without requiring access to such personal information data, i.e., the various embodiments of the technology are not rendered inoperable by the absence of all or a portion of such personal information data, For example, media may be captured, accessed, and edited by inferring preferences based only on a minimal amount of non-personal information data or personal information, such as content requested by a device associated with a user, other non-personal information available on the service, or publicly available information.
[Item 1]
1. A method comprising:
In an electronic device having a display device and one or more cameras,
displaying, via the display device, a camera user interface, the camera user interface comprising:
a camera display area including a representation of the field of view of the one or more cameras; and
a camera control area containing multiple control affordances;
and
displaying the camera user interface while a first predefined condition and a second predefined condition are not satisfied, without displaying a first control affordance associated with the first predefined condition and without displaying a second control affordance associated with the second predefined condition;
Detecting a change in a condition while displaying the camera user interface without displaying the first control affordance and without displaying the second control affordance;
In response to detecting said change in condition,
displaying the first control affordance in accordance with a determination that the first predefined condition is satisfied; and
displaying the second control affordance in accordance with a determination that the second predefined condition is satisfied; and
A method comprising:
[Item 2]
In response to detecting said change in condition,
simultaneously displaying the first control affordance and the second control affordance in accordance with a determination that the first and second predefined conditions are satisfied;
2. The method of claim 1, further comprising:
[Item 3]
In response to detecting said change in condition,
displaying the first control affordance while ceasing to display the second control affordance in accordance with a determination that the first predefined condition is satisfied and the second predefined condition is not satisfied; and
displaying the second control affordance while ceasing to display the first control affordance in accordance with a determination that the first predefined condition is not satisfied and the second predefined condition is satisfied; and
3. The method according to claim 1 or 2, further comprising:
[Item 4]
4. The method of any one of claims 1 to 3, wherein the first predefined condition is met when the amount of light in the field of view of the one or more cameras falls below a first predetermined threshold, and the first control affordance is an affordance for controlling flash operation.
[Item 5]
5. The method of claim 1, wherein when the electronic device is connected to an accessory of a first type, the first predefined condition is met and the first control affordance is an affordance for controlling a timer operation.
[Item 6]
6. The method of any one of claims 1 to 5, wherein the first predefined condition is met when the amount of light in the field of view of the one or more cameras falls below a second predetermined threshold, and the first control affordance is an affordance for controlling a low-light capture mode.
[Item 7]
7. The method of any one of claims 1 to 6, wherein the first predefined condition is met when the electronic device is configured to capture an image in a first capture mode, and the first control affordance is an affordance for controlling a lighting effects operation.
[Item 8]
receiving a selection of the affordance to control the light effects operation while displaying the affordance to control the light effects operation;
responsive to receiving the selection of the affordance controlling the lighting effects operation, displaying an affordance that, when adjusted, adjusts the lighting effects applied to the representation of the field of view of the one or more cameras;
8. The method of claim 7, further comprising:
[Item 9]
while displaying the first control affordance, simultaneously displaying an indication of a current state of a characteristic of the electronic device associated with the first control affordance;
9. The method according to any one of the preceding claims, further comprising:
[Item 10]
10. The method of claim 9, wherein the characteristic has one or more active states and one or more inactive states, and displaying the indication is pursuant to determining that the characteristic is in at least one of the one or more active states.
[Item 11]
11. The method of claim 9 or 10, wherein the property is a first flash operation setting and the current state of the property is that flash operation is enabled.
[Item 12]
10. The method of claim 9, wherein the property is a second flash operation setting and the current state of the property is that flash operation is disabled.
[Item 13]
13. The method of any one of claims 9 to 12, wherein the property is an image capture mode setting, the current state of the property is that the image capture mode is enabled, and the electronic device is configured to capture still images and video in response to an input corresponding to a request to capture media.
[Item 14]
14. The method of any one of claims 9 to 13, wherein the characteristic is a second image capture mode setting, the current state of the characteristic is that the second image capture mode is enabled, and the electronic device is configured to capture media using a high dynamic range imaging effect in response to an input corresponding to a request to capture media.
[Item 15]
15. The method of any one of claims 9 to 14, wherein the camera control area is displayed adjacent to a first side of the display device and the indication is displayed adjacent to a second side of the display device opposite the first side.
[Item 16]
16. The method of any one of claims 1 to 15, wherein the representation of the field of view of the one or more cameras extends across a portion of the camera user interface including the first control affordance and/or the second control affordance.
[Item 17]
In response to displaying the first control affordance,
displaying a second indication associated with the first control affordance in accordance with determining that the first control affordance is of a first type; and
displaying the second indication associated with the first control affordance in accordance with determining that the first control affordance is of a second type different from the first type and determining that a second characteristic of the electronic device associated with the first control affordance is in an active state;
ceasing to display the second indication associated with the first control affordance in response to determining that the first control affordance is of a second type different from the first type and determining that the second characteristic of the electronic device associated with the first control affordance is in an inactive state; and
17. The method of any one of the preceding claims, further comprising:
[Item 18]
18. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs including instructions for performing the method according to any one of items 1 to 17.
[Item 19]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
and a memory storing one or more programs configured to be executed by the one or more processors, the one or more programs including instructions for performing the method according to any one of claims 1 to 17.
[Item 20]
1. An electronic device comprising:
A display device;
One or more cameras and means for carrying out the method according to any one of items 1 to 17;
An electronic device comprising:
[Item 21]
1. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs comprising:
via the display device, a camera user interface,
a camera display area including a representation of the field of view of the one or more cameras; and
a camera control area containing multiple control affordances;
displaying a camera user interface including
while a first predefined condition and a second predefined condition are not satisfied, displaying the camera user interface without displaying a first control affordance associated with the first predefined condition and without displaying a second control affordance associated with the second predefined condition;
detecting a change in a condition while displaying the camera user interface without displaying the first control affordance and without displaying the second control affordance;
In response to detecting said change in condition,
displaying the first control affordance in accordance with a determination that the first predefined condition is satisfied;
displaying the second control affordance in accordance with a determination that the second predefined condition is satisfied.
A non-transitory computer-readable storage medium containing instructions.
[Item 22]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
via the display device, a camera user interface,
a camera display area including a representation of the field of view of the one or more cameras; and
a camera control area containing multiple control affordances;
displaying a camera user interface including
while a first predefined condition and a second predefined condition are not satisfied, displaying the camera user interface without displaying a first control affordance associated with the first predefined condition and without displaying a second control affordance associated with the second predefined condition;
detecting a change in a condition while displaying the camera user interface without displaying the first control affordance and without displaying the second control affordance;
In response to detecting said change in condition,
displaying the first control affordance in accordance with a determination that the first predefined condition is satisfied;
displaying the second control affordance in accordance with a determination that the second predefined condition is satisfied.
An electronic device that contains instructions.
[Item 23]
1. An electronic device comprising:
A display device;
One or more cameras;
means for displaying a camera user interface via the display device, the camera user interface comprising:
a camera display area including a representation of the field of view of the one or more cameras; and
a camera control area containing multiple control affordances;
and
means for displaying the camera user interface while a first predefined condition and a second predefined condition are not satisfied, without displaying a first control affordance associated with the first predefined condition and without displaying a second control affordance associated with the second predefined condition;
means for detecting a change of condition while displaying the camera user interface without displaying the first control affordance and without displaying the second control affordance;
In response to detecting said change in condition,
displaying the first control affordance in accordance with a determination that the first predefined condition is satisfied;
displaying the second control affordance in accordance with a determination that the second predefined condition is satisfied.
Means,
An electronic device comprising:
[Item 24]
1. A method comprising:
In an electronic device having a display device and one or more cameras,
displaying, via the display device, a camera user interface, the camera user interface comprising:
a camera display area including a representation of the field of view of the one or more cameras; and
a camera control area including a plurality of camera mode affordances at a first position;
and
detecting a first gesture on the camera user interface while displaying the camera user interface;
modifying an appearance of the camera control area in response to detecting the first gesture,
displaying one or more additional camera mode affordances at the first location in accordance with determining that the first gesture is a first type of gesture; and
ceasing to display the plurality of camera mode affordances and displaying a plurality of camera setting affordances at the first location in accordance with a determination that the first gesture is a gesture of a second type different from the first type, the camera setting affordances being settings that adjust image capture of a currently selected camera mode;
and
A method comprising:
[Item 25]
25. The method of claim 24, wherein the camera control area includes an affordance that displays the plurality of camera setting affordances, and the gesture of the second type is a selection of the affordance that displays the plurality of camera setting affordances.
[Item 26]
25. The method of claim 24, wherein the gesture of the second type is a movement of a contact within the camera display area.
[Item 27]
27. The method of any one of claims 24 to 26, wherein the gesture of the first type is a movement of a contact over at least one of the plurality of camera mode affordances.
[Item 28]
detecting a second gesture on the camera user interface corresponding to a request to display a first representation of previously captured media;
displaying a first representation of the previously captured media in response to detecting the second gesture; and
28. The method of any one of items 24 to 27, further comprising:
[Item 29]
Detecting a capture of a first media using the one or more cameras while not displaying a representation of previously captured media;
in response to detecting the capture of the first media,
displaying one or more representations of the captured media, including a representation of the first media;
29. The method of any one of items 24 to 28, further comprising:
[Item 30]
30. The method of any one of claims 24 to 29, wherein the plurality of camera setting affordances includes an affordance that, when displayed, configures the electronic device to capture media displayed in a first aspect ratio in response to a first request to capture media.
[Item 31]
receiving a third request to capture media while the electronic device is configured to capture the media displayed in the first aspect ratio when displayed;
in response to receiving the third request to capture media, displaying a representation of the captured media having the first aspect ratio;
receiving a request to change the representation of the captured media having the first aspect ratio to a representation of the captured media having a second aspect ratio;
in response to receiving the request to change the representation of the captured media having the first aspect ratio to the representation of the captured media having the second aspect ratio, displaying the representation of the captured media having the second aspect ratio;
31. The method of claim 30, further comprising:
[Item 32]
32. The method of claim 31, wherein the representation of the captured media having the second aspect ratio includes visual content that is not present in the representation of the captured media having the first aspect ratio.
[Item 33]
The representation of the field of view of the one or more cameras is displayed at a first zoom level, and the method comprises:
receiving, while displaying the representation of the field of view of the one or more cameras displayed at the first zoom level, a first request to change the zoom level of the representation;
In response to receiving the first request to change the zoom level of the representation,
displaying a second representation field of view of the one or more cameras at a second zoom level that is greater than the first zoom level in response to a determination that the request to change the zoom level of the representation corresponds to a request to increase the zoom level of the representation;
33. The method of any one of claims 24 to 32, further comprising: displaying a third representation field of view of the one or more cameras at a third zoom level less than the first zoom level in accordance with a determination that the request to change the zoom level of the representation corresponds to a request to decrease the zoom level of the representation.
[Item 34]
receiving a second request to change the zoom level of the representation while displaying the representation of the field of view of the one or more cameras displayed at a fourth zoom level;
in response to receiving the second request to change the zoom level of the representation,
displaying a fourth representation of the field of view of the one or more cameras at the third zoom level in accordance with determining that the fourth zoom level is the second zoom level; and
displaying a fifth representation of the field of view of the one or more cameras at the first zoom level in accordance with a determination that the fourth zoom level is the third zoom level; and
displaying a sixth representation of the field of view of the one or more cameras at the second zoom level in accordance with determining that the fourth zoom level is the first zoom level; and
34. The method of claim 33, further comprising:
[Item 35]
displaying the camera user interface includes displaying an affordance including a graphical indication of a state of a capture setting;
35. The method of any one of claims 24 to 34, wherein the gesture of the second type corresponds to a selection of the graphical indication.
[Item 36]
Displaying the plurality of camera setting affordances at the first location includes:
displaying a first set of camera setting affordances at the first location in accordance with a determination that the electronic device is configured to capture media in a first camera mode while the gesture of the second type is detected; and
displaying a second set of camera setting affordances at the first location, the second set of camera setting affordances being different from the first set of camera setting affordances, in accordance with a determination that the electronic device is configured to capture media in a second camera mode that is different from the first camera mode while the gesture of the second type was detected;
36. The method according to any one of items 24 to 35, comprising:
[Item 37]
37. The method of claim 36, wherein the first set of camera setting affordances includes a first camera setting affordance, and the second set of camera setting affordances includes the first camera setting affordance.
[Item 38]
The first camera mode is a still photo capture mode, and the first set of camera setting affordances include:
an affordance including a visual indication corresponding to a flash setting;
Affordances that include visual indications that correspond to the live setting;
an affordance including a visual indication corresponding to the aspect ratio setting;
an affordance including a visual indication corresponding to the timer setting;
an affordance that includes a visual indication corresponding to the filter setting;
38. The method of claim 36 or 37, comprising one or more affordances selected from the group consisting of:
[Item 39]
The first camera mode is a portrait mode, and the first set of camera setting affordances include:
an affordance that includes a visual indication corresponding to the depth control setting;
an affordance including a visual indication corresponding to a flash setting;
an affordance including a visual indication corresponding to the timer setting;
an affordance that includes a visual indication corresponding to the filter setting;
an affordance including a visual indication corresponding to the lighting setting;
38. The method of claim 36 or 37, comprising one or more affordances selected from the group consisting of:
[Item 40]
The first gesture is of the first type, and detecting the first gesture includes detecting a first portion of the first gesture and a second portion of the first gesture, the method further comprising:
in response to detecting the first portion of the first gesture, displaying via the display device a boundary including one or more distinct boundary elements that enclose at least a portion of the representation of the field of view of the one or more cameras;
in response to detecting the second portion of the first gesture, translating the border in a first direction across a display of the display device until at least a portion of the border is translated off of the display and ceases to be displayed;
40. The method of any one of items 24 to 39, further comprising:
[Item 41]
41. The method of claim 40, wherein detecting the second portion of the first gesture includes detecting a second contact that moves in the first direction.
[Item 42]
the second contact is detected on the representation of the field of view of the one or more cameras;
42. The method of claim 41, wherein a speed at which the translating of the boundary occurs is proportional to a speed of movement of the second contact in the first direction.
[Item 43]
42. The method of claim 41, wherein translating the boundary includes changing a visual appearance of the at least a portion of the representation of the field of view of the one or more cameras that is enclosed by the boundary.
[Item 44]
detecting a second request to capture media while the electronic device is configured to capture media in a third camera mode;
In response to receiving the second request to capture media, capturing media using the one or more cameras based on a setting corresponding to the third camera mode and at least one setting corresponding to an affordance of the plurality of camera setting affordances;
44. The method of any one of items 24 to 43, further comprising:
[Item 45]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs including instructions for performing the method according to any one of items 24 to 44.
[Item 46]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
45. An electronic device comprising:
[Item 47]
1. An electronic device comprising:
A display device;
One or more cameras and means for carrying out the method according to any one of items 24 to 44,
An electronic device comprising:
[Item 48]
1. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs comprising:
via the display device, a camera user interface,
a camera display area including a representation of the field of view of the one or more cameras;
a camera control area including a plurality of camera mode affordances at a first position;
displaying a camera user interface including
detecting a first gesture on the camera user interface while displaying the camera user interface;
In response to detecting the first gesture,
displaying one or more additional camera mode affordances at the first location in accordance with determining that the first gesture is a first type of gesture; and
ceasing to display the plurality of camera mode affordances and displaying a plurality of camera setting affordances at the first location in accordance with a determination that the first gesture is a gesture of a second type different from the first type, the camera setting affordances being settings that adjust image capture of a currently selected camera mode;
modifying the appearance of the camera control area,
A non-transitory computer-readable storage medium containing instructions.
[Item 49]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
via the display device, a camera user interface,
a camera display area including a representation of the field of view of the one or more cameras;
a camera control area including a plurality of camera mode affordances at a first position;
displaying a camera user interface including
detecting a first gesture on the camera user interface while displaying the camera user interface;
In response to detecting the first gesture,
displaying one or more additional camera mode affordances at the first location in accordance with determining that the first gesture is a first type of gesture; and
ceasing to display the plurality of camera mode affordances and displaying a plurality of camera setting affordances at the first location in accordance with a determination that the first gesture is a gesture of a second type different from the first type, the camera setting affordances being settings that adjust image capture of a currently selected camera mode;
modifying the appearance of the camera control area,
An electronic device that contains instructions.
[Item 50]
1. An electronic device comprising:
A display device;
One or more cameras;
means for displaying a camera user interface via the display device, the camera user interface comprising:
a camera display area including a representation of the field of view of the one or more cameras; and
a camera control area including a plurality of camera mode affordances at a first position;
and
means for detecting a first gesture on the camera user interface while displaying the camera user interface;
means for modifying an appearance of the camera control area in response to detecting the first gesture, the means comprising:
displaying one or more additional camera mode affordances at the first location in accordance with determining that the first gesture is a first type of gesture; and
ceasing to display the plurality of camera mode affordances and displaying a plurality of camera setting affordances at the first location in accordance with a determination that the first gesture is a gesture of a second type different from the first type, the camera setting affordances being settings that adjust image capture of a currently selected camera mode;
and
An electronic device comprising:
[Item 51]
1. A method comprising:
In an electronic device having a display device and one or more cameras,
Receiving a request to display a camera user interface;
in response to receiving the request to display the camera user interface and in response to a determination that a respective criterion is not satisfied,
displaying the camera user interface via the display device, the camera user interface comprising:
a first region including a representation of a first portion of a field of view of the one or more cameras;
a second region including a representation of a second portion of the field of view of the one or more cameras, the second portion of the field of view of the one or more cameras being visually distinct from the first portion;
and
detecting an input corresponding to a request to capture media with the one or more cameras while the camera user interface is displayed;
in response to detecting the input corresponding to the request to capture media with the one or more cameras, capturing a media item with the one or more cameras, the media item including visual content corresponding to the first portion of the field of view of the one or more cameras and visual content corresponding to the second portion of the field of view of the one or more cameras;
receiving a request to display the media item after capturing the media item;
responsive to receiving the request to display the media item, displaying a first representation of the visual content corresponding to the first portion of the field of view of the one or more cameras without displaying a representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras;
A method comprising:
[Item 52]
detecting, while displaying the first representation of the visual content, a set of one or more inputs corresponding to a request to modify the representation of the visual content;
displaying a second representation of the visual content in response to detecting the set of one or more inputs, the second representation of the visual content including visual content from at least a portion of the first portion of the field of view of the one or more cameras and visual content based on at least a portion of the visual content from the second portion of the field of view of the one or more cameras that was not included in the first representation of the visual content;
52. The method of claim 51, further comprising:
[Item 53]
the first representation of the visual content is from a first visual perspective;
53. The method of claim 52, wherein the second representation of the visual content is a representation from a second visual perspective different from the first visual perspective, generated based on at least a portion of the visual content from the second portion of the field of view of the one or more cameras that was not included in the first representation of the visual content.
[Item 54]
the first representation of the visual content is a representation in a first orientation;
53. The method of claim 52, wherein the second representation of the visual content is a representation in a second orientation different from the first orientation, generated based on at least a portion of the visual content from a second portion of the field of view of the one or more cameras that was not included in the first representation of the visual content.
[Item 55]
The first representation is displayed at a first zoom level, and the method further comprises:
the first representation of the visual content being a representation at a first zoom level;
the second representation of the visual content is a representation at a second zoom level different from the first zoom level, generated based on the at least a portion of the visual content from the second portion of the field of view of the one or more cameras that was not included in the first representation of the visual content;
53. The method of claim 52, further comprising:
[Item 56]
56. The method of any one of items 51 to 55, further comprising generating the first representation of the visual content based at least in part on a digital image stabilization operation using at least a second portion of the visual content from the second portion of the field of view of the one or more cameras.
[Item 57]
performing an object tracking operation using at least a third portion of the visual content from the second portion of the field of view of the one or more cameras after capturing the media item;
57. The method of any one of claims 51 to 56, further comprising:
[Item 58]
The request to display the media item is a first request to display the media item, the method comprising:
receiving a second request to display the media item after displaying the first representation of the visual content corresponding to the first portion of the field of view of the one or more cameras without displaying the representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras;
in response to receiving the second request to display the media item, displaying the first representation of the visual content corresponding to the first portion of the field of view of the one or more cameras and the representation of the visual content corresponding to the second portion of the field of view of the one or more cameras;
58. The method of any one of items 51 to 57, further comprising:
[Item 59]
in response to receiving the request to display the camera user interface and in accordance with a determination that each criterion is satisfied, displaying, via the display device, a second camera user interface, the second camera user interface including the representation of the first portion of the field of view of the one or more cameras without including the representation of the second portion of the field of view of the one or more cameras;
59. The method of any one of items 51 to 58, further comprising:
[Item 60]
The method comprises:
Receiving a request to display a previously captured media item;
in response to receiving the request to display the previously captured media item,
displaying an indication of additional content in accordance with a determination that the previously captured media item was captured when the respective criterion was not met; and
ceasing to display an indication of additional content in response to a determination that the previously captured media item has been captured when the respective criterion is met; and
60. The method of claim 59, further comprising:
[Item 61]
61. The method of claim 59 or 60, wherein the respective criteria include a criterion that is met when the electronic device is configured to capture media items at a resolution of 4000 horizontal pixels or greater.
[Item 62]
Item 62. The method of any one of items 59 to 61, wherein the respective criteria include a criterion that is met when the electronic device is configured to operate in portrait mode at a given zoom level.
[Item 63]
63. The method of any one of claims 59 to 62, wherein the respective criteria include a criterion that is met when at least one of the one or more cameras fails to maintain focus for a predetermined period of time.
[Item 64]
the input corresponding to the request to capture media with the one or more cameras is a first input corresponding to the request to capture media with the one or more cameras;
The method comprises:
detecting a second input corresponding to a request to capture media with the one or more cameras while the camera user interface is displayed;
in response to detecting the second input corresponding to the request to capture media with the one or more cameras;
in response to determining that the electronic device is configured to capture visual content corresponding to the second portion of the field of view of the one or more cameras based on an additional content setting;
capturing a first representation of the visual content corresponding to the first portion of the field of view of the one or more cameras and capturing the representation of at least the portion of the visual content corresponding to the second portion of the field of view of the one or more cameras;
in response to a determination that the electronic device is not configured to capture visual content corresponding to the second portion of the field of view of the one or more cameras based on the additional content setting;
capturing the first representation of the visual content corresponding to the first portion of the field of view of the one or more cameras without capturing the representation of at least the portion of the visual content corresponding to the second portion of the field of view of the one or more cameras;
64. The method of any one of claims 51 to 63, further comprising:
[Item 65]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs including instructions for performing the method according to any one of items 51 to 64.
[Item 66]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
65. An electronic device comprising:
[Item 67]
1. An electronic device comprising:
A display device;
One or more cameras and means for carrying out the method according to any one of items 51 to 64,
An electronic device comprising:
[Item 68]
1. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs comprising:
receiving a request to display a camera user interface;
in response to receiving the request to display the camera user interface and in response to a determination that a respective criterion is not satisfied,
via the display device, the camera user interface,
a first region including a representation of a first portion of a field of view of the one or more cameras;
a second region including a representation of a second portion of the field of view of the one or more cameras, the second portion of the field of view of the one or more cameras being visually distinct from the first portion;
displaying the camera user interface,
detecting an input corresponding to a request to capture media with the one or more cameras while the camera user interface is displayed;
in response to detecting the input corresponding to the request to capture media with the one or more cameras, capturing a media item with the one or more cameras, the media item including visual content corresponding to the first portion of the field of view of the one or more cameras and visual content corresponding to the second portion of the field of view of the one or more cameras;
receiving a request to display the media item after capturing the media item;
responsive to receiving the request to display the media item, displaying a first representation of the visual content corresponding to the first portion of the field of view of the one or more cameras without displaying a representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras.
A non-transitory computer-readable storage medium containing instructions.
[Item 69]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
receiving a request to display a camera user interface;
in response to receiving the request to display the camera user interface and in response to a determination that a respective criterion is not satisfied,
via the display device, the camera user interface,
a first region including a representation of a first portion of a field of view of the one or more cameras;
a second region including a representation of a second portion of the field of view of the one or more cameras, the second portion of the field of view of the one or more cameras being visually distinct from the first portion;
displaying the camera user interface,
detecting an input corresponding to a request to capture media with the one or more cameras while the camera user interface is displayed;
in response to detecting the input corresponding to the request to capture media with the one or more cameras, capturing a media item with the one or more cameras, the media item including visual content corresponding to the first portion of the field of view of the one or more cameras and visual content corresponding to the second portion of the field of view of the one or more cameras;
receiving a request to display the media item after capturing the media item;
responsive to receiving the request to display the media item, displaying a first representation of the visual content corresponding to the first portion of the field of view of the one or more cameras without displaying a representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras.
An electronic device that contains instructions.
[Item 70]
1. An electronic device comprising:
A display device;
One or more cameras;
means for receiving a request to display a camera user interface;
in response to receiving the request to display the camera user interface and in response to a determination that a respective criterion is not satisfied,
means for displaying the camera user interface via the display device, the camera user interface comprising:
a first region including a representation of a first portion of a field of view of the one or more cameras;
a second region including a representation of a second portion of the field of view of the one or more cameras, the second portion of the field of view of the one or more cameras being visually distinct from the first portion;
and
means for detecting an input corresponding to a request to capture media with the one or more cameras while the camera user interface is displayed;
means for capturing, in response to detecting the input corresponding to the request to capture media with the one or more cameras, a media item with the one or more cameras, the media item including visual content corresponding to the first portion of the field of view of the one or more cameras and visual content corresponding to the second portion of the field of view of the one or more cameras;
means for receiving a request to display the media item after capturing the media item;
means for displaying a first representation of the visual content corresponding to the first portion of the field of view of the one or more cameras, without displaying a representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras, in response to receiving the request to display the media item;
An electronic device comprising:
[Item 71]
1. A method comprising:
In an electronic device having a display device and one or more cameras,
displaying, via the display device, a camera user interface, the camera user interface including a camera display area including a representation of a field of view of the one or more cameras;
detecting a request to capture media corresponding to the field of view of the one or more cameras while displaying the camera user interface;
responsive to detecting the request to capture media corresponding to the field of view of the one or more cameras, capturing media corresponding to the field of view of the one or more cameras and displaying a representation of the captured media;
while displaying the representation of the captured media, detecting that the representation of the captured media has been displayed for a predetermined period of time;
in response to detecting that the representation of the captured media has been displayed for the predetermined period of time, ceasing to display at least a first portion of the representation of the captured media while maintaining a display of the camera user interface;
A method comprising:
[Item 72]
Ceasing to display at least the first portion of the representation of the captured media while maintaining the display of the camera user interface includes:
maintaining a display of at least a second portion of the representation of the captured media;
72. The method of claim 71, comprising:
[Item 73]
the representation of the captured media is displayed at a first location on the display device prior to ceasing to display the first portion of the representation;
Ceasing to display at least the first portion of the representation of the captured media while maintaining the display of the camera user interface includes:
displaying an animation that moves the representation of the captured media from the first location on the display device towards a second location on the display device that corresponds to an edge of the display device;
73. The method according to item 71 or 72, comprising:
[Item 74]
The representation of the captured media is displayed at a third location on the display device, the method comprising:
while a second representation of the captured media is being displayed, detecting a user input corresponding to a request to stop displaying at least a portion of the second representation of the captured media while maintaining display of the camera user interface;
in response to detecting the request to stop displaying at least a portion of the second representation, ceasing to display at least a portion of the second representation of the captured media while maintaining display of the camera user interface;
74. The method according to any one of items 71 to 73, comprising:
[Item 75]
receiving a user input corresponding to a movement of a contact from a fourth location on the display device corresponding to an edge of the display device to a fifth location on the display device different from the fourth location after ceasing to display the first portion of the representation;
re-displaying the first portion of the representation in response to receiving a user input corresponding to moving the contact from the fourth location on the display device corresponding to the edge of the display device to the fifth location on the display device;
75. The method of any one of claims 71 to 74, further comprising:
[Item 76]
detecting a user input corresponding to a request to display an enlarged representation of the captured media while the representation of the captured media is being displayed;
displaying, via the display device, an enlarged representation of the captured media in response to detecting a user input corresponding to the selection of the representation of the captured media;
76. The method of any one of claims 71 to 75, further comprising:
[Item 77]
receiving a request to redisplay the camera user interface while the camera user interface is not displayed;
displaying a second instance of the camera user interface including a second representation of the captured media in response to receiving the request to redisplay the camera user interface;
77. The method of any one of claims 71 to 76, further comprising:
[Item 78]
The representation of the captured media is displayed at a fifth location on the display device, the method comprising:
displaying affordances for controlling a plurality of camera settings at the fifth location after ceasing to display at least the first portion of the representation of the captured media while maintaining the display of the camera user interface.
80. The method of any one of claims 71 to 77, further comprising:
[Item 79]
Capturing media corresponding to the field of view of the one or more cameras includes capturing a sequence of images;
80. The method of any one of claims 71 to 78, wherein displaying the representation of the captured media comprises playing back at least a portion of the captured sequence of images comprising at least two images.
[Item 80]
80. The method of claim 79, wherein the predetermined period is based on a duration of the captured sequence of images.
[Item 81]
receiving a user input corresponding to a request to display an option for sharing the captured media while displaying the representation of the captured media;
In response to receiving the user input corresponding to the request to display an option for sharing the captured media, displaying a user interface for sharing the captured media;
81. The method of any one of items 71 to 80, further comprising:
[Item 82]
82. The method of claim 81, wherein the user interface for sharing the captured media includes a plurality of options for sharing the captured media.
[Item 83]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs including instructions for performing the method according to any one of items 71 to 82.
[Item 84]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
83. An electronic device comprising:
[Item 85]
1. An electronic device comprising:
A display device;
One or more cameras and means for carrying out the method according to any one of items 71 to 82,
An electronic device comprising:
[Item 86]
1. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs comprising:
displaying, via the display device, a camera user interface including a camera display area including a representation of a field of view of the one or more cameras;
detecting a request to capture media corresponding to the field of view of the one or more cameras while displaying the camera user interface;
responsive to detecting the request to capture media corresponding to the field of view of the one or more cameras, capturing media corresponding to the field of view of the one or more cameras and displaying a representation of the captured media;
While displaying the representation of the captured media, detecting that the representation of the captured media has been displayed for a predetermined period of time;
in response to detecting that the representation of the captured media has been displayed for the predetermined period of time, ceasing to display at least a first portion of the representation of the captured media while maintaining display of the camera user interface.
A non-transitory computer-readable storage medium containing instructions.
[Item 87]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
displaying, via the display device, a camera user interface including a camera display area including a representation of a field of view of the one or more cameras;
detecting a request to capture media corresponding to the field of view of the one or more cameras while displaying the camera user interface;
responsive to detecting the request to capture media corresponding to the field of view of the one or more cameras, capturing media corresponding to the field of view of the one or more cameras and displaying a representation of the captured media;
While displaying the representation of the captured media, detecting that the representation of the captured media has been displayed for a predetermined period of time;
in response to detecting that the representation of the captured media has been displayed for the predetermined period of time, ceasing to display at least a first portion of the representation of the captured media while maintaining display of the camera user interface.
An electronic device that contains instructions.
[Item 88]
1. An electronic device comprising:
A display device;
One or more cameras;
means for displaying a camera user interface via the display device, the camera user interface including a camera display area including a representation of a field of view of the one or more cameras;
means for detecting a request to capture media corresponding to the field of view of the one or more cameras while displaying the camera user interface;
means for capturing media corresponding to the field of view of the one or more cameras and displaying a representation of the captured media in response to detecting the request to capture media corresponding to the field of view of the one or more cameras;
means for detecting, while displaying the representation of the captured media, that the representation of the captured media has been displayed for a predetermined period of time;
means for ceasing displaying at least a first portion of the representation of the captured media while maintaining display of the camera user interface in response to detecting that the representation of the captured media has been displayed for the predetermined period of time;
An electronic device comprising:
[Item 89]
1. A method comprising:
In an electronic device having a display device and one or more cameras,
displaying, via the display device, a camera user interface, the camera user interface including a camera display area including a representation of a field of view of the one or more cameras;
In response to receiving a request to capture media, while the electronic device is configured to capture media in a first aspect ratio, detecting a first input including a first contact at a respective location on the representation of the field of view of the one or more cameras;
In response to detecting the first input,
configuring the electronic device, in response to a request to capture media, to capture media in a second aspect ratio different from the first aspect ratio in accordance with determining that a set of aspect ratio change criteria is satisfied;
the set of aspect ratio change criteria includes criteria that are met when the first input includes maintaining the first contact at a first position corresponding to a predefined portion of the camera display area indicative of at least a portion of a boundary of the media to be captured in response to a request to capture media for at least a threshold amount of time, followed by detecting movement of the first contact to a second position different from the first position;
A method comprising:
[Item 90]
In response to detecting at least a first portion of the first input,
providing a first tactile output in response to determining that the first portion of the first input includes maintaining the first contact at the first location for at least the threshold amount of time.
90. The method of claim 89, further comprising:
[Item 91]
in response to detecting at least a second portion of the first input;
91. The method of claim 89 or 90, further comprising: displaying a visual indication of the boundary of the media to be captured in response to a request to capture media in accordance with a determination that the second portion of the first input includes maintaining the first contact at the first position for at least the threshold amount of time.
[Item 92]
while the visual indication is displayed and in response to detecting at least a third portion of the first input;
in response to determining that the third portion of the first input includes a movement of the first contact, the movement of the first contact has a first magnitude and a first direction after the first contact is maintained at the first position for the threshold amount of time, and modifying an appearance of the visual indication based on the first magnitude and the first direction;
92. The method of claim 91, further comprising:
[Item 93]
In response to detecting at least a first portion of the first input,
displaying an animation including reducing a size of a portion of the representation of the field of view of the one or more cameras indicated by the visual indication in accordance with a determination that the first portion of the first input includes maintaining the first contact at the first location for at least the threshold amount of time.
93. The method of claim 91 or 92, further comprising:
[Item 94]
while the visual indication is displayed and in response to detecting at least a fourth portion of the first input,
displaying an animation including increasing a size of a portion of the representation of the field of view of the one or more cameras indicated by the visual indication in accordance with a determination that the fourth portion of the first input includes a lift-off of the first contact.
94. The method of any one of claims 91 to 93, further comprising:
[Item 95]
a first portion of the representation of the field of view of the one or more cameras is indicated as selected by the visual indication of the boundary of the media, and a second portion of the representation of the field of view of the one or more cameras is not indicated as selected by the visual indication of the boundary of the media;
95. The method of any one of claims 91 to 94, wherein the second portion is visually distinct from the first portion.
[Item 96]
Configuring the electronic device to capture media in a second aspect ratio includes:
configuring the electronic device to capture media at a predetermined aspect ratio according to the movement of the first contact to the second position having a first magnitude and/or direction of movement within a first range of movement;
configuring the electronic device to capture media in accordance with the movement of the first contact to the second location having a second magnitude and/or direction of movement that is not within the first range of movement, with an aspect ratio that is not predetermined and based on the second magnitude and/or direction of movement;
96. The method according to any one of items 90 to 95, comprising:
[Item 97]
97. The method of claim 96, wherein configuring the electronic device to capture media in the predetermined aspect ratio includes generating a second tactile output via one or more tactile output devices.
[Item 98]
Prior to detecting the first input, the electronic device is configured to capture media using a first camera mode, and the method includes:
In response to detecting the first input,
configuring the electronic device to capture media using a second camera mode different from the first camera mode in response to determining that the first input does not include maintaining the first contact at the first position for the threshold amount of time and in response to determining that the first input includes movement of the first contact above a first movement threshold;
98. The method of any one of items 89 to 97, further comprising:
[Item 99]
The camera user interface further includes an indication that the electronic device is configured to operate in a first media capture mode, the method comprising:
according to detecting a fourth input, the fourth input including detecting continuous movement of a fourth contact in a second direction on the camera display area;
displaying controls for adjusting characteristics associated with the media capture operation;
99. The method of any one of items 89 to 98, further comprising:
[Item 100]
In response to detecting the first input,
adjusting a focus setting, comprising: configuring the electronic device to capture media with a focus setting based on content at a location within the field of view of the one or more cameras corresponding to the first location in accordance with a determination that the first input comprises detecting the first contact at the first location for less than the threshold amount of time;
100. The method of any one of items 89 to 99, further comprising:
[Item 101]
In response to detecting the first input,
configuring the electronic device to capture media with a first exposure setting based on content at a location within the field of view of the one or more cameras corresponding to the third location in accordance with a determination that the first input includes maintaining the first contact for a second threshold amount of time at a third location that does not correspond to a predefined portion of the camera display area that indicates at least the portion of the boundary of the media to be captured in response to the request to capture media;
101. The method of any one of items 89 to 100, further comprising:
[Item 102]
detecting a change in the representation of the field of view of the one or more cameras that causes the content at the location in the field of view of the one or more cameras that corresponds to the third location to no longer be present within the field of view of the one or more cameras after configuring the electronic device to capture media with the first exposure setting based on content at the location in the field of view of the one or more cameras that corresponds to the third location;
responsive to detecting the change, continuing to configure the electronic device to capture media at the first exposure setting;
102. The method of claim 101, further comprising:
[Item 103]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs including instructions for performing the method according to any one of items 89 to 102.
[Item 104]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
103. An electronic device comprising:
[Item 105]
1. An electronic device comprising:
A display device;
One or more cameras and means for carrying out the method according to any one of items 89 to 102;
An electronic device comprising:
[Item 106]
1. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs comprising:
displaying, via the display device, a camera user interface including a camera display area including a representation of a field of view of the one or more cameras;
In response to receiving a request to capture media, while the electronic device is configured to capture media in a first aspect ratio, detect a first input including a first contact at a respective location on the representation of the field of view of the one or more cameras;
In response to detecting the first input,
instructions for configuring the electronic device in response to a request to capture media to capture media in a second aspect ratio different from the first aspect ratio in accordance with a determination that a set of aspect ratio change criteria is satisfied;
a first input for detecting a first aspect ratio change criterion for at least a threshold amount of time, the first input including: maintaining the first contact at a first position corresponding to a predetermined portion of the camera display area indicative of at least a portion of a boundary of the media to be captured in response to a request to capture media for at least a threshold amount of time, followed by detecting movement of the first contact to a second position different from the first position.
[Item 107]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
displaying, via the display device, a camera user interface including a camera display area including a representation of a field of view of the one or more cameras;
In response to receiving a request to capture media, while the electronic device is configured to capture media in a first aspect ratio, detect a first input including a first contact at a respective location on the representation of the field of view of the one or more cameras;
In response to detecting the first input,
instructions for configuring the electronic device in response to a request to capture media to capture media in a second aspect ratio different from the first aspect ratio in accordance with a determination that a set of aspect ratio change criteria is satisfied;
the set of aspect ratio change criteria includes criteria that are met when the first input includes maintaining the first contact at a first position corresponding to a predetermined portion of the camera display area indicative of at least a portion of a boundary of the media to be captured in response to a request to capture media for at least a threshold amount of time, followed by detecting movement of the first contact to a second position different from the first position.
[Item 108]
1. An electronic device comprising:
A display device;
One or more cameras;
means for displaying a camera user interface via the display device, the camera user interface including a camera display area including a representation of a field of view of the one or more cameras;
means for detecting a first input comprising a first contact at a respective location on the representation of the field of view of the one or more cameras while the electronic device is configured to capture media in a first aspect ratio in response to receiving a request to capture media;
In response to detecting the first input,
means for configuring the electronic device, in response to a request to capture media, to capture media in a second aspect ratio different from the first aspect ratio, in accordance with a determination that a set of aspect ratio change criteria is satisfied;
the set of aspect ratio change criteria includes criteria that are met when the first input includes maintaining the first contact at a first position corresponding to a predefined portion of the camera display area indicative of at least a portion of a boundary of the media to be captured in response to a request to capture media for at least a threshold amount of time, followed by detecting movement of the first contact to a second position different from the first position;
An electronic device comprising:
[Item 109]
1. A method comprising:
An electronic device comprising a display device and one or more cameras,
displaying, via the display device while the electronic device is in a first orientation, a first camera user interface for capturing media in a first camera orientation at a first zoom level;
detecting a change in an orientation of the electronic device from the first orientation to a second orientation;
in response to detecting a change in an orientation of the electronic device from the first orientation to a second orientation,
and displaying a second camera user interface that captures media in a second camera orientation at a second zoom level different from the first zoom level automatically without user input pursuant to a determination that a set of auto-zoom criteria is satisfied.
[Item 110]
Displaying a media capture affordance; and
Detecting a first input corresponding to the media capture affordance;
In response to detecting the first input,
capturing media at the first zoom level in accordance with a determination that the first input is detected while the first camera user interface is displayed;
capturing media at the second zoom level in accordance with a determination that the first input is detected while the second camera user interface is displayed; and
110. The method of claim 109, further comprising:
[Item 111]
displaying the first camera user interface includes displaying a first representation of a field of view of the one or more cameras;
the first representation is displayed at the first zoom level and in the first camera orientation;
displaying the second camera user interface includes displaying a second representation of the field of view of the one or more cameras;
Item 111. The method of item 109 or 110, wherein the second representation is displayed at the second zoom level and in the second camera orientation.
[Item 112]
Item 112. The method of item 111, wherein the first orientation is portrait and the first representation is a portion of the field of view of the one or more cameras, and the second orientation is landscape and the second representation is the entire field of view of the one or more cameras.
[Item 113]
receiving a request to change the first zoom level to a third zoom level while displaying the first representation of the field of view of the one or more cameras;
in response to receiving the request to change the first zoom level to the third zoom level, replacing the display of the first representation with a third representation of the field of view of the one or more cameras, the third representation being in the orientation of the first camera and at the third zoom level;
113. The method of claim 111 or 112, further comprising:
[Item 114]
displaying a zoom toggle affordance while displaying the first representation of the field of view of the one or more cameras; and
detecting a second input corresponding to a selection of the zoom toggle affordance, the selection of the zoom toggle affordance being in response to a request to change the first zoom level to a fourth zoom level;
in response to detecting the second input, replacing the display of the first representation with a fourth representation of the field of view of the one or more cameras, the fourth representation being an orientation of the first camera and at the fourth zoom level;
114. The method of any one of claims 111 to 113, further comprising:
[Item 115]
Item 115. The method of item 114, wherein the zoom toggle affordance is displayed in the first camera user interface and the second camera user interface.
[Item 116]
receiving a request to change the first zoom level to a third zoom level while displaying the first representation of the field of view of the one or more cameras;
in response to receiving the request to change the first zoom level to the third zoom level,
replacing the display of the first representation with a fifth representation of the field of view of the one or more cameras, the fifth representation being at the first camera orientation and at the third zoom level; and
116. The method of any one of claims 111 to 115, further comprising:
[Item 117]
the one or more cameras include a first camera and a second camera separate from the first camera;
117. The method of any one of claims 109 to 116, wherein the set of automatic zoom criteria includes criteria that are met when the electronic device is displaying a representation of the field of view of the first camera and is not displaying a representation of the field of view of the second camera in the first camera user interface.
[Item 118]
118. The method of any one of claims 109 to 117, wherein the set of auto-zoom criteria includes criteria that are satisfied when the electronic device is not in a video capture operational mode.
[Item 119]
119. The method of claim 109, wherein the set of auto-zoom criteria includes criteria that are met when the electronic device is configured to capture video of a live communication session.
[Item 120]
The first zoom level is greater than the second zoom level, and the method includes:
detecting a change in an orientation of the electronic device from the second orientation to the first orientation while displaying the second camera user interface;
displaying, on the display device, the first camera user interface in response to detecting the change in orientation of the electronic device from the second orientation to the first orientation;
120. The method of any one of claims 109 to 119, further comprising:
[Item 121]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs including instructions for performing the method according to any one of items 109 to 120.
[Item 122]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
121. An electronic device comprising:
[Item 123]
1. An electronic device comprising:
A display device;
One or more cameras and means for carrying out the method according to any one of items 109 to 120;
An electronic device comprising:
[Item 124]
1. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device having a display device and a camera, the one or more programs comprising:
displaying, via the display device, a first camera user interface for capturing media in a first camera orientation at a first zoom level while the electronic device is in a first orientation;
Detecting a change in an orientation of the electronic device from the first orientation to a second orientation;
in response to detecting a change in an orientation of the electronic device from the first orientation to a second orientation,
displaying a second camera user interface that captures media at a second camera orientation at a second zoom level different from the first zoom level automatically without user input pursuant to a determination that a set of auto-zoom criteria is satisfied;
A non-transitory computer-readable storage medium containing instructions.
[Item 125]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
displaying, via the display device, a first camera user interface for capturing media in a first camera orientation at a first zoom level while the electronic device is in a first orientation;
Detecting a change in an orientation of the electronic device from the first orientation to a second orientation;
in response to detecting a change in an orientation of the electronic device from the first orientation to a second orientation,
displaying a second camera user interface that captures media at a second camera orientation at a second zoom level different from the first zoom level automatically without user input pursuant to a determination that a set of auto-zoom criteria is satisfied;
An electronic device that contains instructions.
[Item 126]
1. An electronic device comprising:
A display device;
One or more cameras;
means for displaying, via the display device while the electronic device is in a first orientation, a first camera user interface for capturing media in a first camera orientation at a first zoom level;
means for detecting a change in an orientation of the electronic device from the first orientation to a second orientation;
in response to detecting a change in an orientation of the electronic device from the first orientation to a second orientation,
means for automatically, without user input, displaying a second camera user interface that captures media at a second zoom level and a second camera orientation, the second zoom level being different from the first zoom level, pursuant to a determination that a set of auto-zoom criteria is satisfied; and
An electronic device comprising:
[Item 127]
1. A method comprising:
An electronic device comprising a display device and one or more cameras,
displaying, via the display device, a media capture user interface including displaying a representation of a field of view of the one or more cameras;
detecting, via the one or more cameras, a change in the field of view of the one or more cameras while displaying the media capture user interface;
in response to detecting the change in the field of view of the one or more cameras and in accordance with a determination that a variable frame rate criterion is satisfied;
updating the representation of the field of view of the one or more cameras based on the detected change in the field of view of the one or more cameras at a first frame rate in accordance with a determination that the detected change in the field of view of the one or more cameras satisfies a movement criterion;
updating the representation of the field of view of the one or more cameras based on the detected change in the field of view of the one or more cameras at a second frame rate that is lower than the first frame rate in accordance with a determination that the detected change in the field of view of the one or more cameras does not satisfy the movement criterion;
A method comprising:
[Item 128]
The variable frame rate criterion includes a criterion that is met when ambient light in the field of view of the one or more cameras falls below a threshold, and prior to detecting the change in the field of view of the one or more cameras, the representation of the field of view of the one or more cameras is updated at a third frame rate, and the method further comprises:
in response to detecting the change in the field of view of the one or more cameras and in accordance with a determination that the variable frame rate criterion is not satisfied, maintaining the updating of the representation of the field of view of the one or more cameras at the third frame rate.
Item 128. The method of item 127, further comprising:
[Item 129]
130. The method of claim 128, wherein the variable frame rate criteria include a criteria that is met when a flash mode is inactive.
[Item 130]
Displaying the media capture user interface includes:
displaying an indication that a variable frame rate mode is active in response to determining that the variable frame rate criterion is satisfied; and
displaying the media capture user interface without the indication that the variable frame rate mode is active in accordance with a determination that the variable frame rate criterion has not been met;
130. The method according to any one of items 127 to 129, comprising:
[Item 131]
the representation of the field of view of the one or more cameras, updated based on the detected changes in the field of view of the one or more cameras at the first frame rate, is displayed on the display device at a first luminance;
131. The method of any one of items 127 to 130, wherein the representation of the field of view of the one or more cameras, which is updated based on the detected changes in the field of view of the one or more cameras at the second frame rate lower than the first frame rate, is displayed on the display device at a second brightness that is visually brighter than the first brightness.
[Item 132]
132. The method of any one of claims 127 to 131, wherein the second frame rate is based on an amount of ambient light in the field of view of the one or more cameras that is below a respective threshold.
[Item 133]
133. The method of any one of claims 127 to 132, wherein the detected change includes detected movement and the second frame rate is based on an amount of the detected movement.
[Item 134]
134. The method of any one of claims 127 to 133, wherein the movement criterion comprises a criterion that is met when the detected change in the field of view of the one or more cameras corresponds to a movement of the electronic device that is greater than a movement threshold.
[Item 135]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs including instructions for performing the method according to any one of items 127 to 134.
[Item 136]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
135. An electronic device comprising:
[Item 137]
1. An electronic device comprising:
A display device;
One or more cameras and means for carrying out the method according to any one of items 127 to 134;
An electronic device comprising:
[Item 138]
1. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs comprising:
displaying, via the display device, a media capture user interface including displaying a representation of a field of view of the one or more cameras;
detecting, via the one or more cameras, a change in the field of view of the one or more cameras while displaying the media capture user interface;
in response to detecting the change in the field of view of the one or more cameras and in accordance with a determination that a variable frame rate criterion is satisfied;
updating the representation of the field of view of the one or more cameras based on the detected change in the field of view of the one or more cameras at a first frame rate pursuant to a determination that the detected change in the field of view of the one or more cameras satisfies a movement criterion;
updating the representation of the field of view of the one or more cameras based on the detected change in the field of view of the one or more cameras at a second frame rate that is lower than the first frame rate pursuant to a determination that the detected change in the field of view of the one or more cameras does not satisfy the movement criterion.
A non-transitory computer-readable storage medium containing instructions.
[Item 139]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
displaying, via the display device, a media capture user interface including displaying a representation of a field of view of the one or more cameras;
detecting, via the one or more cameras, a change in the field of view of the one or more cameras while displaying the media capture user interface;
in response to detecting the change in the field of view of the one or more cameras and pursuant to a determination that a variable frame rate criterion is satisfied,
updating the representation of the field of view of the one or more cameras based on the detected change in the field of view of the one or more cameras at a first frame rate pursuant to a determination that the detected change in the field of view of the one or more cameras satisfies a movement criterion;
an electronic device comprising: instructions for updating the representation of the field of view of the one or more cameras based on the detected change in the field of view of the one or more cameras at a second frame rate lower than the first frame rate in accordance with a determination that the detected change in the field of view of the one or more cameras does not satisfy the movement criterion.
[Item 140]
1. An electronic device comprising:
A display device;
One or more cameras;
means for displaying, via the display device, a media capture user interface that includes displaying a representation of a field of view of the one or more cameras;
means for detecting, via the one or more cameras, a change in the field of view of the one or more cameras while displaying the media capture user interface;
in response to detecting the change in the field of view of the one or more cameras and in accordance with a determination that a variable frame rate criterion is satisfied;
updating the representation of the field of view of the one or more cameras based on the detected change in the field of view of the one or more cameras at a first frame rate pursuant to a determination that the detected change in the field of view of the one or more cameras satisfies a movement criterion;
updating the representation of the field of view of the one or more cameras based on the detected change in the field of view of the one or more cameras at a second frame rate that is lower than the first frame rate pursuant to a determination that the detected change in the field of view of the one or more cameras does not satisfy the movement criterion.
Means,
An electronic device comprising:
[Item 141]
1. A method comprising:
In an electronic device having a display device and one or more cameras,
Receiving a request to display a camera user interface;
displaying, via the display device, a camera user interface in response to receiving the request to display the camera user interface;
displaying via said display device a representation of a field of view of said one or more cameras;
displaying, in response to a determination that a low light condition is satisfied, including a condition that is satisfied when ambient light in the field of view of the one or more cameras falls below a respective threshold, a control for adjusting a capture duration for capturing media in response to a request to capture media, concurrently with the representation of the field of view of the one or more cameras;
ceasing to display the control for adjusting the capture duration in accordance with a determination that the low light condition was not met; and
and
A method comprising:
[Item 142]
obtaining an indication that a low light condition is no longer met while displaying the control that adjusts the capture duration; and
responsive to obtaining the indication, ceasing to display, via the display device, the control for adjusting the capture duration; and
Item 142. The method of item 141, further comprising:
[Item 143]
obtaining an indication that a low light condition has been met while displaying the representation of the field of view of the one or more cameras without simultaneously displaying the control for adjusting the capture duration;
responsive to obtaining the indication, displaying the control for adjusting the capture duration concurrently with the representation of the field of view of the one or more cameras;
143. The method of claim 141 or 142, further comprising:
[Item 144]
Item 144. The method of any one of items 141 to 143, wherein the low light conditions include conditions that are met when a flash mode is inactive.
[Item 145]
145. The method of any one of claims 141 to 144, wherein the control for adjusting the capture duration is a slider.
[Item 146]
Displaying the camera user interface includes:
displaying, concurrently with the representation of the field of view of the one or more cameras, a media capture affordance that, when selected, initiates the capture of media using the one or more cameras;
146. The method according to any one of items 141 to 145, comprising:
[Item 147]
displaying a first indication of a first capture duration while displaying the control that adjusts the capture duration;
in response to receiving a request to adjust the control to adjust the capture duration from the first capture duration to a second capture duration, replacing a display of the first indication of the first capture duration with a display of a second indication of the second capture duration;
Item 147. The method of item 146, further comprising:
[Item 148]
The representation of the field of view of the one or more cameras is a first representation of the field of view of the one or more cameras, and the method further comprises:
in response to receiving the request to adjust the control to adjust the capture duration from the first capture duration to the second capture duration.
replacing the display of the first representation with a second representation of the field of view of the one or more cameras, the second representation being based on the second capture duration and being visually distinct from the first representation;
Item 148. The method of item 147, further comprising:
[Item 149]
receiving a request to capture media while displaying the second indication of the second capture duration;
In response to receiving the request to capture media and in accordance with a determination that the second capture duration corresponds to a predefined capture duration that deactivates a low-light capture mode, initiating capture of media via the one or more cameras based on a duration different from the second capture duration;
149. The method of claim 147 or 148, further comprising:
[Item 150]
receiving a request to capture media while displaying the second indication of the second capture duration;
In response to receiving the request to capture media, initiating capture of media via the one or more cameras based on the second capture duration;
149. The method of claim 147 or 148, further comprising:
[Item 151]
responsive to receiving the request to capture media, ceasing to display the representation of the field of view of the one or more cameras;
151. The method of claim 150, further comprising:
[Item 152]
The control for adjusting the capture duration is displayed in a first color, and the method further comprises:
displaying the control for adjusting the capture duration in a second color different from the first color in response to receiving the request to capture media;
152. The method of claim 150 or 151, further comprising:
[Item 153]
displaying a first animation in response to receiving the request to capture media, the first animation moving a third indication of a third capture value to the second indication of the second capture duration;
displaying, after displaying the first animation, a second animation moving the second indication of the second capture duration to the third indication of the third capture value, the duration of the second animation corresponding to a duration of the second capture duration and different from a duration of the first animation;
153. The method of any one of claims 150 to 152, further comprising:
[Item 154]
providing a first tactile output while displaying the first animation; and
providing a second tactile output while displaying the second animation; and
Item 154. The method of item 153, further comprising:
[Item 155]
capturing the media based on the second capture duration after initiating capture of the media;
155. The method of any one of claims 150 to 154, further comprising:
[Item 156]
The media is a first media captured based on the second capture duration, and the method further comprises:
receiving a request to capture a second media based on the second capture duration after capturing the first media;
in response to receiving the request to capture second media based on the second capture duration, initiating capture of the second media based on the second capture duration;
receiving a request to end capture of the second media before the second capture duration has elapsed after initiating capture of the second media based on the second capture duration;
In response to receiving the request to end capture of the second media,
terminating the capture of the second media based on the second capture duration; and
displaying a representation of the second media captured prior to receiving the request to terminate capture of the second media based on visual information captured by the one or more cameras prior to receiving the request to terminate capture of the second media; and
Item 156. The method of item 155, further comprising:
[Item 157]
The media is a first media captured based on the second capture duration, and the method further comprises:
receiving a request to capture a third media based on the second capture duration after capturing the first media;
in response to receiving the request to capture a third media based on the second capture duration, initiating capture of the third media based on the second capture duration;
after initiating capture of the third media based on the second capture duration;
in response to a determination that the detected change in the field of view of the one or more cameras exceeds a movement criterion;
terminating the capture of the third media; and
displaying a representation of the third media captured prior to receiving the request to terminate capture of the second media based on visual information captured by the one or more cameras prior to receiving the request to terminate capture of the second media; and
157. The method of claim 155 or 156, further comprising:
[Item 158]
responsive to receiving the request to capture media, replacing the display of the affordance requesting to capture media with a display of an affordance to terminate capturing of media;
158. The method of any one of claims 155 to 157, further comprising:
[Item 159]
displaying a first representation of the first media captured at a first capture time after initiating capture of the media;
after displaying the first representation of the first media, replacing the display of the first representation of the first media with a display of a second representation of the first media captured at a second capture time after the first capture time, the second representation being visually distinct from the first representation of the first media;
159. The method of any one of claims 155 to 158, further comprising:
[Item 160]
160. The method of claim 159, wherein the replacing of the display of the first representation of the first media with the display of the second representation of the first media occurs after a predetermined period of time.
[Item 161]
displaying the camera user interface includes displaying a low light capture status indicator indicating that a low light capture mode status is active simultaneously with the control for adjusting a capture duration pursuant to a determination that a low light condition is met;
The method comprises:
receiving a first selection of the low light capture status indicator while displaying the low light capture status indicator;
In response to receiving a first selection of the low light capture indicator,
ceasing to display the control for adjusting the capture duration while maintaining display of the low light capture status indicator;
updating an appearance of the low light capture status indicator to indicate that the status of the low light capture mode is inactive; and
161. The method according to any one of items 141 to 160, comprising:
[Item 162]
displaying the camera user interface includes receiving a second selection of the low light capture status indicator while displaying the low light capture status indicator indicating that the low light capture mode is inactive pursuant to determining that a low light condition is met;
The method comprises:
redisplaying the control for adjusting the capture duration in response to receiving the second selection of the low light capture status indicator.
Item 162. The method of item 161, comprising:
[Item 163]
162. The method of claim 161, comprising configuring the electronic device to not perform a flash operation in response to receiving the first selection of the low light capture status indicator.
[Item 164]
Item 164. The method of any one of items 161 to 163, wherein the low light condition comprises a condition that is met when the low light capture status indicator is selected.
[Item 165]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs including instructions for performing the method according to any one of items 141 to 164.
[Item 166]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
165. An electronic device comprising:
[Item 167]
1. An electronic device comprising:
A display device;
One or more cameras and means for carrying out the method according to any one of items 141 to 164;
An electronic device comprising:
[Item 168]
1. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs comprising:
receiving a request to display a camera user interface;
responsive to receiving the request to display the camera user interface, displaying a camera user interface via the display device, the displaying of the camera user interface comprising:
displaying via said display device a representation of a field of view of said one or more cameras;
displaying, in response to a determination that a low light condition is satisfied, including a condition that is satisfied when ambient light in the field of view of the one or more cameras falls below a respective threshold, a control for adjusting a capture duration for capturing media in response to a request to capture media, concurrently with the representation of the field of view of the one or more cameras;
ceasing to display the control for adjusting the capture duration in accordance with a determination that the low light condition was not met; and
A non-transitory computer readable storage medium comprising:
[Item 169]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
receiving a request to display a camera user interface;
responsive to receiving the request to display the camera user interface, displaying a camera user interface via the display device, the displaying of the camera user interface comprising:
displaying via said display device a representation of a field of view of said one or more cameras;
displaying, in response to a determination that a low light condition is satisfied, including a condition that is satisfied when ambient light in the field of view of the one or more cameras falls below a respective threshold, a control for adjusting a capture duration for capturing media in response to a request to capture media, concurrently with the representation of the field of view of the one or more cameras;
ceasing to display the control for adjusting the capture duration in accordance with a determination that the low light condition was not met; and
2. An electronic device comprising:
[Item 170]
1. An electronic device comprising:
A display device;
One or more cameras;
means for receiving a request to display a camera user interface;
means for displaying, via the display device, a camera user interface in response to receiving the request to display the camera user interface, the means comprising:
displaying via said display device a representation of a field of view of said one or more cameras;
displaying, in response to a determination that a low light condition is satisfied, including a condition that is satisfied when ambient light in the field of view of the one or more cameras falls below a respective threshold, a control for adjusting a capture duration for capturing media in response to a request to capture media, contemporaneously with the representation of the field of view of the one or more cameras;
ceasing to display the control for adjusting the capture duration in accordance with a determination that the low light condition was not met; and
and
An electronic device comprising:
[Item 171]
1. A method comprising:
In an electronic device having a display device and one or more cameras,
displaying a camera user interface via the display device;
detecting, while displaying the camera user interface, an amount of light within a field of view of the one or more cameras via one or more sensors of the electronic device;
in response to detecting the amount of light within the field of view of the one or more cameras,
in response to a determination that the amount of light within the field of view of the one or more cameras satisfies a low light environment criterion, the criterion being met when the amount of light within the field of view of the one or more cameras is below a predetermined threshold, within the camera user interface:
a flash status indicator that indicates the status of a flash operation;
a low light capture status indicator that indicates the status of the low light capture mode;
and
ceasing to display the low light capture status indicator in the camera user interface in accordance with a determination that the amount of light within the field of view of the one or more cameras does not meet the low light environment criterion;
A method comprising:
[Item 172]
pursuant to a determination that flash operation criteria are met, including criteria that are met when the amount of light within the field of view of the one or more cameras meets a low light environment criterion and a flash setting is set to automatically determine whether the flash operation is set to active or inactive;
the flash status indicator indicates that the status of the flash operation is active;
172. The method of claim 171, wherein the low light capture indicator indicates that the state of the low light capture mode is inactive.
[Item 173]
while the amount of light within the field of view of the one or more cameras meets a low light environment criterion;
in response to determining that the amount of light within the field of view of the one or more cameras is within a first predetermined range and a flash setting is set to active;
the flash status indicator indicates that the status of the flash operation is active;
the low light capture indicator indicates that the state of the low light capture mode is inactive;
in response to determining that the amount of light within the field of view of the one or more cameras is within the first predetermined range and the flash setting is not set to active;
the flash state indicator indicates that the state of the flash operation is inactive;
Item 173. The method of item 171 or 172, wherein the low light capture indicator indicates that the state of the low light capture mode is active.
[Item 174]
while the amount of light within the field of view of the one or more cameras meets a low light environment criterion;
in response to determining that the amount of light within the field of view of the one or more cameras is within a second predetermined range different from the first predetermined range and the flash setting is set to inactive;
the flash state indicator indicates that the state of the flash operation is inactive;
the low light capture indicator indicates that the state of the low light capture mode is active;
in response to determining that the amount of light within the field of view of the one or more cameras is within the second predetermined range that is different from the first predetermined range and the flash setting is not set to inactive;
the flash status indicator indicates that the status of the flash operation is active;
174. The method of claim 173, wherein the low light capture indicator indicates that the state of the low light capture mode is inactive.
[Item 175]
receiving a selection of the flash state indicator while the flash state indicator is displayed and indicates that the state of the flash operation is active and the low light capture indicator is displayed and indicates that the state of the low light capture mode is inactive;
in response to receiving the selection of the flash state indicator,
updating the flash status indicator to indicate that the status of the flash operation is inactive; and
updating the low light capture indicator to indicate that the state of the low light capture mode is active; and
175. The method of any one of claims 171 to 174, further comprising:
[Item 176]
receiving a selection of the low light capture status indicator while the flash status indicator is displayed and indicates that the status of the flash operation is active and the low light capture indicator is displayed and indicates that the status of the low light capture mode is inactive;
in response to receiving the selection of the low light capture status indicator,
updating the flash status indicator to indicate that the status of the flash operation is inactive; and
updating the low light capture status indicator to indicate that the status of the low light capture mode is active; and
176. The method of any one of claims 171 to 175, further comprising:
[Item 177]
displaying a control to adjust a capture duration in accordance with determining that the state of the low light capture mode is active;
177. The method of any one of claims 171 to 176, further comprising:
[Item 178]
receiving a request to change the control from a first capture duration to a second capture duration while displaying the control that adjusts the capture duration;
in response to receiving the request to change the control from the first capture duration to the second capture duration;
updating the low-light capture status indicator to indicate that the status of the low-light capture mode is inactive according to determining that the second capture duration is a predetermined capture duration that deactivates a low-light capture mode;
178. The method of claim 177, further comprising:
[Item 179]
detecting a change in a state of a low light capture mode while displaying the control that adjusts the capture duration;
in response to detecting the change in state of the low light capture mode,
ceasing to display the control that adjusts the capture duration in accordance with determining that the state of a low light capture mode is inactive; and
178. The method of claim 177, further comprising:
[Item 180]
displaying within the camera user interface a first representation of the field of view of the one or more cameras;
receiving a request to capture a first media in the field of view of the one or more cameras while the low light capture mode state is active;
in response to receiving the request to capture a first media while the low light capture mode is active,
initiating capture of the first media;
maintaining the display of the first representation of the field of view of the one or more cameras for a duration of the capture of the first media;
179. The method of any one of claims 171 to 179, further comprising:
[Item 181]
receiving a request to capture a second media in the field of view of the one or more cameras while the low light capture mode state is active;
in response to receiving the request to capture a second media while the low light capture mode state is active, initiating capture of the second media;
simultaneously displaying within the camera user interface a representation of the second media while capturing the second media;
181. The method of any one of claims 171 to 180, further comprising:
[Item 182]
displaying within the camera user interface a second representation of the field of view of the one or more cameras; and
receiving a request to capture a third media in the field of view of the one or more cameras while the low light capture mode state is active;
initiating capture of the third media in response to receiving the request to capture the third media while the state of the low light capture mode is active; and
ceasing to display representations derived from the field of view of the one or more cameras in the camera user interface while capturing the third media; and
182. The method of any one of claims 171 to 181, further comprising:
[Item 183]
displaying, in accordance with a determination that the amount of light within the field of view of the one or more cameras does not meet the low light environment criterion, within the camera user interface, the flash status indicator indicating the status of the flash operation.
183. The method of any one of claims 171 to 182, further comprising:
[Item 184]
184. The method of any one of claims 171 to 183, wherein the state of flash operation and the state of the low light capture mode are mutually exclusive.
[Item 185]
185. The method of any one of claims 171 to 184, wherein the state of the low light capture mode is selected from the group consisting of an active state, an available state, and an inactive state.
[Item 186]
while the amount of light within the field of view of the one or more cameras meets a low light environment criterion;
186. The method of any one of items 171 or 172 and 174 to 185, wherein in accordance with a determination that the amount of light within the field of view of the one or more cameras is within a third predetermined range, the flash status indicator indicates that the status of the flash operation is available.
[Item 187]
The control for adjusting the capture duration is a first control for adjusting the capture duration, and the method further comprises:
receiving a selection of the low light capture status indicator while the flash status indicator indicates that the status of the flash operation is available;
in response to receiving a selection of the low light capture status indicator,
updating the low light capture status indicator to indicate that the status of the low light capture mode is active; and
displaying a second control for adjusting the capture duration; and
187. The method of claim 186, further comprising:
[Item 188]
In response to determining that ambient light within the field of view of the one or more cameras is within a fourth predetermined range, a first low light capture status indicator includes a first visual representation of the first capture duration;
188. The method of any one of claims 171 to 187, wherein in accordance with a determination that ambient light within the field of view of the one or more cameras is not within the fourth predetermined range, the first low light capture status indicator does not include the first visual representation of the first capture duration.
[Item 189]
In response to detecting the amount of light within the field of view of the one or more cameras, in accordance with the determination that the amount of light within the field of view of the one or more cameras satisfies a low light environment criterion,
pursuant to determining that ambient light within the field of view of the one or more cameras is within a third predetermined range, the low light capture status indicator indicates that the low light capture mode status is active and includes a second visual representation of the first capture duration;
pursuant to determining that ambient light within the field of view of the one or more cameras is within a fourth predetermined range, the low light capture status indicator indicates that the state of the low light capture mode is active and does not include the second visual representation of the first capture duration;
pursuant to a determination that ambient light within the field of view of the one or more cameras is within a fifth predetermined range, the low light capture status indicator indicates that the low light capture mode state is available, indicates that the low light capture mode state is active and includes the second visual representation of the first capture duration, the low light capture status indicator indicates that the low light capture mode state is active and does not include the second visual representation of the first capture duration, and the low light capture status indicator indicates that the low light capture mode state is available are visually distinct from one another.
189. The method of any one of claims 171 to 188, further comprising:
[Item 190]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs including instructions for performing the method according to any one of items 171 to 189.
[Item 191]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
190. An electronic device comprising:
[Item 192]
1. An electronic device comprising:
A display device;
One or more cameras and means for performing the method according to any one of items 171 to 189;
An electronic device comprising:
[Item 193]
1. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs comprising:
Displaying a camera user interface via the display device;
detecting, via one or more sensors of the electronic device, an amount of light within a field of view of the one or more cameras while displaying the camera user interface;
in response to detecting the amount of light within the field of view of the one or more cameras,
in response to a determination that the amount of light within the field of view of the one or more cameras satisfies a low light environment criterion, the criterion being met when the amount of light within the field of view of the one or more cameras is below a predetermined threshold, within the camera user interface:
a flash status indicator that indicates the status of a flash operation;
a low light capture status indicator that indicates the status of the low light capture mode;
simultaneously,
ceasing to display the low light capture status indicator in the camera user interface in response to a determination that the amount of light within the field of view of the one or more cameras does not meet the low light environment criterion.
A non-transitory computer-readable storage medium containing instructions.
[Item 194]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
Displaying a camera user interface via the display device;
detecting, via one or more sensors of the electronic device, an amount of light within a field of view of the one or more cameras while displaying the camera user interface;
in response to detecting the amount of light within the field of view of the one or more cameras,
in response to a determination that the amount of light within the field of view of the one or more cameras satisfies a low light environment criterion, the criterion being met when the amount of light within the field of view of the one or more cameras is below a predetermined threshold, within the camera user interface:
a flash status indicator that indicates the status of a flash operation;
a low light capture status indicator that indicates the status of the low light capture mode;
simultaneously,
ceasing to display the low light capture status indicator in the camera user interface in response to a determination that the amount of light within the field of view of the one or more cameras does not meet the low light environment criterion.
An electronic device that contains instructions.
[Item 195]
1. An electronic device comprising:
A display device;
One or more cameras;
means for displaying a camera user interface via said display device;
means for detecting, via one or more sensors of the electronic device, an amount of light within a field of view of the one or more cameras while displaying the camera user interface;
in response to detecting the amount of light within the field of view of the one or more cameras,
in response to a determination that the amount of light within the field of view of the one or more cameras satisfies a low light environment criterion, the criterion being met when the amount of light within the field of view of the one or more cameras is below a predetermined threshold, within the camera user interface:
a flash status indicator that indicates the status of a flash operation;
a low light capture status indicator that indicates the status of the low light capture mode;
simultaneously,
ceasing to display the low light capture status indicator in the camera user interface in response to a determination that the amount of light within the field of view of the one or more cameras does not meet the low light environment criterion.
Means,
An electronic device comprising:
[Item 196]
1. A method comprising:
In an electronic device having a display device,
displaying, on the display device, a media editing user interface, the media editing user interface comprising:
Visual media expression,
a first affordance corresponding to a first editable parameter for editing the representation of the visual media; and
a second affordance corresponding to a second editable parameter for editing the representation of the visual media; and
and
detecting a first user input corresponding to a selection of the first affordance while displaying the media editing user interface;
in response to detecting the first user input corresponding to a selection of the first affordance, displaying on the display device adjustable controls at respective locations within the media editing user interface for adjusting the first editable parameter;
detecting a first gesture directed at the adjustable control for adjusting the first editable parameter while displaying the adjustable control for adjusting the first editable parameter and while the first editable parameter is selected;
in response to detecting a first gesture directed at the adjustable control that adjusts the first editable parameter while the first editable parameter is selected, adjusting a current value of the first editable parameter in accordance with the first gesture;
detecting a second user input corresponding to a selection of the second affordance while displaying, on the display device, the adjustable control for adjusting the first editable parameter;
in response to detecting the second user input corresponding to a selection of the second affordance, displaying an adjustable control at the respective location within the media editing user interface for adjusting the second editable parameter;
while displaying the adjustable control for adjusting the second editable parameter and while the second editable parameter is selected, detecting a second gesture directed at the adjustable control for adjusting the second editable parameter;
in response to detecting a second gesture directed at the adjustable control that adjusts the second editable parameter while the second editable parameter is selected, adjusting a current value of the second editable parameter in accordance with the second gesture;
A method comprising:
[Item 197]
the adjustable control for adjusting the first editable parameter includes a first static portion and a first variable portion;
the adjustable control for adjusting the second editable parameter includes the first static portion and a second variable portion;
Displaying the adjustable control at the respective location within the media editing user interface for adjusting the second editable parameter includes:
maintaining, on the display device, a display of the first static portion at the respective location within the media editing user interface;
200. The method of claim 196, comprising:
[Item 198]
20. The method of claim 196 or 197, wherein the adjustable control that adjusts the first editable parameter and the adjustable control that adjusts the second editable parameter share one or more visual characteristics when adjusted to the same relative position.
[Item 199]
in response to detecting the first gesture directed at the adjustable control that adjusts the first editable parameter while the first editable parameter is selected, replacing a display of the representation of the visual media with an adjusted representation of the visual media that is adjusted based on the adjusted current value of the first editable parameter;
in response to detecting the second gesture directed at the adjustable control that adjusts the second editable parameter while the second editable parameter is selected, replacing a display of the representation of the visual media with an adjusted representation of the visual media that is adjusted based on the adjusted current value of the second editable parameter;
200. The method of any one of claims 196 to 198, further comprising:
[Item 200]
the first editable parameter is an auto-adjust editable parameter;
200. The method of any one of claims 196 to 199, wherein adjusting the current value of the first editable parameter in accordance with the first gesture includes adjusting current values of a plurality of editable parameters including the second editable parameter.
[Item 201]
The media editing user interface includes a plurality of editable parameter current value indicators, the plurality of editable parameter current value indicators comprising:
a value indicator corresponding to the second editable parameter of the representation of the visual media; and
a value indicator corresponding to a third editable parameter of the representation of the visual media; and
Including,
Adjusting current values of the plurality of editable parameters includes:
adjusting a current value of a third editable parameter;
updating the value indicator corresponding to the second editable parameter based on the adjusted current value of the second editable parameter;
updating the value indicator corresponding to the third editable parameter based on the adjusted current value of the third editable parameter;
200. The method of claim 199, comprising:
[Item 202]
detecting a third user input while the media editing user interface does not include a third affordance corresponding to a fourth editable parameter for editing the representation of the visual media;
In response to detecting the third user input, displaying the third affordance; and
202. The method of any one of claims 196 to 201, further comprising:
[Item 203]
displaying the adjustable control for adjusting the first editable parameter and visually suppressing the adjustable control for adjusting the first editable parameter while detecting the third user input;
203. The method of claim 202, further comprising:
[Item 204]
the third user input is received while the adjustable control for adjusting the first editable parameter is displayed;
Displaying the third affordance includes:
displaying an adjustable control for adjusting the fourth editable parameter at the respective location within the media editing user interface in accordance with a determination that a first set of criteria is satisfied, the criteria including criteria that are satisfied when the fourth editable parameter is a first type of parameter;
ceasing to display the adjustable control for adjusting the fourth editable parameter at the respective location within the media editing user interface in accordance with determining that the first set of criteria is not satisfied; and
204. The method of claim 203, comprising:
[Item 205]
205. The method of any one of claims 196 to 204, wherein the first user input is a tap input on the first affordance and the second user input is a tap input on the second affordance.
[Item 206]
displaying, while displaying the representation of the visual media and the first affordance, a first editable parameter status indicator that indicates a status of whether the representation of the visual media is currently being adjusted based on the first editable parameter;
Detecting a fourth user input corresponding to a selection of the first affordance; and
In response to detecting the fourth user input,
in response to determining that the representation of the visual media is currently adjusted based on the first editable parameter;
updating the first editable parameter status indicator to indicate that the representation of the visual media is not currently adjusted based on the first editable parameter;
replacing a display of the representation of the visual media with a representation of the visual media that has not been adjusted based on the first editable parameter;
in response to a determination that the representation of the visual media is not currently adjusted based on the first editable parameter;
updating the first editable parameter state indicator to indicate that the representation of the visual media is currently being adjusted based on the current value of the first editable parameter;
replacing a display of the representation of the visual media with a representation of the visual media adjusted based on the first editable parameter;
206. The method of any one of claims 196 to 205, further comprising:
[Item 207]
Adjusting the current value of the first editable parameter in accordance with the first gesture includes:
generating a tactile output in response to determining that the current value of the first editable parameter corresponds to a predetermined reset value for the first editable parameter;
ceasing to generate a tactile output in response to determining that the current value of the first editable parameter does not correspond to the predetermined reset value for the first editable parameter;
207. The method of any one of claims 196 to 206, comprising:
[Item 208]
visually highlighting the adjustable control that adjusts the first editable parameter while detecting the first gesture directed at the adjustable control that adjusts the first editable parameter;
208. The method of any one of claims 196 to 207, further comprising:
[Item 209]
209. The method of any one of items 196 to 208, wherein a third editable parameter current value indicator visually surrounds at least a portion of the first affordance and a fourth editable parameter current value indicator visually surrounds the second affordance.
[Item 210]
the electronic device includes one or more cameras;
the representation of the visual media is a representation of a field of view of the one or a camera;
the media editing user interface is displayed while the electronic device is configured to capture visual media in a first capture mode that enables application of lighting and depth effects;
the first editable parameter is a lighting effect intensity;
209. The method of any one of items 196 to 199 and 202 to 209, wherein the second editable parameter is depth effect intensity.
[Item 211]
the first editable parameter corresponds to a lighting effects parameter;
the media editing user interface includes a value indicator corresponding to the lighting effects parameter;
209. The method of claim 196, wherein adjusting the current value of the first editable parameter in accordance with the first gesture comprises adjusting the lighting effects parameter based on the adjusted current value of the first editable parameter.
[Item 212]
the first editable parameter is a visual filter effect intensity;
Adjusting the current value of the first editable parameter in accordance with the first gesture includes:
replacing a display of the representation of visual media with a representation of the visual media adjusted based on the current value of the visual filter effect intensity;
209. The method according to any one of items 196 to 199 and 202 to 209, comprising:
[Item 213]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device having a display device, the one or more programs including instructions for performing the method according to any one of items 196 to 212.
[Item 214]
1. An electronic device comprising:
A display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
213. An electronic device comprising:
[Item 215]
1. An electronic device comprising:
A display device and a means for performing the method according to any one of items 196 to 212;
An electronic device comprising:
[Item 216]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device having a display device, the one or more programs comprising:
on the display device, a media editing user interface;
Visual media expression,
a first affordance corresponding to a first editable parameter for editing the representation of the visual media; and
a second affordance corresponding to a second editable parameter for editing the representation of the visual media; and
displaying a media editing user interface including
detecting a first user input corresponding to a selection of the first affordance while displaying the media editing user interface;
in response to detecting the first user input corresponding to a selection of the first affordance, displaying on the display device adjustable controls at respective locations within the media editing user interface for adjusting the first editable parameter;
while displaying the adjustable control for adjusting the first editable parameter and while the first editable parameter is selected, detecting a first gesture directed at the adjustable control for adjusting the first editable parameter;
in response to detecting a first gesture directed at the adjustable control that adjusts the first editable parameter while the first editable parameter is selected, adjusting a current value of the first editable parameter in accordance with the first gesture;
detecting a second user input corresponding to a selection of the second affordance while displaying, on the display device, the adjustable control for adjusting the first editable parameter;
in response to detecting the second user input corresponding to a selection of the second affordance, displaying an adjustable control at the respective location within the media editing user interface for adjusting the second editable parameter;
while displaying the adjustable control for adjusting the second editable parameter and while the second editable parameter is selected, detecting a second gesture directed at the adjustable control for adjusting the second editable parameter;
and in response to detecting a second gesture directed at the adjustable control that adjusts the second editable parameter while the second editable parameter is selected, adjusting a current value of the second editable parameter in accordance with the second gesture.
A non-transitory computer-readable storage medium containing instructions.
[Item 217]
1. An electronic device comprising:
A display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
on the display device, a media editing user interface;
Visual media expression,
a first affordance corresponding to a first editable parameter for editing the representation of the visual media; and
a second affordance corresponding to a second editable parameter for editing the representation of the visual media; and
displaying a media editing user interface including
detecting a first user input corresponding to a selection of the first affordance while displaying the media editing user interface;
in response to detecting the first user input corresponding to a selection of the first affordance, displaying on the display device adjustable controls at respective locations within the media editing user interface for adjusting the first editable parameter;
while displaying the adjustable control for adjusting the first editable parameter and while the first editable parameter is selected, detecting a first gesture directed at the adjustable control for adjusting the first editable parameter;
responsive to detecting a first gesture directed at the adjustable control that adjusts the first editable parameter while the first editable parameter is selected, adjusting a current value of the first editable parameter in accordance with the first gesture;
detecting a second user input corresponding to a selection of the second affordance while displaying, on the display device, the adjustable control for adjusting the first editable parameter;
in response to detecting the second user input corresponding to a selection of the second affordance, displaying an adjustable control at the respective location within the media editing user interface for adjusting the second editable parameter;
while displaying the adjustable control for adjusting the second editable parameter and while the second editable parameter is selected, detecting a second gesture directed at the adjustable control for adjusting the second editable parameter;
and in response to detecting a second gesture directed at the adjustable control that adjusts the second editable parameter while the second editable parameter is selected, adjusting a current value of the second editable parameter in accordance with the second gesture.
An electronic device that contains instructions.
[Item 218]
1. An electronic device comprising:
A display device;
a means for displaying, on the display device, a media editing user interface, the media editing user interface comprising:
Visual media expression,
a first affordance corresponding to a first editable parameter for editing the representation of the visual media; and
a second affordance corresponding to a second editable parameter for editing the representation of the visual media; and
and
means for detecting a first user input corresponding to a selection of the first affordance while displaying the media editing user interface;
means for displaying, in response to detecting the first user input corresponding to a selection of the first affordance, on the display device at a respective location within the media editing user interface, an adjustable control for adjusting the first editable parameter;
means for detecting a first gesture directed at the adjustable control for adjusting the first editable parameter while displaying the adjustable control for adjusting the first editable parameter and while the first editable parameter is selected;
means for, in response to detecting a first gesture directed at the adjustable control that adjusts the first editable parameter while the first editable parameter is selected, adjusting a current value of the first editable parameter in accordance with the first gesture;
means for detecting, while displaying on the display device, the adjustable control for adjusting the first editable parameter, a second user input corresponding to a selection of the second affordance;
means for displaying, in response to detecting the second user input corresponding to a selection of the second affordance, an adjustable control for adjusting the second editable parameter at the respective location within the media editing user interface;
means for detecting a second gesture directed at the adjustable control for adjusting the second editable parameter while displaying the adjustable control for adjusting the second editable parameter and while the second editable parameter is selected;
means for, in response to detecting a second gesture directed at the adjustable control that adjusts the second editable parameter while the second editable parameter is selected, adjusting a current value of the second editable parameter in accordance with the second gesture;
An electronic device comprising:
[Item 219]
1. A method comprising:
In an electronic device having a display device,
Displaying a first user interface on the display device,
a first representation in a first visual media; and
an adjustable control including an indication of a current amount of adjustment to the perspective distortion of the first visual media; and
including simultaneously displaying
And,
detecting a user input including a gesture directed toward the adjustable control while displaying the first user interface on the display device;
in response to detecting the user input including the gesture directed at the adjustable control;
displaying on the display device a second representation of the first visual media with a respective adjustment to the perspective distortion selected based on a magnitude of the gesture;
A method comprising:
[Item 220]
The first user interface includes:
a first affordance that, when selected, updates the indication of the adjustable control to indicate a current adjustment to the horizontal perspective distortion of the first visual media and configures the adjustable control to allow adjustment of the current adjustment to the horizontal perspective distortion of the first visual media based on user input;
a second affordance that, when selected, updates the indication of the adjustable control to indicate a current adjustment to the vertical perspective distortion of the first visual media and configures the adjustable control to allow adjustment of the current adjustment to the vertical perspective distortion of the first visual media based on user input;
220. The method of claim 219, comprising:
[Item 221]
while displaying the first affordance and the second affordance, simultaneously displaying a third affordance that, when selected, updates the indication of the adjustable control to indicate a current adjustment amount for rotating visual content within the first representation of the first visual media;
221. The method of claim 220, further comprising:
[Item 222]
the perspective distortion corresponds to a horizontal perspective distortion,
222. The method of any one of claims 219 to 221, wherein an amount of horizontal perspective distortion of the first representation of the first visual media differs from an amount of horizontal perspective distortion of the second representation of the first visual media.
[Item 223]
the perspective distortion corresponds to a vertical perspective distortion;
223. The method of any one of claims 219 to 222, wherein an amount of vertical perspective distortion of the first representation of the first visual media differs from an amount of vertical perspective distortion of the second representation of the first visual media.
[Item 224]
The first representation includes a first visual horizon, and the method further comprises:
detecting an input that changes a degree of rotation of the first representation of the first visual media while the first representation of the first visual media includes a degree of rotation relative to a visual boundary within the first representation of the first visual media;
in response to detecting an input that changes the degree of rotation of the first representation of the first visual media, rotating the first representation of the first visual media by an amount determined based on the input;
224. The method of any one of claims 219 to 223, further comprising:
[Item 225]
The first representation includes a first visual content of the first visual media, and the method further comprises:
detecting a set of one or more inputs that change the first visual content of the first representation of the first visual media while the first representation includes the first visual content;
displaying a fourth representation of the first visual media comprising second visual content of the first visual media that differs from the first visual content of the first visual media in response to detecting the set of one or more inputs that change the first visual content of the first representation of the first visual media;
225. The method according to any one of items 219 to 224, comprising:
[Item 226]
The first user interface includes an auto-adjusting affordance, and the method further comprises:
Detecting an input corresponding to the auto-adjusting affordance;
In response to detecting the input corresponding to the auto-adjusting affordance,
automatically adjusting current values of two or more parameters of the first visual media selected from the group consisting of a horizontal perspective parameter, a vertical perspective parameter, and a rotation parameter;
displaying a fifth representation of the first visual media based on the adjusted current values of the adjusted two or more parameters; and
226. The method of any one of claims 219 to 225, further comprising:
[Item 227]
While displaying the first user interface including the auto-adjusting affordance, detecting a second set of one or more inputs corresponding to a request to display a third user interface different from the first user interface;
displaying, on the display device, a third user interface in response to detecting the second set of one or more inputs;
displaying a representation of at least a portion of the second visual content in a second visual media;
displaying the auto-adjusting affordance in accordance with a determination that the second visual media includes additional visual content that is outside a predetermined spatial boundary of the second visual content of the second visual media;
ceasing to display the auto-adjusting affordance in accordance with a determination that the second visual media does not include additional visual content that is outside a predetermined spatial boundary of the second visual content of the second visual media;
and
227. The method of claim 226, further comprising:
[Item 228]
the first representation of the first visual media is a representation of a first portion of the visual content of the first visual media that does not include additional visual content that is outside a predetermined spatial boundary of the captured visual content at the time the first visual media was captured;
228. The method of any one of claims 219 to 227, wherein the second representation of the first visual media includes at least a portion of the additional visual content that is outside a predetermined spatial boundary of the visual content that was also captured at the time the first visual media was captured.
[Item 229]
the first representation of the first visual media is displayed in a first aspect ratio;
the first user interface includes an aspect ratio affordance;
The method comprises:
detecting a user input corresponding to the aspect ratio affordance while displaying the first representation of the first visual media;
in response to detecting the user input corresponding to the aspect ratio affordance, displaying a sixth representation of the first visual media in a second aspect ratio different from the first aspect ratio;
229. The method of any one of claims 219 to 228, further comprising:
[Item 230]
the first representation of the first visual media is displayed in a first orientation;
the first aspect ratio has a first horizontal aspect ratio value and a first vertical aspect ratio value;
the first user interface includes an aspect ratio affordance;
The method comprises:
detecting a user input corresponding to the aspect ratio affordance while displaying the first representation of the first visual media;
In response to detecting the user input corresponding to the aspect ratio affordance, displaying visual feedback indicating a portion of the first visual media corresponding to a third aspect ratio different from the first aspect ratio without rotating the first representation of the first visual media, the third aspect ratio being:
a second horizontal aspect ratio value equal to the first vertical aspect ratio value; and
a second vertical aspect ratio value equal to the first horizontal aspect ratio value; and
and
230. The method of claim 229, further comprising:
[Item 231]
Displaying the first user interface includes:
pursuant to a determination that the first visual media includes multiple frames of content corresponding to different times, displaying adjustable controls to adjust which frames of content corresponding to the first visual media are displayed, along with one or more controls to adjust perspective distortion, cropping, and/or rotation of the image;
231. The method according to any one of items 219 to 230, comprising:
[Item 232]
a visual border is displayed around a first portion of a seventh representation of the first visual media, the seventh representation corresponding to a first time within the first visual media;
The method comprises:
detecting a request to select a time-based representation of the first visual media corresponding to a respective time while displaying the adjustable control that adjusts which frames of content corresponding to the first visual media are displayed;
in response to detecting the request to select the time-based representation of the first visual media corresponding to a respective time,
displaying an eighth representation of the first visual media corresponding to a second time within the first visual media; and
maintaining a visual border displayed around a first portion of the eighth representation of the first visual media; and
232. The method of claim 231, further comprising:
[Item 233]
The first representation of the first visual media is displayed at a first zoom level, and the method further comprises:
detecting, while displaying the first representation of the first visual media, a request to change a zoom level of the representation of the first visual media;
in response to detecting the request to change the zoom level of the representation of the first visual media, displaying a ninth representation of the first visual media at a second zoom level different from the first zoom level;
233. The method of any one of claims 219 to 232, further comprising:
[Item 234]
the first representation of the first visual media includes perspective distortion based on a shape of a first camera lens and/or a position of a first camera;
234. The method of any one of claims 219 to 233, wherein the second representation of the first visual media is adjusted to reduce the perspective distortion based on a shape of the camera lens and/or a position of the camera.
[Item 235]
the adjustable control corresponds to a control for correcting perspective distortion;
The method comprises:
in response to detecting the user input including the gesture directed at the adjustable control, updating an amount of perspective distortion correction according to a direction and/or a magnitude of the gesture directed at the adjustable control;
235. The method of any one of claims 219 to 234, further comprising:
[Item 236]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device having a display device, the one or more programs including instructions for performing the method according to any one of items 219 to 235 and 399.
[Item 237]
1. An electronic device comprising:
A display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
399. An electronic device comprising:
[Item 238]
1. An electronic device comprising:
A display device and a means for performing the method according to any one of items 219 to 235 and 399;
An electronic device comprising:
[Item 239]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device having a display device, the one or more programs comprising:
Displaying a first user interface on the display device;
a first representation in a first visual media; and
an adjustable control including an indication of a current amount of adjustment to the perspective distortion of the first visual media; and
including simultaneously displaying
detecting a user input including a gesture directed toward the adjustable control while displaying the first user interface on the display device;
in response to detecting the user input including the gesture directed at the adjustable control;
displaying on the display device a second representation of the first visual media with a respective adjustment to the perspective distortion selected based on a magnitude of the gesture.
A non-transitory computer-readable storage medium containing instructions.
[Item 240]
1. An electronic device comprising:
A display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
Displaying a first user interface on the display device;
a first representation in a first visual media; and
an adjustable control including an indication of a current amount of adjustment to the perspective distortion of the first visual media; and
including simultaneously displaying
detecting a user input including a gesture directed toward the adjustable control while displaying the first user interface on the display device;
in response to detecting the user input including the gesture directed at the adjustable control;
displaying on the display device a second representation of the first visual media with a respective adjustment to the perspective distortion selected based on a magnitude of the gesture.
An electronic device that contains instructions.
[Item 241]
1. An electronic device comprising:
A display device;
A means for displaying a first user interface on the display device, comprising:
a first representation in a first visual media; and
an adjustable control including an indication of a current amount of adjustment to the perspective distortion of the first visual media; and
and
means for detecting user input comprising a gesture directed at the adjustable control while displaying the first user interface on the display device;
in response to detecting the user input including the gesture directed at the adjustable control;
means for displaying on the display device a second representation of the first visual media with a respective adjustment to the perspective distortion selected based on a magnitude of the gesture;
An electronic device comprising:
[Item 242]
1. A method comprising:
In an electronic device having a display device,
displaying, via the display device, a media capture user interface;
displaying a representation of the field of view of the one or more cameras;
displaying a control to adjust a capture duration for capturing media while the low light camera mode is active;
upon determining that a first set of capture duration criteria is satisfied,
displaying an indication that the control is set to a first capture duration;
configuring the electronic device to capture a first plurality of images over the first capture duration in response to a single request to capture an image corresponding to a field of view of the one or more cameras;
in response to determining that a second set of capture duration criteria is satisfied, the second set of capture duration criteria being different from the first set of capture duration criteria;
displaying an indication that the control is set to a second capture duration that is longer than the first capture duration;
configuring the electronic device to capture a second plurality of images over the second capture duration in response to the single request to capture the image corresponding to the field of view of the one or more cameras;
and
A method comprising:
[Item 243]
receiving the single request to capture the image corresponding to the field of view of the one or more cameras;
in response to receiving the single request to capture the image corresponding to the field of view of the one or more cameras,
capturing the first plurality of images for the first capture duration in accordance with determining that the electronic device is configured to capture the first plurality of images for the first capture duration;
capturing the second plurality of images for the second capture duration in accordance with determining that the electronic device is configured to capture the second plurality of images for the second capture duration; and
243. The method of claim 242, further comprising:
[Item 244]
244. The method of claim 243, wherein an amount of images in the first plurality of images is different from the amount of images in the second plurality of images.
[Item 245]
In response to receiving the single request to capture the image corresponding to the field of view of the one or more cameras and in accordance with the determination that the electronic device is configured to capture the first plurality of images for the first capture duration, generating a first composite image that includes content of at least some of the first plurality of images;
In response to receiving the single request to capture the image corresponding to the field of view of the one or more cameras and in accordance with the determination that the electronic device is configured to capture the second plurality of images for the second capture duration, generating a second composite image that includes content of at least some of the second plurality of images;
245. The method of claim 243 or 244, further comprising:
[Item 246]
detecting a first stability of the electronic device while displaying the indication that the control is set to the first capture duration;
in response to detecting the first stability of the electronic device,
in response to determining that the first stability of the electronic device is above a first stability threshold,
displaying an indication that the control is set to a third capture duration that is longer than the first capture duration;
configuring the electronic device to capture a third plurality of images over the third capture duration in response to the single request to capture the image corresponding to the field of view of the one or more cameras;
246. The method of any one of claims 242 to 245, further comprising:
[Item 247]
while the low light camera mode is active, indicates a status of the low light camera mode; and
responsive to a determination that a capture duration indication criterion is met, a visual representation of the first capture duration;
not including the visual representation of the first capture duration in response to a determination that a capture duration display criterion is not met.
displaying a first low light capture status indicator;
247. The method of any one of claims 242 to 246, further comprising:
[Item 248]
248. The method of claim 247, wherein the capture duration indication criterion includes a criterion that is met when ambient light within the field of view of the one or more cameras is within a first predetermined range.
[Item 249]
before said low light camera mode is active,
displaying a second low light capture status indicator indicating that the low light camera mode status is active and including a visual representation of a third capture duration in accordance with determining that ambient light within the field of view of the one or more cameras is within a second predetermined range;
displaying a third low light capture status indicator indicating that the low light camera mode status is active and not including the visual representation of the third capture duration in accordance with determining that ambient light within the field of view of the one or more cameras is within a fourth predetermined range;
displaying a fourth low light capture status indicator indicating that the low light camera mode status is available in accordance with determining that ambient light within the field of view of the one or more cameras is within a fifth predetermined range, wherein the second low light capture status indicator, the third low light capture status indicator, and the fourth low light capture status indicator are visually distinct from one another;
ceasing to display the second low light capture status indicator, the third low light capture status indicator, and the fourth low light capture status indicator in response to determining that ambient light within the field of view of the one or more cameras is within a sixth predetermined range;
249. The method of any one of claims 242 to 248, further comprising:
[Item 250]
The control for adjusting the capture duration for capturing media includes:
a first state corresponding to a first recommended capture duration value;
a second state corresponding to a second recommended capture duration value; and
a third state corresponding to a third recommended capture duration value; and
250. The method of any one of claims 242 to 249, wherein the method is configured to be adjustable to.
[Item 251]
Displaying the control for adjusting the capture duration for capturing media includes:
displaying the control to adjust the capture duration for capturing the adjusted media to the second state in accordance with a determination that the first set of capture duration criteria is satisfied, the first capture duration being the second recommended capture duration value;
displaying the control to adjust the capture duration for capturing the adjusted media to the second state in accordance with a determination that the set of second capture duration criteria is satisfied, the second capture duration being the second recommended capture duration value;
251. The method of claim 250, comprising:
[Item 252]
Displaying the control for adjusting the capture duration for capturing media includes:
in accordance with the determination that the control adjusting the capture duration for capturing media is in the third state and in accordance with the determination that the set of first capture duration criteria is satisfied, the third recommended capture duration value is a third capture duration value;
in accordance with the determination that the control adjusting the capture duration for capturing media is in the third state and in accordance with the determination that the set of second capture duration criteria is satisfied, the third recommended capture duration value is a fourth capture duration value different from the third capture duration value.
252. The method of claim 250 or 251, comprising:
[Item 253]
the second recommended capture duration value is a fifth capture duration value and the third recommended capture duration value is a sixth capture duration value, and the method further comprises:
Detecting a first change in a current condition of the electronic device while displaying the control that adjusts a capture duration for capturing media;
in response to detecting the first change in a current condition of the electronic device,
In response to a determination that the first current condition satisfies that the third capture duration criterion is satisfied,
the second recommended capture duration value to a seventh capture duration value, the fifth capture duration value being different from the seventh capture duration value; and
the third recommended capture duration value to an eighth capture duration value different from the sixth capture duration value;
and changing to at least one of
253. The method of any one of claims 250 to 252, further comprising:
[Item 254]
The set of first capture duration criteria comprises:
ambient light detected within the field of view of the one or more cameras; and
movement detected within the field of view of the one or more cameras; and
a second stability of the electronic device; and
254. The method according to any one of items 250 to 253, comprising criteria based on one or more parameters selected from the group consisting of:
[Item 255]
Displaying the media capture user interface includes displaying an affordance for capturing media simultaneously with the representation of the field of view of the one or more cameras, the method comprising:
displaying the affordance to capture media and detecting a first input including a selection of the affordance to capture media while displaying the indication that the control is set to a third capture duration, wherein selection of the affordance to capture media corresponds to the single request to capture an image corresponding to the field of view of the one or more cameras;
In response to detecting the first input corresponding to the affordance to capture media, initiate capture of a fourth plurality of images over the first capture duration;
255. The method of any one of claims 250 to 254, further comprising:
[Item 256]
the indication that the control is set to the third capture duration is a first indication;
the first indication is displayed at a first location on the control corresponding to the third capture duration;
The method comprises:
displaying an animation that moves the first indication from the first position on the control to a second position on the control in response to detecting the first input corresponding to the affordance of capturing media;
re-displaying the first indication at the first location on the control in response to displaying the first indication at the second location;
256. The method of claim 255, further comprising:
[Item 257]
the indication that the control is set to the third capture duration is a second indication;
the second indication is displayed at a third location on the control corresponding to the third capture duration;
The method comprises:
in response to detecting the first input corresponding to the affordance to capture media;
displaying an animation that moves the second indication from the third position on the control to a fourth position on the control; and
detecting a second change in a current condition of the electronic device while displaying the animation; and
in response to detecting the second change in current conditions,
pursuant to determining that a second current condition satisfies a fourth capture duration criterion and in response to displaying the first indication at the fourth location, displaying the second indication at a fifth location on the control corresponding to a fourth capture duration different from the third capture duration;
257. The method of claim 256, further comprising:
[Item 258]
modifying a visual appearance of the affordance for capturing media in response to detecting the first input corresponding to the affordance for capturing the media;
258. The method of any one of claims 255 to 257, further comprising:
[Item 259]
in response to detecting the first input corresponding to the affordance to capture the media, replacing a display of the affordance to capture the media with a display of an affordance to terminate capturing of media, the affordance being visually distinct from the affordance to capture the media;
259. The method of any one of claims 255 to 258, further comprising:
[Item 260]
in response to detecting the first input corresponding to the affordance to capture the media, displaying via the display device a visual indication of a difference between a pose of the electronic device when capture of the media was initiated and a pose of the electronic device at a first time after initiating capture of the media;
260. The method of any one of claims 255 to 259, further comprising:
[Item 261]
after initiating capture of the first plurality of images for the first capture duration and prior to detecting an end of capture of the first plurality of images for the first capture duration;
displaying one or more low light mode animations in response to a determination that the first capture duration exceeds a threshold; and
ceasing to display the one or more low light mode animations in accordance with determining that the first capture duration does not exceed a threshold; and
256. The method of claim 255, further comprising:
[Item 262]
While capturing said media,
displaying, at a first time after commencing capture of the first plurality of images over the first capture duration, a representation of a third composite image based on at least some content from a plurality of images captured by the one or more cameras prior to the first time;
displaying, at a second time after commencing capture of the first plurality of images over the first capture duration, a representation of a fourth composite image based on at least some content from a plurality of images captured by the one or more cameras prior to the second time;
the first time is different from the second time;
the representation of the third composite image is visually distinct from the representation of the fourth composite image.
And,
262. The method of any one of claims 242 to 261, further comprising:
[Item 263]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device having a display device, the one or more programs including instructions for performing the method according to any one of items 242 to 262.
[Item 264]
1. An electronic device comprising:
A display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
263. An electronic device comprising:
[Item 265]
1. An electronic device comprising:
A display device and a means for performing the method according to any one of items 242 to 262,
An electronic device comprising:
[Item 266]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device having a display device, the one or more programs comprising:
displaying a representation of the field of view of one or more cameras;
Displaying a media capture user interface via the display device;
While the low light camera mode is active,
upon determining that a first set of capture duration criteria is satisfied,
displaying an indication that the control is set to the first capture duration;
configuring the electronic device to capture a first plurality of images over the first capture duration in response to a single request to capture an image corresponding to a field of view of the one or more cameras;
in response to determining that a second set of capture duration criteria is satisfied, the second set of capture duration criteria being different from the first set of capture duration criteria;
displaying an indication that the control is set to a second capture duration that is longer than the first capture duration;
configuring the electronic device to capture a second plurality of images over the second capture duration in response to the single request to capture the image corresponding to the field of view of the one or more cameras;
displaying said control for adjusting a capture duration for capturing media,
A non-transitory computer-readable storage medium containing instructions.
[Item 267]
1. An electronic device comprising:
A display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
displaying a representation of the field of view of one or more cameras;
Displaying a media capture user interface via the display device;
While the low light camera mode is active,
upon determining that a first set of capture duration criteria is satisfied,
displaying an indication that the control is set to the first capture duration;
configuring the electronic device to capture a first plurality of images over the first capture duration in response to a single request to capture an image corresponding to a field of view of the one or more cameras;
in response to determining that a second set of capture duration criteria is satisfied, the second set of capture duration criteria being different from the first set of capture duration criteria;
displaying an indication that the control is set to a second capture duration that is longer than the first capture duration;
configuring the electronic device to capture a second plurality of images over the second capture duration in response to the single request to capture the image corresponding to the field of view of the one or more cameras;
displaying said control for adjusting a capture duration for capturing media,
An electronic device that contains instructions.
[Item 268]
1. An electronic device comprising:
A display device;
means for displaying a media capture user interface via the display device,
displaying a representation of the field of view of one or more cameras;
Means,
a means for displaying a control for adjusting a capture duration for capturing media while the low light camera mode is active, the means comprising:
upon determining that a first set of capture duration criteria is satisfied,
displaying an indication that the control is set to a first capture duration;
configuring the electronic device to capture a first plurality of images over the first capture duration in response to a single request to capture an image corresponding to a field of view of the one or more cameras;
in response to determining that a second set of capture duration criteria is satisfied, the second set of capture duration criteria being different from the first set of capture duration criteria;
displaying an indication that the control is set to a second capture duration that is longer than the first capture duration;
configuring the electronic device to capture a second plurality of images over the second capture duration in response to the single request to capture the image corresponding to the field of view of the one or more cameras;
and
An electronic device comprising:
[Item 269]
1. A method comprising:
In an electronic device having a display device and one or more cameras,
displaying, via the display device, a media capture user interface including a representation of a field of view of the one or more cameras;
receiving, via the display device, a request to capture media while displaying the media capture user interface;
In response to receiving the request to capture media, initiating capture of media via the one or more cameras;
at a first time after initiating capture of media via the one or more cameras;
pursuant to a determination that a set of guidance criteria are satisfied, including criteria satisfied when a low light mode is active, displaying, via the display device, a visual indication of a difference between a pose of the electronic device when capture of the media was initiated and a pose of the electronic device at the first time after initiating capture of media;
A method comprising:
[Item 270]
270. The method of claim 269, wherein the set of guidance criteria includes criteria that are met when the electronic device is configured to capture a plurality of images over a first capture duration that exceeds a threshold duration.
[Item 271]
The visual indication may include:
a first set of one or more shapes representing the pose of the electronic device when capture of the media is initiated, the first set of one or more shapes being displayed at a first location on the media capture user interface;
a second set of one or more shapes representing the pose of the electronic device at the first time after initiating capture of media, the second set of one or more shapes being displayed at a second location;
271. The method of claim 269 or 270, comprising a set of shapes comprising:
[Item 272]
the first set of one or more shapes includes a first color;
Item 272. The method of item 271, wherein the second set of one or more shapes includes a second color different from the first color.
[Item 273]
Detecting a change in pose of the electronic device at a second time after initiating capture;
displaying the second set of one or more shapes at a third location on the media capture user interface that is different from the second location on the media capture user interface in response to detecting the change in pose of the electronic device;
273. The method of claim 271 or 272, further comprising:
[Item 274]
in response to detecting the change in the pose of the electronic device,
ceasing to display at least one of the first set of one or more shapes or the second set of one or more shapes in response to a determination that a difference between the first position of the first set of one or more shapes and a third position of the second set of one or more shapes is within a first threshold difference;
maintaining a display of the first set of one or more shapes or the second set of one or more shapes in response to a determination that a difference between the first location of the first set of one or more shapes and a third location of the second set of one or more shapes is not within a first threshold difference;
274. The method of any one of claims 271 to 273, further comprising:
[Item 275]
Detecting a change in pose of the electronic device at a second time after initiating capture;
in response to detecting the change in the pose of the electronic device,
generating a tactile output in response to determining that a difference between the pose of the electronic device when capture of the media was initiated and a pose of the electronic device at the second time after capture of the media was initiated is within a second threshold difference;
ceasing to generate the tactile output in response to a determination that a difference between the pose of the electronic device when capture of the media was initiated and a pose of the electronic device at the second time after capture of the media was initiated is not within the second threshold difference;
275. The method of any one of claims 269 to 274, further comprising:
[Item 276]
Following a determination that a set of guidance criteria has been met,
displaying a representation corresponding to a request to stabilize the electronic device while capturing media;
276. The method of any one of claims 269 to 275, further comprising:
[Item 277]
ceasing to display, via the display device, the visual indication of the difference in accordance with a determination that the set of guidance criteria has not been met;
277. The method of any one of claims 269 to 276, further comprising:
[Item 278]
The visual indication is displayed at the first time, and the method further comprises:
detecting an end of the capture of the media at a third time different from the first time;
ceasing to display the visual indication via the display device in response to detecting the end of the capture of the media; and
278. The method of any one of claims 269 to 277, further comprising:
[Item 279]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device having a display device, the one or more programs including instructions for performing the method according to any one of items 269 to 278.
[Item 280]
1. An electronic device comprising:
A display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
279. An electronic device comprising:
[Item 281]
1. An electronic device comprising:
A display device and a means for performing the method according to any one of items 269 to 278,
An electronic device comprising:
[Item 282]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device having a display device, the one or more programs comprising:
In an electronic device having a display device and one or more cameras,
displaying, via the display device, a media capture user interface including a representation of a field of view of the one or more cameras;
receiving, via the display device, a request to capture media while displaying the media capture user interface;
In response to receiving the request to capture media, initiate capturing media via the one or more cameras;
at a first time after initiating capture of media via the one or more cameras;
pursuant to a determination that a set of guidance criteria are satisfied, including criteria satisfied when a low light mode is active, displaying, via the display device, a visual indication of a difference between a pose of the electronic device when capture of the media was initiated and a pose of the electronic device at the first time after initiating capture of the media.
A non-transitory computer-readable storage medium containing instructions.
[Item 283]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
displaying, via the display device, a media capture user interface including a representation of a field of view of the one or more cameras;
receiving, via the display device, a request to capture media while displaying the media capture user interface;
In response to receiving the request to capture media, initiate capturing media via the one or more cameras;
at a first time after initiating capture of media via the one or more cameras;
pursuant to a determination that a set of guidance criteria are satisfied, including criteria satisfied when a low light mode is active, displaying, via the display device, a visual indication of a difference between a pose of the electronic device when capture of the media was initiated and a pose of the electronic device at the first time after initiating capture of the media.
An electronic device that contains instructions.
[Item 284]
1. An electronic device comprising:
A display device;
One or more cameras;
means for displaying, via said display device, a media capture user interface including a representation of a field of view of said one or more cameras;
means for receiving, via the display device, a request to capture media while displaying the media capture user interface;
means for initiating capture of media via the one or more cameras in response to receiving the request to capture media;
at a first time after initiating capture of media via the one or more cameras;
means for displaying, pursuant to a determination that a set of guidance criteria are satisfied, including criteria satisfied when a low light mode is active, via the display device, a visual indication of a difference between a pose of the electronic device when capture of the media was initiated and a pose of the electronic device at the first time after initiating capture of media;
An electronic device comprising:
[Item 285]
1. A method comprising:
In an electronic device having a display device and one or more cameras,
displaying, via the display device, a camera user interface, the camera user interface comprising:
a first region including a first representation of a first portion of a field of view of the one or more cameras;
a second region outside the first region and visually distinct from the first region;
displaying, in the second region, a second portion of the field of view of the one or more cameras with a first visual appearance in accordance with a determination that a first set of respective criteria is satisfied, the respective criteria including criteria that are satisfied when a first respective object in the field of view of the one or more cameras is a first distance from the one or more cameras;
ceasing to display, in the second region, the second portion of the field of view of the one or more cameras in the first visual appearance in accordance with a determination that a second set of respective criteria is satisfied, the respective criteria including criteria that are satisfied when the first respective object in the field of view of the one or more cameras is a second distance from the one or more cameras;
including,
A method comprising:
[Item 286]
286. The method of claim 285, wherein the second region includes a plurality of control affordances for controlling a plurality of camera settings.
[Item 287]
The electronic device is configured to focus on the first respective object within the field of view of the one or more cameras, and the method includes:
receiving a first request to adjust a focus setting of the electronic device while displaying the second portion of the field of view of the one or more cameras in the first visual appearance;
configuring the electronic device to focus on a second respective object within the field of view of the one or more cameras in response to receiving the first request to adjust the focus setting of the electronic device;
while the electronic device is configured to focus on the second respective object within the field of view of the one or more cameras;
ceasing to display, within the second region, the second portion of the field of view of the one or more cameras in the first visual appearance in accordance with a determination that a third set of respective criteria is satisfied, the third set of respective criteria including criteria that are satisfied when the second respective object in the field of view of the one or more cameras is a third distance from the one or more cameras;
287. The method according to claim 285 or 286, further comprising:
[Item 288]
detecting a first change in distance between the first respective object in the field of view of the one or more cameras and the one or more cameras while displaying the second portion of the field of view of the one or more cameras in the first visual appearance;
in response to detecting the first change in distance between the first respective object within the field of view of the one or more cameras and the one or more cameras;
ceasing to display, in the second region, the second portion of the field of view of the one or more cameras in the first visual appearance in accordance with a determination that a set of fourth respective criteria is satisfied, the set of fourth respective criteria including criteria that are satisfied when the first respective object in the field of view of the one or more cameras is a fourth distance from the one or more cameras;
288. The method of any one of claims 285 to 287, further comprising:
[Item 289]
Ceasing to display the second portion of the field of view of the one or more cameras in the first visual appearance within the second region includes:
ceasing to display, in the second region, at least a portion of the third portion of the field of view of the one or more cameras that was previously displayed in the second region;
289. The method according to any one of items 285 to 288, comprising:
[Item 290]
289. The method of claim 285, wherein ceasing to display the second portion of the field of view of the one or more cameras in the second region with the first visual appearance comprises increasing an opacity of a first blackening layer superimposed on the second region.
[Item 291]
The electronic device is configured to focus on the first respective object within the field of view of the one or more cameras, and the method includes:
receiving a second request to adjust a focus setting of the electronic device while the second portion of the field of view of the one or more cameras is not displayed in the first visual appearance;
configuring the electronic device to focus on a third respective object within the field of view of the one or more cameras in response to receiving the second request to adjust the focus setting of the electronic device;
while the electronic device is configured to focus on the third respective object within the field of view of the one or more cameras;
displaying, within the second region, the second portion of the field of view of the one or more cameras in the first visual appearance in accordance with a determination that a set of fifth respective criteria is satisfied, the set including criteria that are satisfied when the third respective object in the field of view of the one or more cameras is a fifth distance from the one or more cameras;
291. The method of any one of claims 285 to 290, further comprising:
[Item 292]
detecting a second change in distance between the first respective object in the field of view of the one or more cameras and the one or more cameras while the second portion of the field of view of the one or more cameras is not displayed with the first visual appearance;
in response to detecting the second change in the distance between the first respective object within the field of view of the one or more cameras and the one or more cameras;
displaying, in the second region, the second portion of the field of view of the one or more cameras in the first visual appearance in accordance with a determination that a set of sixth respective criteria is satisfied, the set including criteria that are satisfied when the first respective object in the field of view of the one or more cameras is a sixth distance from the one or more cameras;
292. The method of any one of claims 285 to 291, further comprising:
[Item 293]
30. The method of any one of claims 285 to 292, wherein displaying within the second region the second portion of the field of view of the one or more cameras in the first visual appearance includes displaying within the second region a fourth portion of the field of view of the one or more cameras that was not previously displayed within the second region.
[Item 294]
30. The method of claim 285, wherein displaying within the second region the second portion of the field of view of the one or more cameras in the first visual appearance comprises reducing an opacity of a second blackening layer superimposed on the second region.
[Item 295]
The first visual appearance includes a first visual prominence, and displaying the second portion of the field of view of the one or more cameras with the first visual appearance includes:
displaying an animation of a gradual transition of the second portion of the field of view of the one or more cameras from a second visual appearance to the first visual appearance, the second visual appearance having a second visual prominence different from the first visual prominence;
295. The method according to any one of items 285 to 294, comprising:
[Item 296]
the first portion is displayed in a third visual appearance different from the first visual appearance;
The method comprises:
receiving a request to capture media while the first portion is displayed in the third visual appearance and the second portion of the field of view of the one or more cameras is displayed in the first visual appearance;
in response to receiving the request to capture media, capturing media corresponding to the field of view of the one or more cameras, the media including content from the first portion of the field of view of the one or more cameras and content from the second portion of the field of view of the one or more cameras;
after capturing the media corresponding to the field of view of the one or more cameras, displaying a representation of the media, the representation including content from the first portion of the field of view of the one or more cameras and content from the second portion of the field of view of the one or more cameras;
286. The method of claim 285, further comprising:
[Item 297]
30. The method of any one of claims 285 to 296, wherein at least a first portion of the second region is above the first region.
[Item 298]
30. The method of any one of claims 285 to 297, wherein at least a second portion of the second region is below the second region.
[Item 299]
receiving an input at a location on the camera user interface;
in response to receiving the input at the location on the camera user interface,
configuring the electronic device to focus on the location of the input in accordance with determining that the location of the input is within the first region;
ceasing to configure the electronic device to focus on the location of the input in accordance with determining that the location of the input is within the second region; and
300. The method of any one of claims 285 to 298, further comprising:
[Item 300]
300. The method of any one of claims 285 to 299, wherein when displayed in the first visual appearance, the second region is visually distinct from the first region.
[Item 301]
301. The method of any one of claims 285 to 300, wherein the set of first respective criteria includes a criterion that is satisfied when the first respective object is the closest object identified within the field of view of the one or more cameras.
[Item 302]
302. The method of any one of claims 285 to 301, wherein the set of first respective criteria includes a criterion that is satisfied when the first respective object is in a focal position within the field of view of the one or more cameras.
[Item 303]
the first region is separated from the second region by a boundary;
303. The method of any one of claims 285 to 302, wherein the first set of respective criteria includes a criterion that is met when a detected visual tear adjacent the border exceeds a visual tear threshold level.
[Item 304]
the first set of respective criteria includes a criterion that is satisfied when the first portion of the field of view of the one or more cameras is a portion of the field of view of a first camera;
304. The method of any one of claims 285 to 303, wherein the set of second respective criteria includes a criterion that is satisfied when the second portion of the field of view of the one or more cameras is a portion of the field of view of a second camera.
[Item 305]
receiving a request to capture media while displaying the second portion of the field of view of the one or more cameras in the first visual appearance;
In response to receiving the request to capture media, capturing media corresponding to the field of view of the one or more cameras, the media including content from the first portion of the field of view of the one or more cameras and content from the second portion of the field of view of the one or more cameras;
receiving a request to edit the captured media after capturing the media;
In response to receiving the request to edit the captured media, displaying a representation of the captured media including at least a portion of the content from the first portion of the field of view of the one or more cameras and at least a portion of the content from the second portion of the field of view of the one or more cameras;
305. The method of any one of claims 285 to 304, further comprising:
[Item 306]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs including instructions for performing the method according to any one of items 285 to 305.
[Item 307]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs contain instructions for performing the method according to any one of items 285 to 305.
[Item 308]
1. An electronic device comprising:
A display device;
One or more cameras and means for carrying out the method according to any one of items 285 to 305;
An electronic device comprising:
[Item 309]
1. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs comprising:
via the display device, a camera user interface,
a first region including a first representation of a first portion of a field of view of the one or more cameras;
a second region outside of and visually distinct from the first region,
displaying, in the second region, a second portion of the field of view of the one or more cameras with a first visual appearance in accordance with a determination that a first set of respective criteria is satisfied, the respective criteria including criteria that are satisfied when a first respective object in the field of view of the one or more cameras is a first distance from the one or more cameras;
ceasing to display, in the second region, the second portion of the field of view of the one or more cameras in the first visual appearance in accordance with a determination that a second set of respective criteria is satisfied, the respective criteria including criteria that are satisfied when the first respective object in the field of view of the one or more cameras is a second distance from the one or more cameras;
including,
Displaying the camera user interface;
A non-transitory computer-readable storage medium containing instructions.
[Item 310]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
via the display device, a camera user interface,
a first region including a first representation of a first portion of a field of view of the one or more cameras;
a second region outside of and visually distinct from the first region,
displaying, in the second region, a second portion of the field of view of the one or more cameras with a first visual appearance in accordance with a determination that a first set of respective criteria is satisfied, the respective criteria including criteria that are satisfied when a first respective object in the field of view of the one or more cameras is a first distance from the one or more cameras;
ceasing to display, in the second region, the second portion of the field of view of the one or more cameras in the first visual appearance in accordance with a determination that a second set of respective criteria is satisfied, the respective criteria including criteria that are satisfied when the first respective object in the field of view of the one or more cameras is a second distance from the one or more cameras;
including,
Displaying the camera user interface;
An electronic device that contains instructions.
[Item 311]
1. An electronic device comprising:
A display device;
One or more cameras;
means for displaying a camera user interface via the display device, the camera user interface comprising:
a first region including a first representation of a first portion of a field of view of the one or more cameras;
a second region outside the first region and visually distinct from the first region;
displaying, in the second region, a second portion of the field of view of the one or more cameras with a first visual appearance in accordance with a determination that a first set of respective criteria is satisfied, the respective criteria including criteria that are satisfied when a first respective object in the field of view of the one or more cameras is a first distance from the one or more cameras;
ceasing to display, in the second region, the second portion of the field of view of the one or more cameras in the first visual appearance in accordance with a determination that a second set of respective criteria is satisfied, the respective criteria including criteria that are satisfied when the first respective object in the field of view of the one or more cameras is a second distance from the one or more cameras;
including,
Means,
An electronic device comprising:
[Item 312]
1. A method comprising:
1. An electronic device having a display device, a first camera having a field of view, and a second camera having a field of view wider than the field of view of the first camera,
displaying, via the display device, a camera user interface including a representation of at least a portion of a field of view of one or more cameras displayed at a first zoom level, the camera user interface comprising:
a first region including a representation of a first portion of the field of view of the first camera at the first zoom level;
a second region including a representation of a first portion of the field of view of the second camera at the first zoom level; and
and
receiving, while displaying via the display device, the camera user interface including the representation of at least a portion of a field of view of the one or more cameras displayed at the first zoom level, a first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to a second zoom level;
in response to receiving the first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to the second zoom level.
displaying, in the first region, a representation of a second portion of the field of view of the first camera at the second zoom level, the representation excluding at least a subset of the first portion of the field of view of the first camera;
displaying, in the second region, a representation of a second portion of the field of view of the second camera that overlaps with the subset of the portion of the field of view of the first camera that is excluded from the second portion of the field of view of the first camera at the second zoom level without displaying, in the second region, a representation of the subset of the portion of the field of view of the first camera that is excluded from the second portion of the field of view of the first camera;
A method comprising:
[Item 313]
Item 313. The method of item 312, wherein the first portion of the field of view of the second camera is different from the second portion of the field of view of the second camera.
[Item 314]
receiving a second request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to a third zoom level while displaying the representation of the second portion of the field of view of the first camera at the second zoom level in the first region and displaying the representation of the second portion of the field of view of the second camera at the second zoom level in the second region;
in response to receiving the second request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to the third zoom level.
upon determining that the third zoom level is within a first range of zoom values,
displaying a representation of a third portion of the field of view of the first camera at the third zoom level in the first area;
displaying a representation of a fourth portion of the field of view of the first camera at the third zoom level in the second area; and
314. The method of claim 312 or 313, further comprising:
[Item 315]
receiving a third request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to a fourth zoom level while displaying, in the first region, the representation of the third portion of the field of view of the first camera at the third zoom level and displaying, in the second region, the representation of the fourth portion of the field of view of the first camera at the third zoom level;
in response to receiving the third request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to the fourth zoom level.
upon determining that the fourth zoom level is within a second range of zoom values,
displaying, in the first region, a representation of a fifth portion of the field of view of the third camera at the fourth zoom level, the fifth portion excluding at least a subset of the third portion of the field of view of the third camera;
displaying, in the second region, a representation of a fifth portion of the field of view of the first camera that overlaps with the subset of the portion of the field of view of the third camera that is excluded from the fifth portion of the field of view of the third camera at the fourth zoom level without displaying, in the second region, a representation of the subset of the portion of the field of view of the third camera that is excluded from the fifth portion of the field of view of the third camera;
315. The method of claim 314, further comprising:
[Item 316]
receiving a fourth request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to a fifth zoom level while displaying, in the first region, the representation of the fifth portion of the field of view of the third camera, at the fourth zoom level, that excludes at least the subset of the third portion of the field of view of the third camera, and displaying, in the second region, the representation of the fifth portion of the field of view of the first camera, that overlaps with the subset of the portion of the field of view of the third camera that is excluded from the fifth portion of the field of view of the third camera, at the fourth zoom level, without displaying, in the second region, the representation of the subset of the portion of the field of view of the third camera that is excluded from the fifth portion of the field of view of the third camera;
in response to receiving the fourth request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to the fifth zoom level.
upon determining that the fifth zoom level is within a third zoom value range,
displaying, in the first area, a representation of a sixth portion of the field of view of the third camera at the fifth zoom level; and
displaying, in the second area, a representation of a seventh portion of the field of view of the third camera at the fifth zoom level; and
316. The method of claim 315, further comprising:
[Item 317]
receiving a first request to reduce the zoom level of the representation of the portion of the field of view of the one or more cameras to a sixth zoom level while displaying, in the first region, the representation of the sixth portion of the field of view of the third camera at the fifth zoom level and displaying, in the second region, the representation of the seventh portion of the field of view of the third camera at the fifth zoom level;
in response to receiving the first request to reduce the zoom level of the representation of the portion of the field of view of the one or more cameras to the sixth zoom level;
upon determining that the sixth zoom level is within a fourth zoom value range for displaying in the second region,
displaying, in the first region, a representation of an eighth portion of the field of view of the third camera at the sixth zoom level, the eighth portion excluding at least a subset of the third portion of the field of view of the third camera;
displaying, in the second region, a representation of an eighth portion of the field of view of the first camera that overlaps with the subset of the portion of the field of view of the third camera that is excluded from the eighth portion of the field of view of the third camera at the sixth zoom level without displaying, in the second region, a representation of the subset of the portion of the field of view of the third camera that is excluded from the eighth portion of the field of view of the third camera;
317. The method of claim 316, further comprising:
[Item 318]
receiving a second request to reduce the zoom level of the representation of the portion of the field of view of the one or more cameras to a seventh zoom level while displaying, in the first region, the representation of the eighth portion of the field of view of the third camera that overlaps with at least the subset of the eighth portion of the field of view of the first camera at the sixth zoom level without displaying, in the first region, the representation of at least the subset of the eighth portion of the field of view of the first camera, and displaying, in the second region, the representation of the eighth portion of the field of view of the first camera at the sixth zoom level that excludes at least the subset of the eighth portion of the field of view of the first camera;
in response to receiving the second request to reduce the zoom level of the representation of the portion of the field of view of the one or more cameras to the seventh zoom level;
in response to determining that the seventh zoom level is within a fifth zoom value range,
displaying a representation of a ninth portion of the field of view of the first camera at the seventh zoom level in the first area; and
displaying a representation of a tenth portion of the field of view of the first camera at the seventh zoom level in the second area; and
318. The method of claim 317, further comprising:
[Item 319]
Item 319. The method of any one of items 312 to 318, wherein the second area includes a plurality of control affordances for controlling a plurality of camera settings.
[Item 320]
receiving an input at a location on the camera user interface;
in response to receiving the input at the location on the camera user interface,
configuring the electronic device to focus on the location of the input in accordance with determining that the location of the input is within the first region;
ceasing to configure the electronic device to focus on the location of the input in accordance with determining that the location of the input is within the second region; and
320. The method of any one of claims 312 to 319, further comprising:
[Item 321]
receiving a request to capture media while displaying, via the display device, the camera user interface including the representation of at least a portion of a field of view of the one or more cameras displayed at the first zoom level;
In response to receiving the request to capture media, capturing media corresponding to the field of view of the one or more cameras, the media including content from the first portion of the field of view of the first camera at the first zoom level and content from the first portion of the field of view of the second camera at the first zoom level;
receiving a request to edit the captured media after capturing the media;
in response to receiving the request to edit the captured media, displaying a representation of the captured media including at least a portion of the content from the first portion of the field of view of the first camera at the first zoom level and at least a portion of the content from the first portion of the field of view of the second camera at the first zoom level;
313. The method of claim 312, further comprising:
[Item 322]
322. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, a first camera having a field of view, and a second camera having a field of view wider than the field of view of the first camera, the one or more programs including instructions for performing the method of any one of items 312 to 321.
[Item 323]
1. An electronic device comprising:
A display device;
a first camera having a field of view;
a second camera having a field of view wider than the field of view of the first camera;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs contain instructions for performing the method according to any one of items 312 to 321.
[Item 324]
1. An electronic device comprising:
A display device;
a first camera having a field of view;
- a second camera having a field of view wider than the field of view of the first camera; and means for performing the method according to any one of items 312 to 321;
An electronic device comprising:
[Item 325]
1. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, a first camera having a field of view, and a second camera having a field of view wider than the field of view of the first camera, the one or more programs comprising:
a camera user interface including a representation, via the display device, of at least a portion of a field of view of one or more cameras displayed at a first zoom level,
a first region including a representation of a first portion of the field of view of the first camera at the first zoom level;
a second region including a representation of a first portion of the field of view of the second camera at the first zoom level; and
displaying a camera user interface,
receiving, while displaying via the display device, the camera user interface including the representation of at least a portion of a field of view of the one or more cameras displayed at the first zoom level, a first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to a second zoom level;
in response to receiving the first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to the second zoom level.
displaying, in the first region, a representation of a second portion of the field of view of the first camera at the second zoom level, the representation excluding at least a subset of the first portion of the field of view of the first camera;
displaying, in the second region, a representation of a second portion of the field of view of the second camera that overlaps with the subset of the portion of the field of view of the first camera that is excluded from the second portion of the field of view of the first camera at the second zoom level without displaying, in the second region, a representation of the subset of the portion of the field of view of the first camera that is excluded from the second portion of the field of view of the first camera.
A non-transitory computer-readable storage medium containing instructions.
[Item 326]
1. An electronic device comprising:
A display device;
a first camera having a field of view;
a second camera having a field of view wider than the field of view of the first camera;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
a camera user interface including a representation, via the display device, of at least a portion of a field of view of one or more cameras displayed at a first zoom level,
a first region including a representation of a first portion of the field of view of the first camera at the first zoom level;
a second region including a representation of a first portion of the field of view of the second camera at the first zoom level; and
displaying a camera user interface,
receiving, while displaying via the display device, the camera user interface including the representation of at least a portion of a field of view of the one or more cameras displayed at the first zoom level, a first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to a second zoom level;
in response to receiving the first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to the second zoom level.
displaying, in the first region, a representation of a second portion of the field of view of the first camera at the second zoom level, the representation excluding at least a subset of the first portion of the field of view of the first camera;
displaying, in the second region, a representation of a second portion of the field of view of the second camera that overlaps with the subset of the portion of the field of view of the first camera that is excluded from the second portion of the field of view of the first camera at the second zoom level without displaying, in the second region, a representation of the subset of the portion of the field of view of the first camera that is excluded from the second portion of the field of view of the first camera.
An electronic device that contains instructions.
[Item 327]
1. An electronic device comprising:
A display device;
a first camera having a field of view;
a second camera having a field of view wider than the field of view of the first camera;
One or more cameras;
means for displaying, via the display device, a camera user interface including a representation of at least a portion of a field of view of one or more cameras displayed at a first zoom level, the camera user interface comprising:
a first region including a representation of a first portion of the field of view of the first camera at the first zoom level;
a second region including a representation of a first portion of the field of view of the second camera at the first zoom level; and
and
means for receiving, while displaying via the display device, the camera user interface including the representation of at least a portion of the field of view of the one or more cameras displayed at the first zoom level, a first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to a second zoom level;
in response to receiving the first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to the second zoom level.
displaying, in the first region, a representation of a second portion of the field of view of the first camera at the second zoom level, the representation excluding at least a subset of the first portion of the field of view of the first camera;
displaying, in the second region, a representation of a second portion of the field of view of the second camera that overlaps with the subset of the portion of the field of view of the first camera that is excluded from the second portion of the field of view of the first camera at the second zoom level without displaying, in the second region, a representation of the subset of the portion of the field of view of the first camera that is excluded from the second portion of the field of view of the first camera.
Means,
An electronic device comprising:
[Item 328]
1. A method comprising:
In an electronic device having a display device and one or more cameras,
displaying, via the display device, a camera user interface including a first representation of at least a portion of a field of view of the one or more cameras displayed at a first zoom level, the camera user interface including a plurality of zoom affordances, the plurality of zoom affordances including a first zoom affordance and a second zoom affordance;
receiving a first gesture directed toward one of the plurality of zoom affordances while displaying the plurality of zoom affordances;
In response to receiving the first gesture,
displaying a second representation of at least a portion of a field of view of the one or more cameras at a second zoom level in accordance with determining that the first gesture is a gesture directed toward the first zoom affordance;
displaying a third representation of at least a portion of a field of view of the one or more cameras at a third zoom level different from the first zoom level and the second zoom level in accordance with determining that the first gesture is a gesture directed toward the second zoom affordance;
A method comprising:
[Item 329]
maintaining visual characteristics of the second zoom affordance and modifying visual characteristics of the first zoom affordance in accordance with the determination that the first gesture is directed toward the first zoom affordance;
maintaining the visual characteristics of the first zoom affordance and modifying the visual characteristics of the second zoom affordance in accordance with the determination that the first gesture is the gesture directed toward the second zoom affordance;
329. The method of claim 328, further comprising:
[Item 330]
Modifying the visual characteristics of the first zoom affordance includes:
resizing the first zoom affordance from a first size to a second size, the second size of the first zoom affordance being different from a current size of the second zoom affordance; and
changing a color of the first zoom affordance from a first color to a second color, the second color of the first zoom affordance being different from a current color of the second zoom affordance;
330. The method of claim 329, comprising one or more of the following:
[Item 331]
receiving a second gesture directed toward the first zoom affordance while displaying the second representation of at least the portion of the field of view of the one or more cameras at the second zoom level;
in response to receiving the second gesture directed toward the first zoom affordance;
displaying a fourth representation of at least a portion of a field of view of the one or more cameras at a fourth zoom level in accordance with a determination that the first zoom affordance satisfies a first respective criterion;
In response to determining that the first zoom affordance satisfies a second respective criterion,
ceasing to display the fourth representation of at least the portion of the field of view of the one or more cameras at the fourth zoom level; and
maintaining display of the second representation of the portion of the field of view of the one or more cameras at the second zoom level; and
331. The method of any one of claims 328 to 330, further comprising:
[Item 332]
The first gesture is a gesture of a first type, and the method further comprises:
receiving a third gesture directed at the first zoom affordance, the third gesture being a second type of gesture different from the first type of gesture;
displaying a control for changing a zoom level of a first currently displayed representation in response to receiving the third gesture directed at the first zoom affordance, the control for changing the zoom level of the first currently displayed representation including a first indication of a current zoom level of the first currently displayed representation;
receiving, while displaying the control for changing the zoom level of the first currently displayed representation, a fourth gesture directed at the control for changing the zoom level;
in response to receiving the fourth gesture directed at the control for changing the zoom level;
displaying a second indication of a fifth zoom level on the control for changing the zoom level; and
displaying a fourth representation of the field of view of the one or more cameras at the fifth zoom level; and
332. The method of any one of claims 328 to 331, further comprising:
[Item 333]
Item 333. The method of item 332, wherein the first indication of the zoom level of the first currently displayed representation is displayed at a location corresponding to a selected zoom level on the control for changing the zoom level of the first currently displayed representation.
[Item 334]
Item 334. The method of item 332 or 333, wherein the control for changing the zoom level of the first currently displayed representation is a rotatable user interface element.
[Item 335]
5. The method of claim 332, wherein displaying the control for changing the zoom level of the first currently displayed representation comprises replacing the display of the plurality of zoom affordances with the display of the control for changing the zoom level of the first currently displayed representation.
[Item 336]
the third gesture includes a movement in a first direction;
Item 336. The method of any one of items 332 to 335, wherein the fourth gesture includes a movement in a second direction different from the first direction.
[Item 337]
detecting a lift-off of the fourth gesture after receiving the fourth gesture directed at the control for changing the zoom level;
After detecting a lift-off of the fourth gesture,
ceasing to display the control for changing the zoom level in accordance with a determination that no gesture is directed toward the control for changing the zoom level within a predetermined time frame;
337. The method of any one of claims 332 to 336, further comprising:
[Item 338]
Displaying the control for changing the zoom level of the first currently displayed representation includes:
simultaneously displaying a plurality of visual indicators on an adjustable control, each zoom level of the plurality of zoom levels corresponding to the plurality of zoom affordances being represented by a different corresponding visual indicator of the plurality of visual indicators;
Item 338. The method of any one of items 332 to 337, comprising:
[Item 339]
In response to receiving the first gesture,
configuring the electronic device to focus on a location of the first gesture in accordance with a determination that the first gesture is not directed toward at least one of the plurality of zoom affordances and is directed toward a first portion of the first representation;
339. The method of any one of claims 328 to 338, further comprising:
[Item 340]
In response to receiving the first gesture,
ceasing to configure the electronic device to focus on a location of the first gesture in accordance with a determination that the first gesture is not directed toward at least one of the plurality of zoom affordances and is directed toward a second portion of the first representation;
340. The method of any one of claims 328 to 339, further comprising:
[Item 341]
the second representation of at least the portion of the field of view of the one or more cameras is a representation of at least a portion of the field of view of a first camera of the one or more cameras;
the third representation of at least the portion of the field of view of the one or more cameras is a representation of at least a portion of the field of view of a second camera of the one or more cameras;
Item 341. The method of any one of items 328 to 340, wherein the first camera is different from the second camera.
[Item 342]
Displaying the second representation of at least the portion of the field of view of the one or more cameras at the second zoom level includes:
displaying a portion of the second representation in a first visual appearance in accordance with determining that the second zoom level is a sixth zoom level;
displaying a portion of the second representation in a second visual appearance different from the first visual appearance in accordance with a determination that the second zoom level is a seventh zoom level different from the sixth zoom level;
342. The method of any one of claims 328 to 341, comprising:
[Item 343]
the plurality of zoom affordances includes a third zoom affordance;
The method comprises:
receiving a request to change the zoom level of the second currently displayed representation;
in response to receiving the request to change the zoom level of the second currently displayed representation to an eighth zoom level;
replacing the display of the first zoom affordance with a display of a fourth zoom affordance corresponding to the eighth zoom level in accordance with a determination that the eighth zoom level is within a first zoom value range;
replacing the presentation of the second zoom affordance with a presentation of the fourth zoom affordance corresponding to the eighth zoom level in accordance with a determination that the eighth zoom level is within a second zoom value range;
replacing the display of the third zoom affordance with a display of the fourth zoom affordance corresponding to the eighth zoom level in accordance with a determination that the eighth zoom level is within a third zoom value range;
343. The method of any one of claims 328 to 342, further comprising:
[Item 344]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs including instructions for performing the method according to any one of items 328 to 343.
[Item 345]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs contain instructions for performing the method according to any one of items 328 to 343.
[Item 346]
1. An electronic device comprising:
A display device;
One or more cameras and means for carrying out the method according to any one of items 328 to 343;
An electronic device comprising:
[Item 347]
1. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs comprising:
displaying, via the display device, a camera user interface including a first representation of at least a portion of a field of view of the one or more cameras displayed at a first zoom level, the camera user interface including a plurality of zoom affordances, the plurality of zoom affordances including a first zoom affordance and a second zoom affordance;
receiving a first gesture directed toward one of the plurality of zoom affordances while displaying the plurality of zoom affordances;
In response to receiving the first gesture,
displaying a second representation of at least a portion of a field of view of the one or more cameras at a second zoom level in accordance with determining that the first gesture is a gesture directed toward the first zoom affordance;
displaying a third representation of at least a portion of a field of view of the one or more cameras at a third zoom level different from the first zoom level and the second zoom level in accordance with determining that the first gesture is a gesture directed toward the second zoom affordance.
A non-transitory computer-readable storage medium containing instructions.
[Item 348]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
displaying, via the display device, a camera user interface including a first representation of at least a portion of a field of view of the one or more cameras displayed at a first zoom level, the camera user interface including a plurality of zoom affordances, the plurality of zoom affordances including a first zoom affordance and a second zoom affordance;
receiving a first gesture directed toward one of the plurality of zoom affordances while displaying the plurality of zoom affordances;
In response to receiving the first gesture,
displaying a second representation of at least a portion of a field of view of the one or more cameras at a second zoom level in accordance with determining that the first gesture is a gesture directed toward the first zoom affordance;
displaying a third representation of at least a portion of a field of view of the one or more cameras at a third zoom level different from the first zoom level and the second zoom level in accordance with determining that the first gesture is a gesture directed toward the second zoom affordance.
An electronic device that contains instructions.
[Item 349]
1. An electronic device comprising:
A display device;
One or more cameras;
means for displaying, via the display device, a camera user interface including a first representation of at least a portion of a field of view of the one or more cameras displayed at a first zoom level, the camera user interface including a plurality of zoom affordances, the plurality of zoom affordances including a first zoom affordance and a second zoom affordance;
means for receiving a first gesture directed toward one of the plurality of zoom affordances while displaying the plurality of zoom affordances;
In response to receiving the first gesture,
displaying a second representation of at least a portion of a field of view of the one or more cameras at a second zoom level in accordance with determining that the first gesture is a gesture directed toward the first zoom affordance;
displaying a third representation of at least a portion of a field of view of the one or more cameras at a third zoom level different from the first zoom level and the second zoom level in accordance with determining that the first gesture is a gesture directed toward the second zoom affordance.
Means,
An electronic device comprising:
[Item 350]
1. A method comprising:
In an electronic device having a display device and one or more cameras,
displaying, via the display device, a camera user interface, the camera user interface comprising:
a camera display area including a representation of the field of view of the one or more cameras; and
a camera control area including a first plurality of camera mode affordances at a first position indicating different operational modes of the one or more cameras;
and
detecting a first gesture directed at the camera user interface while displaying the first plurality of camera mode affordances indicating different operational modes of the one or more cameras;
in response to detecting the first gesture directed toward the camera user interface;
displaying a first set of camera setting affordances at the first location, the first set of camera setting affordances being settings that adjust image capture for a first camera mode; and
ceasing to display the first plurality of camera mode affordances indicating different operational modes of the camera at the first position; and
receiving a second gesture directed at the camera user interface while displaying the first set of camera setting affordances at the first location and while the electronic device is configured to capture media in the first camera mode;
in response to receiving the second gesture directed at the camera user interface;
configuring the electronic device to capture media in a second camera mode different from the first camera mode;
displaying a second set of camera setting affordances at the first location without displaying the first plurality of camera mode affordances indicating different operational modes of the one or more cameras at the first location; and
A method comprising:
[Item 351]
351. The method of claim 350, wherein the second set of camera setting affordances are settings that adjust image capture of the second camera mode.
[Item 352]
352. The method of claim 350 or 351, wherein the second set of camera setting affordances is different from the first set of camera setting affordances.
[Item 353]
The method of any one of items 350 to 352, wherein the first set of camera setting affordances includes one or more of a flash setting affordance, an image capture setting affordance, an aspect ratio camera setting affordance, a filter setting camera setting affordance, a high dynamic range imaging camera setting affordance, and a low light camera setting affordance.
[Item 354]
Detecting the first gesture includes detecting a first contact directed toward the camera user interface, the method further comprising:
detecting a completion of the first gesture before detecting a lift-off of the first contact while detecting the first gesture;
providing a tactile output in response to detecting completion of the first gesture prior to detecting lift-off of the first contact;
354. The method of any one of claims 350 to 353, further comprising:
[Item 355]
detecting a third gesture directed toward the camera user interface while displaying the camera user interface;
in response to detecting the third gesture directed toward the camera user interface;
pursuant to determining that the second set of camera setting affordances was displayed when the third gesture was detected,
configuring the electronic device to capture media in a third camera mode;
displaying a third set of camera setting affordances at the first location without displaying the first plurality of camera mode affordances indicating different operational modes of the one or more cameras; and
responsive to a determination that the first plurality of camera mode affordances were displayed when the third gesture was detected,
displaying a second plurality of camera mode affordances indicating different camera operational modes of the one or more cameras at the first location without displaying the second set of camera setting affordances and the third set of camera setting affordances, and configuring the electronic device to capture media in the first camera mode and the third camera mode, wherein the second plurality of camera mode affordances are different from the first plurality of camera mode affordances;
5. The method of any one of claims 350 to 354, further comprising:
[Item 356]
356. The method of claim 355, wherein displaying the third set of camera setting affordances at the first location includes displaying an animation of the third set of camera setting affordances replacing the first set of camera setting affordances.
[Item 357]
The representation of the field of view of the one or more cameras is a first representation of a first portion of the field of view of the one or more cameras, and the method further comprises:
in response to receiving the second gesture directed at the camera user interface;
displaying a second representation of a second portion of the field of view of the one or more cameras in accordance with a determination that the electronic device is configured to capture media via a first type of camera, the second portion of the field of view not including a portion of the first portion of the field of view of the one or more cameras;
357. The method of any one of claims 350 to 356, further comprising:
[Item 358]
The representation of the field of view of the one or more cameras is a third representation of a third portion of the field of view of the one or more cameras, and the method further comprises:
in response to receiving the second gesture directed at the camera user interface;
displaying a fourth representation of a fourth portion of a field of view of the one or more cameras in accordance with a determination that the electronic device is configured to capture media using a second type of camera, the fourth portion of the field of view of the one or more cameras including a portion of the field of view of the one or more cameras that is not in the third portion of the field of view of the one or more cameras;
358. The method of any one of claims 350 to 357, further comprising:
[Item 359]
the representation of the field of view of the one or more cameras is a fifth representation of a fifth portion of the field of view of the one or more cameras;
the fifth representation is displayed at a second location on the display device; and
The method comprises:
in response to receiving the second gesture directed at the camera user interface;
in response to determining that the electronic device is configured to capture media using a third type camera;
moving the fifth representation from the second location on the display device to a third location on the display device;
359. The method of claim 357 or 358, further comprising:
[Item 360]
the first camera mode is a portrait mode;
the representation of the field of view of the one or more cameras is displayed at a first zoom level;
The method comprises:
while displaying the first plurality of camera mode affordances;
Displaying an affordance for controlling a lighting effect operation and a zoom affordance;
receiving a fourth gesture directed toward the zoom affordance while displaying the zoom affordance; and
in response to receiving the fourth gesture directed toward the zoom affordance, displaying a representation of the field of view of the one or more cameras at a second zoom level;
360. The method of any one of claims 350 to 359, further comprising:
[Item 361]
The first plurality of camera mode affordances include:
a first camera mode affordance that, when selected, causes the electronic device to capture media in the first camera mode in response to a request to capture media;
a second camera mode affordance that, when selected, causes the electronic device to capture media in the second camera mode in response to a request to capture media; and
361. The method of any one of items 350 to 360, comprising:
[Item 362]
362. The method of claim 361, wherein while displaying the first plurality of camera mode affordances, the first camera mode affordance is displayed adjacent to the second camera mode affordance.
[Item 363]
The method of claim 361 or 362, wherein prior to detecting the first gesture directed toward the camera user interface and while displaying the first plurality of camera mode affordances, the first camera mode affordance is displayed along with an indication that the first camera mode is active.
[Item 364]
detecting a fifth gesture directed toward the camera user interface while displaying the second set of camera setting affordances at the first location;
in response to detecting the fifth gesture directed toward the camera user interface;
displaying a third plurality of camera mode affordances indicating different camera operational modes of the one or more cameras;
the third plurality of camera mode affordances includes the second camera mode affordance;
the second camera mode affordance is displayed along with an indication that the second camera mode is active.
And,
364. The method of claim 362 or 363, further comprising:
[Item 365]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs including instructions for performing the method according to any one of items 350 to 364.
[Item 366]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs contain instructions for performing the method according to any one of items 350 to 364.
[Item 367]
1. An electronic device comprising:
A display device;
One or more cameras and means for carrying out the method according to any one of items 350 to 364;
An electronic device comprising:
[Item 368]
1. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs comprising:
via the display device, a camera user interface,
a camera display area including a representation of the field of view of the one or more cameras;
a camera control area including a first plurality of camera mode affordances at a first position indicating different operational modes of the one or more cameras;
displaying a camera user interface,
detecting a first gesture directed at the camera user interface while displaying the first plurality of camera mode affordances indicating different operational modes of the one or more cameras;
in response to detecting the first gesture directed toward the camera user interface;
displaying a first set of camera setting affordances at the first location, the first set of camera setting affordances being settings that adjust image capture for a first camera mode;
ceasing to display the first plurality of camera mode affordances indicating different operational modes of the camera at the first position;
receiving a second gesture directed at the camera user interface while displaying the first set of camera setting affordances at the first location and while the electronic device is configured to capture media in the first camera mode;
in response to receiving the second gesture directed at the camera user interface;
configuring the electronic device to capture media in a second camera mode different from the first camera mode;
displaying a second set of camera setting affordances at the first location without displaying the first plurality of camera mode affordances indicating different operational modes of the one or more cameras at the first location.
A non-transitory computer-readable storage medium containing instructions.
[Item 369]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
via the display device, a camera user interface,
a camera display area including a representation of the field of view of the one or more cameras; and
a camera control area including a first plurality of camera mode affordances at a first position indicating different operational modes of the one or more cameras;
displaying a camera user interface,
detecting a first gesture directed at the camera user interface while displaying the first plurality of camera mode affordances indicating different operational modes of the one or more cameras;
in response to detecting the first gesture directed toward the camera user interface;
displaying a first set of camera setting affordances at the first location, the first set of camera setting affordances adjusting image capture for a first camera mode;
ceasing to display the first plurality of camera mode affordances indicating different operational modes of the camera at the first position;
receiving a second gesture directed at the camera user interface while displaying the first set of camera setting affordances at the first location and while the electronic device is configured to capture media in the first camera mode;
in response to receiving the second gesture directed at the camera user interface;
configuring the electronic device to capture media in a second camera mode different from the first camera mode;
displaying a second set of camera setting affordances at the first location without displaying the first plurality of camera mode affordances indicating different operational modes of the one or more cameras at the first location.
An electronic device that contains instructions.
[Item 370]
1. An electronic device comprising:
A display device;
One or more cameras;
means for displaying a camera user interface via the display device, the camera user interface comprising:
a camera display area including a representation of the field of view of the one or more cameras; and
a camera control area including a first plurality of camera mode affordances at a first position indicating different operational modes of the one or more cameras;
and
means for detecting a first gesture directed at the camera user interface while displaying the first plurality of camera mode affordances indicating different operational modes of the one or more cameras;
in response to detecting the first gesture directed toward the camera user interface;
displaying a first set of camera setting affordances at the first location, the first set of camera setting affordances being settings that adjust image capture for a first camera mode;
ceasing to display the first plurality of camera mode affordances indicating different operational modes of the camera at the first position.
Means,
means for receiving a second gesture directed at the camera user interface while displaying the first set of camera setting affordances at the first location and while the electronic device is configured to capture media in the first camera mode;
in response to receiving the second gesture directed at the camera user interface;
configuring the electronic device to capture media in a second camera mode different from the first camera mode;
displaying a second set of camera setting affordances at the first location without displaying the first plurality of camera mode affordances indicating different operational modes of the one or more cameras at the first location.
Means,
An electronic device comprising:
[Item 371]
1. A method comprising:
In an electronic device having a display device,
receiving a request to display a representation of a previously captured media item, the representation including first content from a first portion of a field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras;
in response to receiving the request to display the representation of the previously captured media item,
displaying, via the display device, a representation of the previously captured media item including a combination of the first content and the second content in accordance with a determination that automatic media correction criteria are satisfied;
displaying, via the display device, a representation of the previously captured media item that includes the first content and that does not include the second content in accordance with a determination that an automatic media correction criterion has not been satisfied;
A method comprising:
[Item 372]
prior to receiving the request to display the representation of the previously captured media item, displaying via the display device a camera user interface, the camera user interface comprising:
a first region including a representation of the first portion of the field of view of the one or more cameras;
a second region including a representation of the second portion of the field of view of the one or more cameras, the representation of the second portion of the field of view of the one or more cameras being visually distinct from the representation of the first portion;
including,
372. The method of claim 371, further comprising:
[Item 373]
displaying a first auto-adjustment affordance indicating that an auto-adjustment has been applied to the previously captured media item in accordance with the determination that an automatic media correction criterion has been met; and
displaying a second auto-adjustment affordance indicating that the auto-adjustment was not applied to the previously captured media item pursuant to a determination that an automatic media correction criterion was not met, the second auto-adjustment affordance being visually distinct from the first auto-adjustment affordance;
373. The method of claim 371 or 372, further comprising:
[Item 374]
receiving a first input corresponding to a selection of the first auto-adjustment affordance while displaying the first auto-adjustment affordance and displaying, via the display device, the representation of the previously captured media item including the combination of the first content and the second content;
displaying, via the display device, the representation of the previously captured media item including the first content and not including the second content in response to receiving the first input corresponding to a selection of the first auto-adjust affordance;
374. The method of claim 373, further comprising:
[Item 375]
receiving a second input corresponding to a selection of the second auto-adjustment affordance while displaying the second auto-adjustment affordance and displaying, via the display device, the representation of the previously captured media item that includes the first content and does not include the second content;
displaying, via the display device, the representation of the previously captured media item including the combination of the first content and the second content in response to receiving the second input corresponding to a selection of the second auto-adjust affordance;
374. The method of claim 373, further comprising:
[Item 376]
the previously captured media item is an image;
the representation of the previously captured media item including the combination of the first content and the second content includes an edge portion;
376. The method of any one of claims 371 to 375, wherein the representation of the previously captured media item that includes the first content and does not include the second content does not further include the edge portion.
[Item 377]
the previously captured media item is a video;
the representation of the previously captured media item including the combination of the first content and the second content includes a first amount of movement;
377. The method of any one of claims 371 to 376, wherein the representation of the previously captured media item that includes the first content and does not include the second content includes a second amount of movement that is different from the first amount of movement.
[Item 378]
the previously captured media item includes an identifiable object;
the representation of the previously captured media item including the combination of the first content and the second content includes a portion of the identifiable object;
5. The method of claim 371, wherein the representation of the previously captured media item that includes the first content and does not include the second content does not include the portion of the identifiable object.
[Item 379]
The method of any one of claims 371 to 378, wherein the automatic media correction criteria include a second criterion that is met when the previously captured media item is determined to include one or more visual aspects that can be corrected using the second content from the second portion of the field of view of the one or more cameras.
[Item 380]
380. The method of claim 379, wherein the automatic media correction criteria includes a third criterion that is satisfied when the second criterion was satisfied before the previously captured media item was displayed.
[Item 381]
in response to receiving the request to display the representation of the previously captured media item and in accordance with a determination that an automatic media correction criterion is satisfied, displaying, concurrently with the representation of the previously captured media item including a combination of the first content and the second content, a third auto-adjustment affordance that, when selected, causes the electronic device to perform a first operation;
381. The method of any one of claims 371 to 380, further comprising:
[Item 382]
382. The method of any one of claims 371 to 381, wherein the automatic media correction criteria include criteria that are met when an auto-apply setting is enabled and that are not met when the auto-apply setting is disabled.
[Item 383]
Item 383. The method of any one of items 371 to 382, wherein the auto-apply settings are user-configurable settings.
[Item 384]
in response to receiving the request to display the representation of the previously captured media item and in response to a determination that an automatic media correction criterion has not been satisfied;
pursuant to a determination that a first set of criteria is satisfied, displaying, contemporaneously with the representation of the previously captured media item that includes the first content and does not include the second content, a fourth auto-adjusting affordance that, when selected, causes the electronic device to perform a second operation;
40. The method of any one of claims 371 to 383, further comprising:
[Item 385]
in response to receiving the request to display the representation of the previously captured media item and in response to a determination that an automatic media correction criterion has not been satisfied;
pursuant to a determination that the first set of criteria is not satisfied, displaying a non-selectable indicator contemporaneously with the representation of the previously captured media item that includes the first content and does not include the second content;
5. The method of any one of claims 371 to 384, further comprising:
[Item 386]
in response to receiving the request to display the representation of the previously captured media item,
displaying a content processing indicator in accordance with a determination that the content processing criteria has been satisfied;
ceasing to display the content processing indicator in response to a determination that the content processing criterion has not been satisfied; and
386. The method of any one of claims 371 to 385, further comprising:
[Item 387]
ceasing display of the content processing indicator while displaying the content processing indicator and pursuant to a determination that the content processing criteria is no longer satisfied;
387. The method of claim 386, further comprising:
[Item 388]
while displaying the representation of the previously captured media item that includes the first content and does not include the second content and while displaying the content processing indicator and pursuant to a determination that the content processing criteria is no longer satisfied, replacing the representation of the previously captured media item that includes the first content and does not include the second content with the representation of the previously captured media item that includes a combination of the first content and the second content;
387. The method of claim 386, further comprising:
[Item 389]
displaying a second representation of the previously captured media item that includes the first content and does not include the second content while displaying the representation of the previously captured media item that includes the first content and does not include the second content and while displaying the content processing indicator;
while displaying the second representation of the previously captured media item including the first content and not including the second content, and pursuant to a determination that the content processing criteria is no longer satisfied, replacing the second representation of the previously captured media item including the first content and not including the second content with a second representation of the previously captured media item including a combination of the first content and the second content;
387. The method of claim 386, further comprising:
[Item 390]
displaying an animation of the representation of the previously captured media item including a combination of the first content and the second content transitioning to the representation of the previously captured media item including the first content and not including the second content while displaying the representation of the previously captured media item including the combination of the first content and the second content;
40. The method of any one of claims 371 to 389, further comprising:
[Item 391]
displaying an animation of the representation of the previously captured media item that includes the first content and does not include the second content transitioning to the representation of the previously captured media item that includes a combination of the first content and the second content while displaying the representation of the previously captured media item that includes the first content and does not include the second content;
40. The method of any one of claims 371 to 390, further comprising:
[Item 392]
receiving a request to display a representation of a media item that includes third content from the first portion of a field of view of one or more cameras and does not include fourth content from the second portion of the field of view of the one or more cameras;
in response to receiving the request to display the representation of the previously captured media item, the representation including third content from the first portion of the field of view of the one or more cameras and not including fourth content from the second portion of the field of view of the one or more cameras, ceasing to display an indication that additional media content is available outside the first portion of the field of view of the one or more cameras;
402. The method of any one of claims 371 to 391, further comprising:
[Item 393]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device having a display device, the one or more programs including instructions for performing the method according to any one of items 371 to 392.
[Item 394]
1. An electronic device comprising:
A display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
393. An electronic device comprising:
[Item 395]
1. An electronic device comprising:
A display device and a means for performing the method according to any one of items 371 to 392,
An electronic device comprising:
[Item 396]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device having a display device, the one or more programs comprising:
receiving a request to display a representation of a previously captured media item, the representation including first content from a first portion of a field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras;
in response to receiving the request to display the representation of the previously captured media item,
pursuant to a determination that automatic media correction criteria are satisfied, displaying via the display device a representation of the previously captured media item including a combination of the first content and the second content;
pursuant to a determination that an automatic media correction criterion has not been satisfied, displaying via the display device a representation of the previously captured media item that includes the first content and that does not include the second content.
A non-transitory computer-readable storage medium containing instructions.
[Item 397]
1. An electronic device comprising:
A display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
receiving a request to display a representation of a previously captured media item, the representation including first content from a first portion of a field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras;
in response to receiving the request to display the representation of the previously captured media item,
pursuant to a determination that automatic media correction criteria are satisfied, displaying via the display device a representation of the previously captured media item including a combination of the first content and the second content;
displaying, via the display device, a representation of the previously captured media item that includes the first content and that does not include the second content in accordance with a determination that an automatic media correction criterion has not been satisfied.
An electronic device that contains instructions.
[Item 398]
1. An electronic device comprising:
A display device;
means for receiving a request to display a representation of a previously captured media item, the representation including first content from a first portion of a field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras;
in response to receiving the request to display the representation of the previously captured media item,
pursuant to a determination that automatic media correction criteria are satisfied, displaying via the display device a representation of the previously captured media item including a combination of the first content and the second content;
pursuant to a determination that an automatic media correction criterion has not been satisfied, displaying via the display device a representation of the previously captured media item that includes the first content and that does not include the second content.
An electronic device comprising:
[Item 399]
236. The method of any one of claims 219 to 235, wherein the adjustable controls for selecting time-based representations of the first visual media corresponding to respective times are displayed at respective positions on the display device.
[Item 400]
1. A method comprising:
In an electronic device having a display device and one or more cameras,
displaying, via the display device, a media capture user interface including a representation of a field of view of the one or more cameras;
receiving, via the display device, a request to capture media while displaying the media capture user interface;
In response to receiving the request to capture media, initiating capture of media via the one or more cameras;
Detecting a movement of the electronic device at a first time after initiating capture of media via the one or more cameras;
in response to detecting a movement of the electronic device at the first time after initiating capture of media;
pursuant to a determination that a set of guidance criteria are satisfied, including criteria that are satisfied when the detected movement of the electronic device exceeds a movement threshold, displaying via the display device a visual indication of one or more differences between a pose of the electronic device when media capture was initiated and a current pose of the electronic device;
cease displaying, via the display device, the visual indication of the one or more differences between the pose of the electronic device when media capture was initiated and the current pose of the electronic device in accordance with a determination of the detected movement not satisfying the set of guidance criteria;
A method comprising:
[Item 401]
the media capture user interface includes a media capture affordance;
401. The method of claim 400, wherein receiving the request to capture media includes detecting a selection of the media capture affordance.
[Item 402]
Displaying the visual indication of one or more differences between the pose of the electronic device when capture of media was initiated and the current pose of the electronic device may further include:
displaying the visual indication with a first change in appearance in accordance with determining that the pose of the electronic device has changed in a first manner;
displaying the visual indication with a second change in appearance in response to determining that the pose of the electronic device has changed in a second manner different from the first manner;
The method according to any one of claims 400 to 401, comprising:
[Item 403]
Displaying the visual indication simultaneously
displaying the visual indication having a visual characteristic indicative of a first difference between the pose of the electronic device when capture of media was initiated and the current pose of the electronic device;
displaying the visual indication having a visual characteristic indicative of a second difference between the pose of the electronic device when media capture was initiated and the current pose of the electronic device, the first difference and the second difference being different types of differences;
Item 3. The method according to any one of items 400 to 402, comprising:
[Item 404]
the visual indication includes a first portion of the visual indication representing the pose of the electronic device when media capture was initiated, and a second portion of the visual indication representing the current pose of the electronic device;
404. The method of any one of claims 400 to 403, wherein displaying the visual indication in response to detecting a movement of the electronic device at the first time after initiating media capture includes displaying at least one of the first and second parts of the visual indication with an appearance that changes in response to a change in the pose of the electronic device after media capture has begun.
[Item 405]
the visual indication includes a portion of the visual indication;
5. The method of claim 400, wherein displaying the visual indication in response to detecting a movement of the electronic device at the first time after starting media capture includes displaying the portion of the visual indication rotated a first amount determined based on an amount of rotation of the electronic device.
[Item 406]
detecting a rotational movement of the electronic device at a second time after initiating capture of media while displaying the first amount of rotation, the rotated portion of the visual indication; and
in response to detecting a rotational movement of the electronic device at the second time after initiating capture of media, rotating the portion of the visual indication a second amount of rotation determined based on an amount of the detected rotational movement, the second amount of rotation being different than the first amount of rotation;
Item 405. The method of item 405, further comprising:
[Item 407]
the visual indication includes a portion of the visual indication;
407. The method of claim 406, wherein displaying the visual indication in response to detecting a movement of the electronic device at the first time after starting to capture media comprises displaying the portion of the visual indication having a first amount of skew determined based on an amount of movement of the electronic device.
[Item 408]
detecting a movement of the electronic device at a third time after initiating capture of media while displaying the first skewed, distorted portion; and
displaying the portion with a second amount of skew in response to detecting a movement of the electronic device at the third time after beginning capture of media, the second amount of skew being different from the first amount of skew;
Item 407. The method of item 407, further comprising:
[Item 409]
the visual indication includes a portion of the visual indication;
9. The method of claim 400, wherein displaying the visual indication in response to detecting a movement of the electronic device at the first time after starting to capture media comprises displaying the portion of the visual indication at a first location determined based on a position of the electronic device.
[Item 410]
detecting a translation of the electronic device at a fourth time after initiating capture of media while displaying the portion of the visual indication at the first location;
in response to detecting a translation of the electronic device at the fourth time after starting to capture media, displaying the portion of the visual indication at a second location determined based on the translation of the electronic device, the second location being different from the first location;
Item 409. The method of item 409, further comprising:
[Item 411]
Item 411. The method of any one of items 400 to 410, wherein the visual indication indicates a magnitude of the one or more differences.
[Item 412]
At a first time when the pose of the electronic device is different from the pose of the electronic device when capture of media was initiated;
the visual indication includes a first portion of the visual indication displayed at a first location on the media capture user interface, the first portion representing the pose of the electronic device when media capture was initiated;
The method of any one of items 400 to 411, wherein the visual indication includes a second portion of the visual indication representing the current pose of the electronic device at a second location on the media capture user interface that is different from the first location on the media capture user interface.
[Item 413]
detecting a movement of the electronic device at a fifth time after initiating capture of media after displaying the first portion of the visual indication at the first location and the second portion of the visual indication at the second location and while capturing the media;
in response to detecting a movement of the electronic device at the fifth time after starting to capture media;
displaying the first portion of the visual indication at the second location on the media user interface in accordance with a determination that the one or more differences between the pose of the electronic device when media capture was initiated and the current pose of the electronic device are less than one or more threshold difference amounts, wherein the first portion of the visual indication and the second portion of the visual indication overlap one another;
Item 413. The method of item 412, further comprising:
[Item 414]
While displaying said visual indication,
a portion of the displayed visual indication does not change in response to movement of the electronic device being detected;
Item 44. The method of any one of items 400 to 413, wherein a portion of the displayed visual indication changes in response to a movement of the electronic device being detected.
[Item 415]
detecting a movement of the electronic device at a seventh time after initiating capture of media;
in response to detecting a movement of the electronic device at the seventh time after starting to capture media;
ceasing to display the visual indication in accordance with a determination that the detected movement at the seventh time after initiating capture of media of the electronic device does not exceed a second movement threshold; and
415. The method of any one of claims 400 to 414, further comprising:
[Item 416]
in response to detecting a movement of the electronic device at the seventh time after starting to capture media;
continuing to display the visual indication in accordance with a determination that the detected movement at the seventh time after initiating capture of media of the electronic device exceeds a second movement threshold.
Item 416. The method of item 415, further comprising:
[Item 417]
Item 417. The method according to any one of items 400 to 416, wherein the set of guidance criteria includes criteria that are met when a low light mode is active.
[Item 418]
Item 418. The method of any one of items 400 to 417, wherein the set of guidance criteria includes criteria that are met when the electronic device is configured to capture a plurality of images over a capture duration that exceeds a threshold duration.
[Item 419]
Item 49. The method of any one of items 400 to 418, wherein the visual indication is displayed on the representation of the field of view of the one or more cameras.
[Item 420]
detecting a movement of the electronic device at an eighth time after beginning to capture media via the one or more cameras;
in response to detecting a movement of the electronic device at the eighth time after starting to capture media;
ceasing capture of media in response to a determination that the detected movement of the electronic device exceeds a second movement threshold;
420. The method of any one of claims 400 to 419, further comprising:
[Item 421]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs including instructions for performing the method according to any one of items 400 to 420.
[Item 422]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs contain instructions for performing the method according to any one of items 400 to 420.
[Item 423]
1. An electronic device comprising:
A display device;
One or more cameras and means for carrying out the method according to any one of items 400 to 420;
An electronic device comprising:
[Item 424]
1. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs comprising:
displaying, via the display device, a media capture user interface including a representation of a field of view of the one or more cameras;
receiving, via the display device, a request to capture media while displaying the media capture user interface;
In response to receiving the request to capture media, initiate capturing media via the one or more cameras;
Detecting a movement of the electronic device at a first time after initiating capture of media via the one or more cameras;
in response to detecting a movement of the electronic device at the first time after initiating capture of media;
pursuant to a determination that a set of guidance criteria are satisfied, including criteria that are satisfied when the detected movement of the electronic device exceeds a movement threshold, displaying, via the display device, a visual indication of one or more differences between a pose of the electronic device when media capture was initiated and a current pose of the electronic device;
pursuant to a determination that the detected movement does not satisfy the set of guidance criteria, ceasing to display, via the display device, the visual indication of the one or more differences between the pose of the electronic device when media capture was initiated and the current pose of the electronic device.
A non-transitory computer-readable storage medium containing instructions.
[Item 425]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
displaying, via the display device, a media capture user interface including a representation of a field of view of the one or more cameras;
receiving, via the display device, a request to capture media while displaying the media capture user interface;
In response to receiving the request to capture media, initiate capturing media via the one or more cameras;
Detecting a movement of the electronic device at a first time after initiating capture of media via the one or more cameras;
in response to detecting a movement of the electronic device at the first time after initiating capture of media;
pursuant to a determination that a set of guidance criteria are satisfied, including criteria that are satisfied when the detected movement of the electronic device exceeds a movement threshold, displaying, via the display device, a visual indication of one or more differences between a pose of the electronic device when media capture was initiated and a current pose of the electronic device;
pursuant to a determination that the detected movement does not satisfy the set of guidance criteria, ceasing to display, via the display device, the visual indication of the one or more differences between the pose of the electronic device when media capture was initiated and the current pose of the electronic device.
An electronic device that contains instructions.
[Item 426]
1. An electronic device comprising:
A display device;
One or more cameras;
means for displaying, via said display device, a media capture user interface including a representation of a field of view of said one or more cameras;
means for receiving, via the display device, a request to capture media while displaying the media capture user interface;
means for initiating capture of media via the one or more cameras in response to receiving the request to capture media;
means for detecting a movement of the electronic device at a first time after initiating capture of media via the one or more cameras;
in response to detecting a movement of the electronic device at the first time after initiating capture of media;
pursuant to a determination that a set of guidance criteria are satisfied, including criteria that are satisfied when the detected movement of the electronic device exceeds a movement threshold, displaying, via the display device, a visual indication of one or more differences between a pose of the electronic device when media capture was initiated and a current pose of the electronic device;
pursuant to a determination that the detected movement does not satisfy the set of guidance criteria, ceasing to display, via the display device, the visual indication of the one or more differences between the pose of the electronic device when media capture was initiated and the current pose of the electronic device.
Means,
An electronic device comprising:
[Item 427]
1. A method comprising:
1. A computer system having one or more cameras in communication with one or more display devices and one or more input devices, comprising:
displaying a camera user interface having a camera preview for capturing media at a first zoom level, the camera user interface including a selectable user interface object for changing the zoom level;
detecting an input corresponding to a selection of the selectable user interface object while displaying the camera user interface;
in response to detecting the input corresponding to a selection of the selectable user interface object,
changing the zoom level to a second zoom level and enabling a low light capture mode in accordance with determining that the available light is below a threshold;
changing the zoom level without enabling the low light capture mode in response to a determination that the available light is above the threshold; and
A method comprising:
[Item 428]
the camera user interface includes a selectable user interface object for capturing media;
while the camera preview is displayed at the first zoom level and pursuant to a determination that the available light falls below the threshold, the selectable user interface object for capturing media is disabled;
428. The method of claim 427, wherein the selectable user interface object for capturing media is enabled while the camera preview is displayed at the first zoom level and pursuant to a determination that the available light exceeds the threshold.
[Item 429]
In response to the determination that the selectable user interface object for capturing media is disabled, the selectable user interface object for capturing media is displayed with a first visual appearance;
Item 429. The method of item 428, wherein in accordance with the determination that the selectable user interface object for capturing media is enabled, the selectable user interface object for capturing media is displayed with a second visual appearance different from the first visual appearance.
[Item 430]
the camera user interface includes a selectable user interface object for capturing media;
429. The method of any one of items 427 to 429, wherein while the camera preview is displayed at the second zoom level, the selectable user interface object for capturing media is enabled regardless of whether the available light is above the threshold.
[Item 431]
while the camera preview is displayed at the first zoom level and pursuant to a determination that the available light falls below the threshold, displaying guidance for switching the zoom level.
431. The method of any one of claims 427 to 430, further comprising:
[Item 432]
ceasing to display guidance for switching zoom levels while the camera preview is displayed at the second zoom level, regardless of whether the amount of available light exceeds the threshold.
432. The method of any one of claims 427 to 431, further comprising:
[Item 433]
displaying guidance for enabling a flash mode while the camera preview is displayed at the first zoom level and pursuant to a determination that the available light falls below the threshold;
433. The method of any one of claims 427 to 432, further comprising:
[Item 434]
Item 444. The method of any one of items 427 to 433, wherein the first zoom level is higher than the second zoom level.
[Item 435]
the computer system includes one or more depth sensors;
while the camera preview is displayed at the first zoom level and in accordance with a determination that the available light falls below a threshold, the one or more depth sensors enable a determination of depth information regarding a field of view of the one or more cameras at the first zoom level with a first accuracy;
435. The method of any one of items 427 to 434, wherein while the camera preview is displayed at the second zoom level and in accordance with a determination that the available light falls below a threshold, the one or more depth sensors enable the determination of depth information regarding the field of view of the one or more cameras at the second zoom level with a second accuracy that is higher than the first accuracy.
[Item 436]
436. The method of any one of items 427 to 435, wherein while the camera preview is displayed at the first zoom level and pursuant to a determination that the available light falls below the threshold, the selectable user interface object for changing the zoom level includes an indication corresponding to a low light capture mode.
[Item 437]
437. The method of any one of claims 427 to 436, wherein the selectable user interface object for changing the zoom level while the camera preview is displayed at the second zoom level does not include an indication corresponding to the low light capture mode, regardless of whether the amount of available light exceeds the threshold.
[Item 438]
receiving a request to capture media while a low light capture mode is enabled;
In response to receiving the request to capture media, initiating capture of a plurality of images over a capture duration;
generating a composite image including content of at least some of the multiple images after beginning capture of the multiple images for the capture duration, the composite image being visually brighter than one or more of the multiple images;
438. The method of any one of claims 427 to 437, further comprising:
[Item 439]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of a computer system having one or more cameras, the computer system in communication with one or more display devices and one or more input devices, the one or more programs including instructions for performing the method according to any one of items 427 to 438.
[Item 440]
1. A computer system comprising:
one or more cameras, the computer system in communication with one or more display devices and one or more input devices;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs contain instructions for performing the method according to any one of items 427 to 438,
Computer system.
[Item 441]
1. A computer system comprising:
one or more cameras, the computer system being in communication with one or more display devices and one or more input devices; and means for executing the method according to any one of claims 427 to 438;
A computer system comprising:
[Item 442]
1. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of a computer system having one or more cameras, the computer system in communication with one or more display devices and one or more input devices, the one or more programs comprising:
displaying a camera user interface having a camera preview for capturing media at a first zoom level, the camera user interface including a selectable user interface object for changing the zoom level;
detecting an input corresponding to a selection of the selectable user interface object while displaying the camera user interface;
in response to detecting the input corresponding to a selection of the selectable user interface object,
pursuant to determining that the available light is below a threshold, changing the zoom level to a second zoom level and enabling a low light capture mode;
changing the zoom level without enabling the low light capture mode in response to a determination that the available light is above the threshold.
A non-transitory computer-readable storage medium containing instructions.
[Item 443]
1. A computer system comprising:
one or more cameras, the computer system in communication with one or more display devices and one or more input devices;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
displaying a camera user interface having a camera preview for capturing media at a first zoom level, the camera user interface including a selectable user interface object for changing the zoom level;
detecting an input corresponding to a selection of the selectable user interface object while displaying the camera user interface;
in response to detecting the input corresponding to a selection of the selectable user interface object,
pursuant to determining that the available light is below a threshold, changing the zoom level to a second zoom level and enabling a low light capture mode;
changing the zoom level without enabling the low light capture mode in response to a determination that the available light is above the threshold.
Including instructions,
Computer system.
[Item 444]
1. A computer system comprising:
one or more cameras, the computer system in communication with one or more display devices and one or more input devices;
means for displaying a camera user interface having a camera preview for capturing media at a first zoom level, the camera user interface including a selectable user interface object for changing the zoom level;
means for detecting an input corresponding to a selection of the selectable user interface object while displaying the camera user interface;
in response to detecting the input corresponding to a selection of the selectable user interface object,
means for changing the zoom level to a second zoom level in response to a determination that available light is below a threshold; and means for enabling a low light capture mode.
changing the zoom level without enabling the low light capture mode in response to a determination that the available light is above the threshold; and
A computer system comprising:
[Item 1]
1. A method comprising:
In an electronic device having a display device and one or more cameras,
displaying, via the display device, a camera user interface, the camera user interface comprising:
a camera display area including a representation of the field of view of the one or more cameras; and
a camera control area containing multiple control affordances;
and
displaying the camera user interface without displaying a first control affordance associated with a first predefined condition while the first predefined condition is not satisfied; and
detecting a change in a condition of a scene within the field of view of the one or more cameras while displaying the camera user interface without displaying the first control affordance;
in response to detecting the change in a condition of a scene within the field of view of the one or more cameras, simultaneously displaying the first control affordance and an indication of a current state of a characteristic of the electronic device associated with the first control affordance;
A method comprising:
[Item 2]
In response to detecting said change in condition,
2. The method of claim 1, further comprising: displaying a second control affordance simultaneously with the first control affordance in accordance with a determination that a second predefined condition is satisfied.
[Item 3]
In response to detecting said change in condition,
3. The method of claim 2, further comprising: displaying the first control affordance while ceasing to display the second control affordance in accordance with a determination that the first predefined condition is satisfied and the second predefined condition is not satisfied.
[Item 4]
4. The method of any one of claims 1 to 3, wherein the first predefined condition is met when the amount of light in the field of view of the one or more cameras falls below a first predetermined threshold, and the first control affordance is an affordance for controlling flash operation.
[Item 5]
5. The method of claim 1, wherein when the electronic device is connected to an accessory of a first type, the first predefined condition is met and the first control affordance is an affordance for controlling a timer operation.
[Item 6]
6. The method of any one of claims 1 to 5, wherein the first predefined condition is met when the amount of light in the field of view of the one or more cameras falls below a second predetermined threshold, and the first control affordance is an affordance for controlling a low-light capture mode.
[Item 7]
7. The method of any one of claims 1 to 6, wherein the first predefined condition is met when the electronic device is configured to capture an image in a first capture mode, and the first control affordance is an affordance for controlling a lighting effects operation.
[Item 8]
receiving a selection of the affordance to control the light effects operation while displaying the affordance to control the light effects operation;
responsive to receiving the selection of the affordance controlling the lighting effects operation, displaying an affordance that, when adjusted, adjusts the lighting effects applied to the representation of the field of view of the one or more cameras; and
8. The method of claim 7, further comprising:
[Item 9]
(cancel).
[Item 10]
9. The method of claim 1, wherein the characteristic has one or more active states and one or more inactive states, and displaying the indication is pursuant to determining that the characteristic is in at least one of the one or more active states.
[Item 11]
11. The method of any one of items 1 to 8 and 10, wherein the property is a first flash operation setting and the current state of the property is that flash operation is enabled.
[Item 12]
9. The method of any one of claims 1 to 8, wherein the property is a second flash operation setting and the current state of the property is that flash operation is disabled.
[Item 13]
13. The method of any one of items 1 to 8 and 10 to 12, wherein the characteristic is a first image capture mode setting, the current state of the characteristic is that the image capture mode is enabled, and the electronic device is configured to capture still images and video in response to an input corresponding to a request to capture media.
[Item 14]
14. The method of any one of items 1 to 8 and 10 to 13, wherein the characteristic is a second image capture mode setting, the current state of the characteristic is that the second image capture mode is enabled, and the electronic device is configured to capture media using a high dynamic range imaging effect in response to an input corresponding to a request to capture media.
[Item 15]
15. The method of any one of items 1 to 8 and 10 to 14, wherein the camera control area is displayed adjacent to a first side of the display device and the indication is displayed adjacent to a second side of the display device opposite the first side.
[Item 16]
16. The method of any one of items 2 to 8 and 10 to 15, wherein the representation of the field of view of the one or more cameras extends across a portion of the camera user interface including the first control affordance and/or the second control affordance.
[Item 17]
In response to displaying the first control affordance,
displaying a second indication associated with the first control affordance in accordance with determining that the first control affordance is of a first type; and
displaying the second indication associated with the first control affordance in accordance with determining that the first control affordance is of a second type different from the first type and determining that a second characteristic of the electronic device associated with the first control affordance is in an active state;
ceasing to display the second indication associated with the first control affordance in response to determining that the first control affordance is of a second type different from the first type and determining that the second characteristic of the electronic device associated with the first control affordance is in an inactive state; and
17. The method of any one of items 1 to 8 and 10 to 16, further comprising:
[Item 18]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs including instructions for performing the method according to any one of items 1 to 8 and 10 to 17.
[Item 19]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise instructions for performing the method according to any one of items 1 to 8 and 10 to 17.
[Item 20]
1. An electronic device comprising:
A display device;
One or more cameras;
Means for carrying out the method according to any one of items 1 to 8 and 10 to 17;
An electronic device comprising:
[Item 21]
1. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs comprising:
via the display device, a camera user interface,
a camera display area including a representation of the field of view of the one or more cameras; and
a camera control area containing multiple control affordances;
displaying a camera user interface including
displaying the camera user interface without displaying a first control affordance associated with a first predefined condition while the first predefined condition is not satisfied;
detecting a change in scene conditions within the field of view of the one or more cameras while displaying the camera user interface without displaying the first control affordance;
in response to detecting the change in a condition of a scene within the field of view of the one or more cameras, simultaneously displaying the first control affordance and an indication of a current state of a characteristic of the electronic device associated with the first control affordance.
A non-transitory computer-readable storage medium containing instructions.
[Item 22]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
via the display device, a camera user interface,
a camera display area including a representation of the field of view of the one or more cameras; and
a camera control area containing multiple control affordances;
displaying a camera user interface including
displaying the camera user interface without displaying a first control affordance associated with a first predefined condition while the first predefined condition is not satisfied;
detecting a change in scene conditions within the field of view of the one or more cameras while displaying the camera user interface without displaying the first control affordance;
in response to detecting the change in a condition of a scene within the field of view of the one or more cameras, simultaneously displaying the first control affordance and an indication of a current state of a characteristic of the electronic device associated with the first control affordance.
An electronic device that contains instructions.
[Item 23]
1. An electronic device comprising:
A display device;
One or more cameras;
means for displaying a camera user interface via the display device, the camera user interface comprising:
a camera display area including a representation of the field of view of the one or more cameras; and
a camera control area containing multiple control affordances;
and
means for displaying the camera user interface without displaying a first control affordance associated with a first predefined condition while the first predefined condition is not satisfied;
means for detecting a change of condition while displaying the camera user interface without displaying the first control affordance;
means for simultaneously displaying the first control affordance and an indication of a current state of a characteristic of the electronic device associated with the first control affordance in response to detecting the change in condition;
An electronic device comprising:
[Item 24]
1. A method comprising:
In an electronic device having a display device and one or more cameras,
displaying, via the display device, a camera user interface, the camera user interface comprising:
a camera display area including a representation of the field of view of the one or more cameras; and
a camera control area including a plurality of camera mode affordances at a first position;
and
detecting a first gesture on the camera user interface while displaying the camera user interface;
modifying an appearance of the camera control area in response to detecting the first gesture,
displaying one or more additional camera mode affordances at the first location in accordance with determining that the first gesture is a first type of gesture; and
ceasing to display the plurality of camera mode affordances and displaying a plurality of camera setting affordances at the first location in accordance with a determination that the first gesture is a gesture of a second type different from the first type, the camera setting affordances being settings that adjust image capture of a currently selected camera mode;
and
A method comprising:
[Item 25]
25. The method of claim 24, wherein the camera control area includes an affordance that displays the plurality of camera setting affordances, and the gesture of the second type is a selection of the affordance that displays the plurality of camera setting affordances.
[Item 26]
25. The method of claim 24, wherein the gesture of the second type is a movement of a contact within the camera display area.
[Item 27]
27. The method of any one of claims 24 to 26, wherein the gesture of the first type is a movement of a contact over at least one of the plurality of camera mode affordances.
[Item 28]
detecting a second gesture on the camera user interface corresponding to a request to display a first representation of previously captured media;
displaying a first representation of the previously captured media in response to detecting the second gesture; and
28. The method of any one of items 24 to 27, further comprising:
[Item 29]
Detecting a capture of a first media using the one or more cameras while not displaying a representation of previously captured media;
in response to detecting the capture of the first media,
displaying one or more representations of the captured media, including a representation of the first media; and
29. The method of any one of items 24 to 28, further comprising:
[Item 30]
30. The method of any one of claims 24 to 29, wherein the plurality of camera setting affordances includes an affordance that, when displayed, configures the electronic device to capture media displayed in a first aspect ratio in response to a first request to capture media.
[Item 31]
receiving a third request to capture media while the electronic device is configured to capture the media displayed in the first aspect ratio when displayed;
in response to receiving the third request to capture media, displaying a representation of the captured media having the first aspect ratio;
receiving a request to change the representation of the captured media having the first aspect ratio to a representation of the captured media having a second aspect ratio;
in response to receiving the request to change the representation of the captured media having the first aspect ratio to the representation of the captured media having the second aspect ratio, displaying the representation of the captured media having the second aspect ratio;
31. The method of claim 30, further comprising:
[Item 32]
32. The method of claim 31, wherein the representation of the captured media having the second aspect ratio includes visual content that is not present in the representation of the captured media having the first aspect ratio.
[Item 33]
The representation of the field of view of the one or more cameras is displayed at a first zoom level, and the method comprises:
receiving, while displaying the representation of the field of view of the one or more cameras displayed at the first zoom level, a first request to change the zoom level of the representation;
In response to receiving the first request to change the zoom level of the representation,
displaying a second representation field of view of the one or more cameras at a second zoom level that is greater than the first zoom level in response to a determination that the request to change the zoom level of the representation corresponds to a request to increase the zoom level of the representation;
33. The method of any one of claims 24 to 32, further comprising: displaying a third representation field of view of the one or more cameras at a third zoom level less than the first zoom level in accordance with a determination that the request to change the zoom level of the representation corresponds to a request to decrease the zoom level of the representation.
[Item 34]
receiving a second request to change the zoom level of the representation while displaying the representation of the field of view of the one or more cameras displayed at a fourth zoom level;
in response to receiving the second request to change the zoom level of the representation,
displaying a fourth representation of the field of view of the one or more cameras at the third zoom level in accordance with determining that the fourth zoom level is the second zoom level; and
displaying a fifth representation of the field of view of the one or more cameras at the first zoom level in accordance with a determination that the fourth zoom level is the third zoom level; and
displaying a sixth representation of the field of view of the one or more cameras at the second zoom level in accordance with determining that the fourth zoom level is the first zoom level; and
34. The method of claim 33, further comprising:
[Item 35]
displaying the camera user interface includes displaying an affordance including a graphical indication of a state of a capture setting;
35. The method of any one of claims 24 to 34, wherein the gesture of the second type corresponds to a selection of the graphical indication.
[Item 36]
Displaying the plurality of camera setting affordances at the first location includes:
displaying a first set of camera setting affordances at the first location in accordance with a determination that the electronic device is configured to capture media in a first camera mode while the gesture of the second type is detected; and
displaying a second set of camera setting affordances at the first location, the second set of camera setting affordances being different from the first set of camera setting affordances, in accordance with a determination that the electronic device is configured to capture media in a second camera mode that is different from the first camera mode while the gesture of the second type was detected;
36. The method according to any one of items 24 to 35, comprising:
[Item 37]
37. The method of claim 36, wherein the first set of camera setting affordances includes a first camera setting affordance, and the second set of camera setting affordances includes the first camera setting affordance.
[Item 38]
The first camera mode is a still photo capture mode, and the first set of camera setting affordances include:
an affordance including a visual indication corresponding to a flash setting;
Affordances that include visual indications that correspond to the live setting;
an affordance including a visual indication corresponding to the aspect ratio setting;
an affordance including a visual indication corresponding to the timer setting;
an affordance that includes a visual indication corresponding to the filter setting;
38. The method of claim 36 or 37, comprising one or more affordances selected from the group consisting of:
[Item 39]
The first camera mode is a portrait mode, and the first set of camera setting affordances include:
an affordance that includes a visual indication corresponding to the depth control setting;
an affordance including a visual indication corresponding to a flash setting;
an affordance including a visual indication corresponding to the timer setting;
an affordance including a visual indication corresponding to the filter setting;
an affordance including a visual indication corresponding to the lighting setting;
38. The method of claim 36 or 37, comprising one or more affordances selected from the group consisting of:
[Item 40]
The first gesture is of the first type, and detecting the first gesture includes detecting a first portion of the first gesture and a second portion of the first gesture, the method further comprising:
in response to detecting the first portion of the first gesture, displaying via the display device a boundary including one or more distinct boundary elements that enclose at least a portion of the representation of the field of view of the one or more cameras;
in response to detecting the second portion of the first gesture, translating the border in a first direction across a display of the display device until at least a portion of the border is translated off of the display and ceases to be displayed;
40. The method of any one of items 24 to 39, further comprising:
[Item 41]
41. The method of claim 40, wherein detecting the second portion of the first gesture includes detecting a second contact that moves in the first direction.
[Item 42]
the second contact is detected on the representation of the field of view of the one or more cameras;
42. The method of claim 41, wherein a speed at which the translating of the boundary occurs is proportional to a speed of movement of the second contact in the first direction.
[Item 43]
42. The method of claim 41, wherein translating the boundary includes changing a visual appearance of the at least a portion of the representation of the field of view of the one or more cameras that is enclosed by the boundary.
[Item 44]
detecting a second request to capture media while the electronic device is configured to capture media in a third camera mode;
In response to receiving the second request to capture media, capturing media using the one or more cameras based on a setting corresponding to the third camera mode and at least one setting corresponding to an affordance of the plurality of camera setting affordances;
44. The method of any one of items 24 to 43, further comprising:
[Item 45]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs including instructions for performing the method according to any one of items 24 to 44.
[Item 46]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
45. An electronic device comprising:
[Item 47]
1. An electronic device comprising:
A display device;
One or more cameras and means for carrying out the method according to any one of items 24 to 44,
An electronic device comprising:
[Item 48]
1. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs comprising:
via the display device, a camera user interface,
a camera display area including a representation of the field of view of the one or more cameras; and
a camera control area including a plurality of camera mode affordances at a first position;
displaying a camera user interface including
detecting a first gesture on the camera user interface while displaying the camera user interface;
In response to detecting the first gesture,
displaying one or more additional camera mode affordances at the first location in accordance with determining that the first gesture is a first type of gesture; and
ceasing to display the plurality of camera mode affordances and displaying a plurality of camera setting affordances at the first location in accordance with a determination that the first gesture is a gesture of a second type different from the first type, the camera setting affordances being settings that adjust image capture of a currently selected camera mode;
modifying the appearance of the camera control area,
A non-transitory computer-readable storage medium containing instructions.
[Item 49]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
via the display device, a camera user interface,
a camera display area including a representation of the field of view of the one or more cameras; and
a camera control area including a plurality of camera mode affordances at a first position;
displaying a camera user interface including
detecting a first gesture on the camera user interface while displaying the camera user interface;
In response to detecting the first gesture,
displaying one or more additional camera mode affordances at the first location in accordance with determining that the first gesture is a first type of gesture; and
ceasing to display the plurality of camera mode affordances and displaying a plurality of camera setting affordances at the first location in accordance with a determination that the first gesture is a gesture of a second type different from the first type, the camera setting affordances being settings that adjust image capture of a currently selected camera mode;
modifying the appearance of the camera control area,
An electronic device that contains instructions.
[Item 50]
1. An electronic device comprising:
A display device;
One or more cameras;
means for displaying a camera user interface via the display device, the camera user interface comprising:
a camera display area including a representation of the field of view of the one or more cameras; and
a camera control area including a plurality of camera mode affordances at a first position;
and
means for detecting a first gesture on the camera user interface while displaying the camera user interface;
means for modifying an appearance of the camera control area in response to detecting the first gesture, the means comprising:
displaying one or more additional camera mode affordances at the first location in accordance with determining that the first gesture is a first type of gesture; and
ceasing to display the plurality of camera mode affordances and displaying a plurality of camera setting affordances at the first location in accordance with a determination that the first gesture is a gesture of a second type different from the first type, the camera setting affordances being settings that adjust image capture of a currently selected camera mode;
and
An electronic device comprising:
[Item 51]
1. A method comprising:
In an electronic device having a display device and one or more cameras,
Receiving a request to display a camera user interface;
in response to receiving the request to display the camera user interface and in response to a determination that a respective criterion is not satisfied,
displaying the camera user interface via the display device, the camera user interface comprising:
a first region including a representation of a first portion of a field of view of the one or more cameras;
a second region including a representation of a second portion of the field of view of the one or more cameras, the second portion of the field of view of the one or more cameras being visually distinct from the first portion;
and
detecting an input corresponding to a request to capture media with the one or more cameras while the camera user interface is displayed;
in response to detecting the input corresponding to the request to capture media with the one or more cameras, capturing a media item with the one or more cameras, the media item including visual content corresponding to the first portion of the field of view of the one or more cameras and visual content corresponding to the second portion of the field of view of the one or more cameras;
receiving a request to display the media item after capturing the media item;
responsive to receiving the request to display the media item, displaying a first representation of the visual content corresponding to the first portion of the field of view of the one or more cameras without displaying a representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras;
A method comprising:
[Item 52]
detecting, while displaying the first representation of the visual content, a set of one or more inputs corresponding to a request to modify the representation of the visual content;
displaying a second representation of the visual content in response to detecting the set of one or more inputs, the second representation of the visual content including visual content from at least a portion of the first portion of the field of view of the one or more cameras and visual content based on at least a portion of the visual content from the second portion of the field of view of the one or more cameras that was not included in the first representation of the visual content;
52. The method of claim 51, further comprising:
[Item 53]
the first representation of the visual content is from a first visual perspective;
53. The method of claim 52, wherein the second representation of the visual content is a representation from a second visual perspective different from the first visual perspective, generated based on at least a portion of the visual content from the second portion of the field of view of the one or more cameras that was not included in the first representation of the visual content.
[Item 54]
the first representation of the visual content is a representation in a first orientation;
53. The method of claim 52, wherein the second representation of the visual content is a representation in a second orientation different from the first orientation, generated based on at least a portion of the visual content from a second portion of the field of view of the one or more cameras that was not included in the first representation of the visual content.
[Item 55]
The first representation is displayed at a first zoom level, and the method further comprises:
the first representation of the visual content being a representation at a first zoom level;
the second representation of the visual content is a representation at a second zoom level different from the first zoom level, generated based on the at least a portion of the visual content from the second portion of the field of view of the one or more cameras that was not included in the first representation of the visual content;
53. The method of claim 52, further comprising:
[Item 56]
56. The method of any one of items 51 to 55, further comprising generating the first representation of the visual content based at least in part on a digital image stabilization operation using at least a second portion of the visual content from the second portion of the field of view of the one or more cameras.
[Item 57]
57. The method of any one of claims 51 to 56, further comprising, after capturing the media item, performing an object tracking operation using at least a third portion of the visual content from the second portion of the field of view of the one or more cameras.
[Item 58]
The request to display the media item is a first request to display the media item, the method comprising:
receiving a second request to display the media item after displaying the first representation of the visual content corresponding to the first portion of the field of view of the one or more cameras without displaying the representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras;
in response to receiving the second request to display the media item, displaying the first representation of the visual content corresponding to the first portion of the field of view of the one or more cameras and the representation of the visual content corresponding to the second portion of the field of view of the one or more cameras;
58. The method of any one of items 51 to 57, further comprising:
[Item 59]
59. The method of any one of claims 51 to 58, further comprising, in response to receiving the request to display the camera user interface and in accordance with a determination that a respective criterion is met, displaying via the display device a second camera user interface, the second camera user interface including the representation of the first portion of the field of view of the one or more cameras without including the representation of the second portion of the field of view of the one or more cameras.
[Item 60]
The method comprises:
Receiving a request to display a previously captured media item;
in response to receiving the request to display the previously captured media item,
displaying an indication of additional content in accordance with a determination that the previously captured media item was captured when the respective criterion was not met; and
ceasing to display an indication of additional content in response to a determination that the previously captured media item has been captured when the respective criterion is met; and
60. The method of claim 59, further comprising:
[Item 61]
61. The method of claim 59 or 60, wherein the respective criteria include a criterion that is met when the electronic device is configured to capture media items at a resolution of 4000 horizontal pixels or greater.
[Item 62]
Item 62. The method of any one of items 59 to 61, wherein the respective criteria include a criterion that is met when the electronic device is configured to operate in portrait mode at a given zoom level.
[Item 63]
63. The method of any one of claims 59 to 62, wherein the respective criteria include a criterion that is met when at least one of the one or more cameras fails to maintain focus for a predetermined period of time.
[Item 64]
the input corresponding to the request to capture media with the one or more cameras is a first input corresponding to the request to capture media with the one or more cameras;
The method comprises:
detecting a second input corresponding to a request to capture media with the one or more cameras while the camera user interface is displayed;
in response to detecting the second input corresponding to the request to capture media with the one or more cameras;
in response to determining that the electronic device is configured to capture visual content corresponding to the second portion of the field of view of the one or more cameras based on an additional content setting;
capturing a first representation of the visual content corresponding to the first portion of the field of view of the one or more cameras and capturing the representation of at least the portion of the visual content corresponding to the second portion of the field of view of the one or more cameras;
in response to a determination that the electronic device is not configured to capture visual content corresponding to the second portion of the field of view of the one or more cameras based on the additional content setting;
capturing the first representation of the visual content corresponding to the first portion of the field of view of the one or more cameras without capturing the representation of at least the portion of the visual content corresponding to the second portion of the field of view of the one or more cameras;
64. The method of any one of claims 51 to 63, further comprising:
[Item 65]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs including instructions for performing the method according to any one of items 51 to 64.
[Item 66]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
65. An electronic device comprising:
[Item 67]
1. An electronic device comprising:
A display device;
One or more cameras and means for carrying out the method according to any one of items 51 to 64,
An electronic device comprising:
[Item 68]
1. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs comprising:
receiving a request to display a camera user interface;
in response to receiving the request to display the camera user interface and in response to a determination that a respective criterion is not satisfied,
via the display device, the camera user interface,
a first region including a representation of a first portion of a field of view of the one or more cameras;
a second region including a representation of a second portion of the field of view of the one or more cameras, the second portion of the field of view of the one or more cameras being visually distinct from the first portion;
displaying the camera user interface,
detecting an input corresponding to a request to capture media with the one or more cameras while the camera user interface is displayed;
in response to detecting the input corresponding to the request to capture media with the one or more cameras, capturing a media item with the one or more cameras, the media item including visual content corresponding to the first portion of the field of view of the one or more cameras and visual content corresponding to the second portion of the field of view of the one or more cameras;
receiving a request to display the media item after capturing the media item;
responsive to receiving the request to display the media item, displaying a first representation of the visual content corresponding to the first portion of the field of view of the one or more cameras without displaying a representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras.
A non-transitory computer-readable storage medium containing instructions.
[Item 69]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
receiving a request to display a camera user interface;
in response to receiving the request to display the camera user interface and in response to a determination that a respective criterion is not satisfied,
via the display device, the camera user interface,
a first region including a representation of a first portion of a field of view of the one or more cameras;
a second region including a representation of a second portion of the field of view of the one or more cameras, the second portion of the field of view of the one or more cameras being visually distinct from the first portion;
displaying the camera user interface,
detecting an input corresponding to a request to capture media with the one or more cameras while the camera user interface is displayed;
in response to detecting the input corresponding to the request to capture media with the one or more cameras, capturing a media item with the one or more cameras, the media item including visual content corresponding to the first portion of the field of view of the one or more cameras and visual content corresponding to the second portion of the field of view of the one or more cameras;
receiving a request to display the media item after capturing the media item;
responsive to receiving the request to display the media item, displaying a first representation of the visual content corresponding to the first portion of the field of view of the one or more cameras without displaying a representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras.
An electronic device that contains instructions.
[Item 70]
1. An electronic device comprising:
A display device;
One or more cameras;
means for receiving a request to display a camera user interface;
in response to receiving the request to display the camera user interface and in response to a determination that a respective criterion is not satisfied,
means for displaying the camera user interface via the display device, the camera user interface comprising:
a first region including a representation of a first portion of a field of view of the one or more cameras;
a second region including a representation of a second portion of the field of view of the one or more cameras, the second portion of the field of view of the one or more cameras being visually distinct from the first portion;
and
means for detecting an input corresponding to a request to capture media with the one or more cameras while the camera user interface is displayed;
means for capturing, in response to detecting the input corresponding to the request to capture media with the one or more cameras, a media item with the one or more cameras, the media item including visual content corresponding to the first portion of the field of view of the one or more cameras and visual content corresponding to the second portion of the field of view of the one or more cameras;
means for receiving a request to display the media item after capturing the media item;
means for displaying a first representation of the visual content corresponding to the first portion of the field of view of the one or more cameras, without displaying a representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras, in response to receiving the request to display the media item;
An electronic device comprising:
[Item 71]
1. A method comprising:
In an electronic device having a display device and one or more cameras,
displaying, via the display device, a camera user interface, the camera user interface including a camera display area including a representation of a field of view of the one or more cameras;
detecting a request to capture media corresponding to the field of view of the one or more cameras while displaying the camera user interface;
responsive to detecting the request to capture media corresponding to the field of view of the one or more cameras, capturing media corresponding to the field of view of the one or more cameras and displaying a representation of the captured media;
while displaying the representation of the captured media, detecting that the representation of the captured media has been displayed for a predetermined period of time;
in response to detecting that the representation of the captured media has been displayed for the predetermined period of time, ceasing to display at least a first portion of the representation of the captured media while maintaining a display of the camera user interface;
A method comprising:
[Item 72]
Ceasing to display at least the first portion of the representation of the captured media while maintaining the display of the camera user interface includes:
72. The method of claim 71, further comprising maintaining a display of at least a second portion of the representation of the captured media.
[Item 73]
the representation of the captured media is displayed at a first location on the display device prior to ceasing to display the first portion of the representation;
Ceasing to display at least the first portion of the representation of the captured media while maintaining the display of the camera user interface includes:
73. The method of claim 71 or 72, comprising displaying an animation that moves the representation of the captured media from the first position on the display device towards a second position on the display device that corresponds to an edge of the display device.
[Item 74]
The representation of the captured media is displayed at a third location on the display device, the method comprising:
while a second representation of the captured media is being displayed, detecting a user input corresponding to a request to stop displaying at least a portion of the second representation of the captured media while maintaining display of the camera user interface;
in response to detecting the request to stop displaying at least a portion of the second representation, ceasing to display at least a portion of the second representation of the captured media while maintaining display of the camera user interface;
74. The method according to any one of items 71 to 73, comprising:
[Item 75]
receiving a user input corresponding to a movement of a contact from a fourth location on the display device corresponding to an edge of the display device to a fifth location on the display device different from the fourth location after ceasing to display the first portion of the representation;
re-displaying the first portion of the representation in response to receiving a user input corresponding to moving the contact from the fourth location on the display device corresponding to the edge of the display device to the fifth location on the display device;
75. The method of any one of claims 71 to 74, further comprising:
[Item 76]
detecting a user input corresponding to a request to display an enlarged representation of the captured media while the representation of the captured media is being displayed;
displaying, via the display device, an enlarged representation of the captured media in response to detecting a user input corresponding to the selection of the representation of the captured media;
76. The method of any one of claims 71 to 75, further comprising:
[Item 77]
receiving a request to redisplay the camera user interface while the camera user interface is not displayed;
displaying a second instance of the camera user interface including a second representation of the captured media in response to receiving the request to redisplay the camera user interface;
77. The method of any one of claims 71 to 76, further comprising:
[Item 78]
The representation of the captured media is displayed at a fifth location on the display device, the method comprising:
78. The method of any one of claims 71 to 77, further comprising displaying an affordance for controlling a plurality of camera settings at the fifth location after ceasing to display at least the first portion of the representation of the captured media while maintaining display of the camera user interface.
[Item 79]
Capturing media corresponding to the field of view of the one or more cameras includes capturing a sequence of images;
80. The method of any one of claims 71 to 78, wherein displaying the representation of the captured media comprises playing back at least a portion of the captured sequence of images comprising at least two images.
[Item 80]
80. The method of claim 79, wherein the predetermined period is based on a duration of the captured sequence of images.
[Item 81]
receiving a user input corresponding to a request to display an option for sharing the captured media while displaying the representation of the captured media;
In response to receiving the user input corresponding to the request to display an option for sharing the captured media, displaying a user interface for sharing the captured media;
81. The method of any one of items 71 to 80, further comprising:
[Item 82]
82. The method of claim 81, wherein the user interface for sharing the captured media includes a plurality of options for sharing the captured media.
[Item 83]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs including instructions for performing the method according to any one of items 71 to 82.
[Item 84]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
83. An electronic device comprising:
[Item 85]
1. An electronic device comprising:
A display device;
One or more cameras and means for carrying out the method according to any one of items 71 to 82,
An electronic device comprising:
[Item 86]
1. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs comprising:
displaying, via the display device, a camera user interface including a camera display area including a representation of a field of view of the one or more cameras;
detecting a request to capture media corresponding to the field of view of the one or more cameras while displaying the camera user interface;
responsive to detecting the request to capture media corresponding to the field of view of the one or more cameras, capturing media corresponding to the field of view of the one or more cameras and displaying a representation of the captured media;
While displaying the representation of the captured media, detecting that the representation of the captured media has been displayed for a predetermined period of time;
in response to detecting that the representation of the captured media has been displayed for the predetermined period of time, ceasing to display at least a first portion of the representation of the captured media while maintaining display of the camera user interface.
A non-transitory computer-readable storage medium containing instructions.
[Item 87]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
displaying, via the display device, a camera user interface including a camera display area including a representation of a field of view of the one or more cameras;
detecting a request to capture media corresponding to the field of view of the one or more cameras while displaying the camera user interface;
responsive to detecting the request to capture media corresponding to the field of view of the one or more cameras, capturing media corresponding to the field of view of the one or more cameras and displaying a representation of the captured media;
While displaying the representation of the captured media, detecting that the representation of the captured media has been displayed for a predetermined period of time;
in response to detecting that the representation of the captured media has been displayed for the predetermined period of time, ceasing to display at least a first portion of the representation of the captured media while maintaining display of the camera user interface.
An electronic device that contains instructions.
[Item 88]
1. An electronic device comprising:
A display device;
One or more cameras;
means for displaying a camera user interface via the display device, the camera user interface including a camera display area including a representation of a field of view of the one or more cameras;
means for detecting a request to capture media corresponding to the field of view of the one or more cameras while displaying the camera user interface;
means for capturing media corresponding to the field of view of the one or more cameras and displaying a representation of the captured media in response to detecting the request to capture media corresponding to the field of view of the one or more cameras;
means for detecting, while displaying the representation of the captured media, that the representation of the captured media has been displayed for a predetermined period of time;
means for ceasing displaying at least a first portion of the representation of the captured media while maintaining display of the camera user interface in response to detecting that the representation of the captured media has been displayed for the predetermined period of time;
An electronic device comprising:
[Item 89]
1. A method comprising:
In an electronic device having a display device and one or more cameras,
displaying, via the display device, a camera user interface, the camera user interface including a camera display area including a representation of a field of view of the one or more cameras;
In response to receiving a request to capture media, while the electronic device is configured to capture media in a first aspect ratio, detecting a first input including a first contact at a respective location on the representation of the field of view of the one or more cameras;
In response to detecting the first input,
configuring the electronic device, in response to a request to capture media, to capture media in a second aspect ratio different from the first aspect ratio in accordance with determining that a set of aspect ratio change criteria is satisfied;
the set of aspect ratio change criteria includes criteria that are met when the first input includes maintaining the first contact at a first position corresponding to a predefined portion of the camera display area indicative of at least a portion of a boundary of the media to be captured in response to a request to capture media for at least a threshold amount of time, followed by detecting movement of the first contact to a second position different from the first position;
A method comprising:
[Item 90]
In response to detecting at least a first portion of the first input,
90. The method of claim 89, further comprising providing a first tactile output in accordance with determining that the first portion of the first input includes maintaining the first contact at the first location for at least the threshold amount of time.
[Item 91]
in response to detecting at least a second portion of the first input;
91. The method of claim 89 or 90, further comprising: displaying a visual indication of the boundary of the media to be captured in response to a request to capture media in accordance with a determination that the second portion of the first input includes maintaining the first contact at the first position for at least the threshold amount of time.
[Item 92]
while the visual indication is displayed and in response to detecting at least a third portion of the first input;
92. The method of claim 91, further comprising: in accordance with determining that the third portion of the first input includes movement of the first contact, the movement of the first contact has a first magnitude and a first direction after the first contact is maintained at the first position for the threshold amount of time, and modifying an appearance of the visual indication based on the first magnitude and the first direction.
[Item 93]
In response to detecting at least a first portion of the first input,
93. The method of claim 91 or 92, further comprising: displaying an animation comprising reducing a size of a portion of the representation of the field of view of the one or more cameras indicated by the visual indication in accordance with a determination that the first portion of the first input comprises maintaining the first contact at the first position for at least the threshold amount of time.
[Item 94]
while the visual indication is displayed and in response to detecting at least a fourth portion of the first input,
94. The method of any one of claims 91 to 93, further comprising: displaying an animation including increasing a size of a portion of the representation of the field of view of the one or more cameras indicated by the visual indication in accordance with a determination that the fourth portion of the first input includes lift-off of the first contact.
[Item 95]
a first portion of the representation of the field of view of the one or more cameras is indicated as selected by the visual indication of the boundary of the media, and a second portion of the representation of the field of view of the one or more cameras is not indicated as selected by the visual indication of the boundary of the media;
95. The method of any one of claims 91 to 94, wherein the second portion is visually distinct from the first portion.
[Item 96]
Configuring the electronic device to capture media in a second aspect ratio includes:
configuring the electronic device to capture media at a predetermined aspect ratio according to the movement of the first contact to the second position having a first magnitude and/or direction of movement within a first range of movement;
configuring the electronic device to capture media in accordance with the movement of the first contact to the second location having a second magnitude and/or direction of movement that is not within the first range of movement, with an aspect ratio that is not predetermined and based on the second magnitude and/or direction of movement;
96. The method according to any one of items 90 to 95, comprising:
[Item 97]
97. The method of claim 96, wherein configuring the electronic device to capture media in the predetermined aspect ratio includes generating a second tactile output via one or more tactile output devices.
[Item 98]
Prior to detecting the first input, the electronic device is configured to capture media using a first camera mode, and the method includes:
In response to detecting the first input,
98. The method of any one of claims 89 to 97, further comprising configuring the electronic device to capture media using a second camera mode different from the first camera mode in accordance with a determination that the first input does not include maintaining the first contact at the first position for the threshold amount of time and a determination that the first input includes movement of the first contact above a first movement threshold.
[Item 99]
The camera user interface further includes an indication that the electronic device is configured to operate in a first media capture mode, the method comprising:
according to detecting a fourth input, the fourth input including detecting continuous movement of a fourth contact in a second direction on the camera display area;
99. The method of any one of claims 89 to 98, further comprising displaying a control for adjusting a characteristic associated with the media capture operation.
[Item 100]
In response to detecting the first input,
100. The method of any one of claims 89 to 99, further comprising: adjusting a focus setting, comprising configuring the electronic device to capture media with a focus setting based on content at a position within the field of view of the one or more cameras corresponding to the first position, in accordance with a determination that the first input comprises detecting the first contact at the first position for less than the threshold amount of time.
[Item 101]
In response to detecting the first input,
101. The method of any one of claims 89 to 100, further comprising: configuring the electronic device to capture media with a first exposure setting based on content at a position within the field of view of the one or more cameras corresponding to the third position in accordance with a determination that the first input includes maintaining the first contact for a second threshold amount of time at a third position that does not correspond to a predetermined portion of the camera display area indicating at least the portion of the boundary of the media to be captured in response to the request to capture media.
[Item 102]
detecting a change in the representation of the field of view of the one or more cameras that causes the content at the location in the field of view of the one or more cameras that corresponds to the third location to no longer be present within the field of view of the one or more cameras after configuring the electronic device to capture media with the first exposure setting based on content at the location in the field of view of the one or more cameras that corresponds to the third location;
responsive to detecting the change, continuing to configure the electronic device to capture media at the first exposure setting;
102. The method of claim 101, further comprising:
[Item 103]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs including instructions for performing the method according to any one of items 89 to 102.
[Item 104]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
103. An electronic device comprising:
[Item 105]
1. An electronic device comprising:
A display device;
One or more cameras and means for carrying out the method according to any one of items 89 to 102;
An electronic device comprising:
[Item 106]
1. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs comprising:
displaying, via the display device, a camera user interface including a camera display area including a representation of a field of view of the one or more cameras;
In response to receiving a request to capture media, while the electronic device is configured to capture media in a first aspect ratio, detect a first input including a first contact at a respective location on the representation of the field of view of the one or more cameras;
In response to detecting the first input,
instructions for configuring the electronic device in response to a request to capture media to capture media in a second aspect ratio different from the first aspect ratio in accordance with a determination that a set of aspect ratio change criteria is satisfied;
a first input for detecting a first aspect ratio change criterion for at least a threshold amount of time, the first input including: maintaining the first contact at a first position corresponding to a predetermined portion of the camera display area indicative of at least a portion of a boundary of the media to be captured in response to a request to capture media for at least a threshold amount of time, followed by detecting movement of the first contact to a second position different from the first position.
[Item 107]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
displaying, via the display device, a camera user interface including a camera display area including a representation of a field of view of the one or more cameras;
In response to receiving a request to capture media, while the electronic device is configured to capture media in a first aspect ratio, detect a first input including a first contact at a respective location on the representation of the field of view of the one or more cameras;
In response to detecting the first input,
instructions for configuring the electronic device in response to a request to capture media to capture media in a second aspect ratio different from the first aspect ratio in accordance with a determination that a set of aspect ratio change criteria is satisfied;
the set of aspect ratio change criteria includes criteria that are met when the first input includes maintaining the first contact at a first position corresponding to a predetermined portion of the camera display area indicative of at least a portion of a boundary of the media to be captured in response to a request to capture media for at least a threshold amount of time, followed by detecting movement of the first contact to a second position different from the first position.
[Item 108]
1. An electronic device comprising:
A display device;
One or more cameras;
means for displaying a camera user interface via the display device, the camera user interface including a camera display area including a representation of a field of view of the one or more cameras;
means for detecting a first input comprising a first contact at a respective location on the representation of the field of view of the one or more cameras while the electronic device is configured to capture media in a first aspect ratio in response to receiving a request to capture media;
In response to detecting the first input,
means for configuring the electronic device, in response to a request to capture media, to capture media in a second aspect ratio different from the first aspect ratio, in accordance with a determination that a set of aspect ratio change criteria is satisfied;
the set of aspect ratio change criteria includes criteria that are met when the first input includes maintaining the first contact at a first position corresponding to a predefined portion of the camera display area indicative of at least a portion of a boundary of the media to be captured in response to a request to capture media for at least a threshold amount of time, followed by detecting movement of the first contact to a second position different from the first position;
An electronic device comprising:
[Item 109]
1. A method comprising:
An electronic device comprising a display device and one or more cameras,
displaying, via the display device while the electronic device is in a first orientation, a first camera user interface for capturing media in a first camera orientation at a first zoom level;
Detecting a change in an orientation of the electronic device from the first orientation to a second orientation;
in response to detecting a change in an orientation of the electronic device from the first orientation to a second orientation,
and displaying a second camera user interface that captures media in a second camera orientation at a second zoom level different from the first zoom level automatically without user input pursuant to a determination that a set of auto-zoom criteria is satisfied.
[Item 110]
Displaying a media capture affordance; and
Detecting a first input corresponding to the media capture affordance;
In response to detecting the first input,
capturing media at the first zoom level in accordance with a determination that the first input is detected while the first camera user interface is displayed;
capturing media at the second zoom level in accordance with a determination that the first input is detected while the second camera user interface is displayed; and
110. The method of claim 109, further comprising:
[Item 111]
displaying the first camera user interface includes displaying a first representation of a field of view of the one or more cameras;
the first representation is displayed at the first zoom level and in the first camera orientation;
displaying the second camera user interface includes displaying a second representation of the field of view of the one or more cameras;
Item 111. The method of item 109 or 110, wherein the second representation is displayed at the second zoom level and in the second camera orientation.
[Item 112]
Item 112. The method of item 111, wherein the first orientation is portrait and the first representation is a portion of the field of view of the one or more cameras, and the second orientation is landscape and the second representation is the entire field of view of the one or more cameras.
[Item 113]
receiving a request to change the first zoom level to a third zoom level while displaying the first representation of the field of view of the one or more cameras;
in response to receiving the request to change the first zoom level to the third zoom level, replacing the display of the first representation with a third representation of the field of view of the one or more cameras, the third representation being in the orientation of the first camera and at the third zoom level;
113. The method of claim 111 or 112, further comprising:
[Item 114]
displaying a zoom toggle affordance while displaying the first representation of the field of view of the one or more cameras;
detecting a second input corresponding to a selection of the zoom toggle affordance, the selection of the zoom toggle affordance being in response to a request to change the first zoom level to a fourth zoom level;
in response to detecting the second input, replacing the display of the first representation with a fourth representation of the field of view of the one or more cameras, the fourth representation being an orientation of the first camera and at the fourth zoom level;
114. The method of any one of claims 111 to 113, further comprising:
[Item 115]
Item 115. The method of item 114, wherein the zoom toggle affordance is displayed in the first camera user interface and the second camera user interface.
[Item 116]
receiving a request to change the first zoom level to a third zoom level while displaying the first representation of the field of view of the one or more cameras;
in response to receiving the request to change the first zoom level to the third zoom level,
replacing the display of the first representation with a fifth representation of the field of view of the one or more cameras, the fifth representation being at the first camera orientation and at the third zoom level; and
116. The method of any one of claims 111 to 115, further comprising:
[Item 117]
the one or more cameras include a first camera and a second camera separate from the first camera;
17. The method of claim 109, wherein the set of automatic zoom criteria includes criteria that are met when the electronic device is displaying, in the first camera user interface, a representation of the field of view of the first camera and is not displaying a representation of the field of view of the second camera.
[Item 118]
118. The method of any one of claims 109 to 117, wherein the set of auto-zoom criteria includes criteria that are satisfied when the electronic device is not in a video capture operational mode.
[Item 119]
119. The method of claim 109, wherein the set of auto-zoom criteria includes criteria that are met when the electronic device is configured to capture video of a live communication session.
[Item 120]
The first zoom level is greater than the second zoom level, and the method includes:
detecting a change in an orientation of the electronic device from the second orientation to the first orientation while displaying the second camera user interface;
displaying, on the display device, the first camera user interface in response to detecting the change in orientation of the electronic device from the second orientation to the first orientation;
120. The method of any one of claims 109 to 119, further comprising:
[Item 121]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs including instructions for performing the method according to any one of items 109 to 120.
[Item 122]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
121. An electronic device comprising:
[Item 123]
1. An electronic device comprising:
A display device;
One or more cameras and means for carrying out the method according to any one of items 109 to 120;
An electronic device comprising:
[Item 124]
1. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device having a display device and a camera, the one or more programs comprising:
displaying, via the display device, a first camera user interface for capturing media in a first camera orientation at a first zoom level while the electronic device is in a first orientation;
Detecting a change in an orientation of the electronic device from the first orientation to a second orientation;
in response to detecting a change in an orientation of the electronic device from the first orientation to a second orientation,
displaying a second camera user interface that captures media at a second camera orientation at a second zoom level different from the first zoom level automatically without user input pursuant to a determination that a set of auto-zoom criteria is satisfied;
A non-transitory computer-readable storage medium containing instructions.
[Item 125]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
displaying, via the display device, a first camera user interface for capturing media in a first camera orientation at a first zoom level while the electronic device is in a first orientation;
Detecting a change in an orientation of the electronic device from the first orientation to a second orientation;
in response to detecting a change in an orientation of the electronic device from the first orientation to a second orientation,
displaying a second camera user interface that captures media at a second camera orientation at a second zoom level different from the first zoom level automatically without user input pursuant to a determination that a set of auto-zoom criteria is satisfied;
An electronic device that contains instructions.
[Item 126]
1. An electronic device comprising:
A display device;
One or more cameras;
means for displaying, via the display device while the electronic device is in a first orientation, a first camera user interface for capturing media in a first camera orientation at a first zoom level;
means for detecting a change in an orientation of the electronic device from the first orientation to a second orientation;
in response to detecting a change in an orientation of the electronic device from the first orientation to a second orientation,
means for automatically, without user input, displaying a second camera user interface that captures media at a second zoom level and a second camera orientation, the second zoom level being different from the first zoom level, pursuant to a determination that a set of auto-zoom criteria is satisfied;
An electronic device comprising:
[Item 127]
1. A method comprising:
An electronic device comprising a display device and one or more cameras,
displaying, via the display device, a media capture user interface including displaying a representation of a field of view of the one or more cameras;
detecting, via the one or more cameras, a change in the field of view of the one or more cameras while displaying the media capture user interface;
in response to detecting the change in the field of view of the one or more cameras and in accordance with a determination that a variable frame rate criterion is satisfied, the criterion being satisfied when ambient light in the field of view of the one or more cameras falls below a first threshold;
updating the representation of the field of view of the one or more cameras based on the detected change in the field of view of the one or more cameras at a first frame rate in accordance with a determination that the detected change in the field of view of the one or more cameras satisfies a movement criterion, wherein the updating of the live preview occurs at a first frame rate when the detected change in the field of view of the one or more cameras satisfies a movement criterion, and the representation of the field of view of the one or more cameras updated based on the detected change in the field of view of the one or more cameras at the first frame rate is displayed on the display device at a first luminance;
updating the representation of the field of view of the one or more cameras based on the detected change in the field of view of the one or more cameras at a second frame rate lower than the first frame rate in accordance with a determination that the detected change in the field of view of the one or more cameras does not satisfy the movement criterion, wherein the updating of the live preview occurs at a second frame rate when the detected change in the field of view of the one or more cameras does not satisfy the movement criterion, and the representation of the field of view of the one or more cameras updated based on the detected change in the field of view of the one or more cameras at the second frame rate lower than the first frame rate is displayed on the display device at a second luminance that is visually brighter than the first luminance;
A method comprising:
[Item 128]
Prior to detecting the change in the field of view of the one or more cameras, the representation of the field of view of the one or more cameras is updated at a third frame rate, the method comprising:
128. The method of claim 127, further comprising maintaining the updating of the representation of the field of view of the one or more cameras at the third frame rate in response to detecting the change in the field of view of the one or more cameras and in accordance with a determination that the variable frame rate criterion is not satisfied.
[Item 129]
130. The method of claim 128, wherein the variable frame rate criteria include a criteria that is met when a flash mode is inactive.
[Item 130]
Displaying the media capture user interface includes:
displaying an indication that a variable frame rate mode is active in response to determining that the variable frame rate criterion is satisfied; and
displaying the media capture user interface without the indication that the variable frame rate mode is active in accordance with a determination that the variable frame rate criterion has not been met;
130. The method according to any one of items 127 to 129, comprising:
[Item 131]
(cancel).
[Item 132]
131. The method of any one of claims 127 to 130, wherein the second frame rate is based on an amount of ambient light in the field of view of the one or more cameras that is below a respective threshold.
[Item 133]
133. The method of any one of claims 127 to 130 and 132, wherein the detected change includes detected movement and the second frame rate is based on an amount of the detected movement.
[Item 134]
134. The method of any one of items 127 to 130 and 132 to 133, wherein the movement criteria include a criterion that is met when the detected change in the field of view of the one or more cameras corresponds to a movement of the electronic device that is greater than a movement threshold.
[Item 135]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs including instructions for performing the method according to any one of items 127 to 130 and 132 to 134.
[Item 136]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
132. An electronic device comprising:
[Item 137]
1. An electronic device comprising:
A display device;
One or more cameras;
Means for carrying out the method according to any one of items 127 to 130 and 132 to 134;
An electronic device comprising:
[Item 138]
1. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs comprising:
displaying, via the display device, a media capture user interface including displaying a representation of a field of view of the one or more cameras;
detecting, via the one or more cameras, a change in the field of view of the one or more cameras while displaying the media capture user interface;
in response to detecting the change in the field of view of the one or more cameras and in accordance with a determination that a variable frame rate criterion is satisfied, the criterion being satisfied when ambient light in the field of view of the one or more cameras falls below a first threshold;
updating the representation of the field of view of the one or more cameras based on the detected change in the field of view of the one or more cameras at a first frame rate in accordance with a determination that the detected change in the field of view of the one or more cameras satisfies a movement criterion, the updating of the live preview occurs at a first frame rate when the detected change in the field of view of the one or more cameras satisfies a movement criterion, and the representation of the field of view of the one or more cameras that is updated based on the detected change in the field of view of the one or more cameras at the first frame rate is displayed on the display device at a first luminance;
updating the representation of the field of view of the one or more cameras based on the detected change in the field of view of the one or more cameras at a second frame rate lower than the first frame rate pursuant to a determination that the detected change in the field of view of the one or more cameras does not satisfy the movement criterion, wherein the updating of the live preview occurs at a second frame rate when the detected change in the field of view of the one or more cameras does not satisfy the movement criterion, and the representation of the field of view of the one or more cameras that is updated based on the detected change in the field of view of the one or more cameras at the second frame rate lower than the first frame rate is displayed on the display device at a second luminance that is visually brighter than the first luminance.
A non-transitory computer-readable storage medium containing instructions.
[Item 139]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
displaying, via the display device, a media capture user interface including displaying a representation of a field of view of the one or more cameras;
detecting, via the one or more cameras, a change in the field of view of the one or more cameras while displaying the media capture user interface;
in response to detecting the change in the field of view of the one or more cameras and in accordance with a determination that a variable frame rate criterion is satisfied, the criterion being satisfied when ambient light in the field of view of the one or more cameras falls below a first threshold;
updating the representation of the field of view of the one or more cameras based on the detected change in the field of view of the one or more cameras at a first frame rate in accordance with a determination that the detected change in the field of view of the one or more cameras satisfies a movement criterion, the updating of the live preview occurs at a first frame rate when the detected change in the field of view of the one or more cameras satisfies a movement criterion, and the representation of the field of view of the one or more cameras that is updated based on the detected change in the field of view of the one or more cameras at the first frame rate is displayed on the display device at a first luminance;
updating the representation of the field of view of the one or more cameras based on the detected change in the field of view of the one or more cameras at a second frame rate lower than the first frame rate pursuant to a determination that the detected change in the field of view of the one or more cameras does not satisfy the movement criterion, wherein the updating of the live preview occurs at a second frame rate when the detected change in the field of view of the one or more cameras does not satisfy the movement criterion, and the representation of the field of view of the one or more cameras that is updated based on the detected change in the field of view of the one or more cameras at the second frame rate lower than the first frame rate is displayed on the display device at a second luminance that is visually brighter than the first luminance.
An electronic device that contains instructions.
[Item 140]
1. An electronic device comprising:
A display device;
One or more cameras;
means for displaying, via the display device, a media capture user interface that includes displaying a representation of a field of view of the one or more cameras;
means for detecting, via the one or more cameras, a change in the field of view of the one or more cameras while displaying the media capture user interface;
in response to detecting the change in the field of view of the one or more cameras and in accordance with a determination that a variable frame rate criterion is satisfied, the criterion being satisfied when ambient light in the field of view of the one or more cameras falls below a first threshold;
updating the representation of the field of view of the one or more cameras based on the detected change in the field of view of the one or more cameras at a first frame rate in accordance with a determination that the detected change in the field of view of the one or more cameras satisfies a movement criterion, the updating of the live preview occurs at a first frame rate when the detected change in the field of view of the one or more cameras satisfies a movement criterion, and the representation of the field of view of the one or more cameras that is updated based on the detected change in the field of view of the one or more cameras at the first frame rate is displayed on the display device at a first luminance;
updating the representation of the field of view of the one or more cameras based on the detected change in the field of view of the one or more cameras at a second frame rate lower than the first frame rate pursuant to a determination that the detected change in the field of view of the one or more cameras does not satisfy the movement criterion, wherein the updating of the live preview occurs at a second frame rate when the detected change in the field of view of the one or more cameras does not satisfy the movement criterion, and the representation of the field of view of the one or more cameras that is updated based on the detected change in the field of view of the one or more cameras at the second frame rate lower than the first frame rate is displayed on the display device at a second luminance that is visually brighter than the first luminance.
Means,
An electronic device comprising:
[Item 141]
1. A method comprising:
In an electronic device having a display device and one or more cameras,
Receiving a request to display a camera user interface;
displaying, via the display device, a camera user interface in response to receiving the request to display the camera user interface;
displaying via said display device a representation of a field of view of said one or more cameras;
displaying, in response to a determination that a low light condition is satisfied, including a condition that is satisfied when ambient light in the field of view of the one or more cameras falls below a respective threshold, a control for adjusting a capture duration for capturing media in response to a request to capture media, concurrently with the representation of the field of view of the one or more cameras;
ceasing to display the control for adjusting the capture duration in accordance with a determination that the low light condition was not met; and
and
A method comprising:
[Item 142]
obtaining an indication that a low light condition is no longer met while displaying the control that adjusts the capture duration; and
responsive to obtaining the indication, ceasing to display, via the display device, the control for adjusting the capture duration; and
Item 142. The method of item 141, further comprising:
[Item 143]
obtaining an indication that a low light condition has been met while displaying the representation of the field of view of the one or more cameras without simultaneously displaying the control for adjusting the capture duration;
responsive to obtaining the indication, displaying the control for adjusting the capture duration concurrently with the representation of the field of view of the one or more cameras;
143. The method of claim 141 or 142, further comprising:
[Item 144]
Item 144. The method of any one of items 141 to 143, wherein the low light conditions include conditions that are met when a flash mode is inactive.
[Item 145]
145. The method of any one of claims 141 to 144, wherein the control for adjusting the capture duration is a slider.
[Item 146]
Displaying the camera user interface includes:
146. The method of any one of claims 141 to 145, comprising displaying, simultaneously with the representation of the field of view of the one or more cameras, a media capture affordance that, when selected, initiates the capture of media using the one or more cameras.
[Item 147]
displaying a first indication of a first capture duration while displaying the control that adjusts the capture duration;
in response to receiving a request to adjust the control to adjust the capture duration from the first capture duration to a second capture duration, replacing a display of the first indication of the first capture duration with a display of a second indication of the second capture duration;
Item 147. The method of item 146, further comprising:
[Item 148]
The representation of the field of view of the one or more cameras is a first representation of the field of view of the one or more cameras, and the method further comprises:
in response to receiving the request to adjust the control to adjust the capture duration from the first capture duration to the second capture duration.
148. The method of claim 147, further comprising replacing the display of the first representation with a second representation of the field of view of the one or more cameras, the second representation being based on the second capture duration and being visually distinct from the first representation.
[Item 149]
receiving a request to capture media while displaying the second indication of the second capture duration;
In response to receiving the request to capture media and in accordance with a determination that the second capture duration corresponds to a predefined capture duration that deactivates a low-light capture mode, initiating capture of media via the one or more cameras based on a duration different from the second capture duration;
149. The method of claim 147 or 148, further comprising:
[Item 150]
receiving a request to capture media while displaying the second indication of the second capture duration;
In response to receiving the request to capture media, initiating capture of media via the one or more cameras based on the second capture duration;
149. The method of claim 147 or 148, further comprising:
[Item 151]
151. The method of claim 150, further comprising ceasing to display the representation of the field of view of the one or more cameras in response to receiving the request to capture media.
[Item 152]
The control for adjusting the capture duration is displayed in a first color, and the method further comprises:
Item 152. The method of item 150 or 151, further comprising, in response to receiving the request to capture media, displaying the control for adjusting the capture duration in a second color different from the first color.
[Item 153]
displaying a first animation in response to receiving the request to capture media, the first animation moving a third indication of a third capture value to the second indication of the second capture duration;
displaying, after displaying the first animation, a second animation moving the second indication of the second capture duration to the third indication of the third capture value, the duration of the second animation corresponding to a duration of the second capture duration and different from a duration of the first animation;
153. The method of any one of claims 150 to 152, further comprising:
[Item 154]
providing a first tactile output while displaying the first animation; and
providing a second tactile output while displaying the second animation; and
Item 154. The method of item 153, further comprising:
[Item 155]
155. The method of claim 150, further comprising, after initiating capture of the media, capturing the media based on the second capture duration.
[Item 156]
The media is a first media captured based on the second capture duration, and the method further comprises:
receiving a request to capture a second media based on the second capture duration after capturing the first media;
in response to receiving the request to capture second media based on the second capture duration, initiating capture of the second media based on the second capture duration;
receiving a request to end capture of the second media before the second capture duration has elapsed after initiating capture of the second media based on the second capture duration;
In response to receiving the request to end capture of the second media,
terminating the capture of the second media based on the second capture duration; and
displaying a representation of the second media captured prior to receiving the request to terminate capture of the second media based on visual information captured by the one or more cameras prior to receiving the request to terminate capture of the second media; and
Item 156. The method of item 155, further comprising:
[Item 157]
The media is a first media captured based on the second capture duration, and the method further comprises:
receiving a request to capture a third media based on the second capture duration after capturing the first media;
in response to receiving the request to capture a third media based on the second capture duration, initiating capture of the third media based on the second capture duration;
after initiating capture of the third media based on the second capture duration;
in response to a determination that the detected change in the field of view of the one or more cameras exceeds a movement criterion;
terminating the capture of the third media; and
displaying a representation of the third media captured prior to receiving the request to terminate capture of the second media based on visual information captured by the one or more cameras prior to receiving the request to terminate capture of the second media; and
157. The method of claim 155 or 156, further comprising:
[Item 158]
168. The method of any one of claims 155 to 167, further comprising, in response to receiving the request to capture media, replacing the display of the affordance requesting to capture media with a display of an affordance to terminate capturing of media.
[Item 159]
displaying a first representation of the first media captured at a first capture time after initiating capture of the media;
after displaying the first representation of the first media, replacing the display of the first representation of the first media with a display of a second representation of the first media captured at a second capture time after the first capture time, the second representation being visually distinct from the first representation of the first media;
159. The method of any one of claims 155 to 158, further comprising:
[Item 160]
160. The method of claim 159, wherein the replacing of the display of the first representation of the first media with the display of the second representation of the first media occurs after a predetermined period of time.
[Item 161]
displaying the camera user interface includes displaying a low light capture status indicator indicating that a low light capture mode status is active simultaneously with the control for adjusting a capture duration pursuant to a determination that a low light condition is met;
The method comprises:
receiving a first selection of the low light capture status indicator while displaying the low light capture status indicator;
In response to receiving a first selection of the low light capture indicator,
ceasing to display the control for adjusting the capture duration while maintaining display of the low light capture status indicator;
updating an appearance of the low light capture status indicator to indicate that the status of the low light capture mode is inactive; and
161. The method according to any one of items 141 to 160, comprising:
[Item 162]
displaying the camera user interface includes receiving a second selection of the low light capture status indicator while displaying the low light capture status indicator indicating that the low light capture mode is inactive pursuant to determining that a low light condition is met;
The method comprises:
162. The method of claim 161, comprising redisplaying the control that adjusts the capture duration in response to receiving the second selection of the low light capture status indicator.
[Item 163]
162. The method of claim 161, comprising configuring the electronic device to not perform a flash operation in response to receiving the first selection of the low light capture status indicator.
[Item 164]
Item 164. The method of any one of items 161 to 163, wherein the low light condition comprises a condition that is met when the low light capture status indicator is selected.
[Item 165]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs including instructions for performing the method according to any one of items 141 to 164.
[Item 166]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
165. An electronic device comprising:
[Item 167]
1. An electronic device comprising:
A display device;
One or more cameras and means for carrying out the method according to any one of items 141 to 164;
An electronic device comprising:
[Item 168]
1. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs comprising:
receiving a request to display a camera user interface;
responsive to receiving the request to display the camera user interface, displaying a camera user interface via the display device, the displaying of the camera user interface comprising:
displaying via said display device a representation of a field of view of said one or more cameras;
displaying, in response to a determination that a low light condition is satisfied, including a condition that is satisfied when ambient light in the field of view of the one or more cameras falls below a respective threshold, a control for adjusting a capture duration for capturing media in response to a request to capture media, contemporaneously with the representation of the field of view of the one or more cameras;
ceasing to display the control for adjusting the capture duration in accordance with a determination that the low light condition was not met; and
A non-transitory computer readable storage medium comprising:
[Item 169]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
receiving a request to display a camera user interface;
responsive to receiving the request to display the camera user interface, displaying a camera user interface via the display device, the displaying of the camera user interface comprising:
displaying via said display device a representation of a field of view of said one or more cameras;
displaying, in response to a determination that a low light condition is satisfied, including a condition that is satisfied when ambient light in the field of view of the one or more cameras falls below a respective threshold, a control for adjusting a capture duration for capturing media in response to a request to capture media, contemporaneously with the representation of the field of view of the one or more cameras;
ceasing to display the control for adjusting the capture duration in accordance with a determination that the low light condition was not met; and
2. An electronic device comprising:
[Item 170]
1. An electronic device comprising:
A display device;
One or more cameras;
means for receiving a request to display a camera user interface;
means for displaying, via the display device, a camera user interface in response to receiving the request to display the camera user interface, the means comprising:
displaying via said display device a representation of a field of view of said one or more cameras;
displaying, in response to a determination that a low light condition is satisfied, including a condition that is satisfied when ambient light in the field of view of the one or more cameras falls below a respective threshold, a control for adjusting a capture duration for capturing media in response to a request to capture media, contemporaneously with the representation of the field of view of the one or more cameras;
ceasing to display the control for adjusting the capture duration in accordance with a determination that the low light condition was not met; and
and
An electronic device comprising:
[Item 171]
1. A method comprising:
In an electronic device having a display device and one or more cameras,
displaying a camera user interface via the display device;
detecting, while displaying the camera user interface, an amount of light within a field of view of the one or more cameras via one or more sensors of the electronic device;
in response to detecting the amount of light within the field of view of the one or more cameras,
in response to a determination that the amount of light within the field of view of the one or more cameras satisfies a low light environment criterion, the criterion being met when the amount of light within the field of view of the one or more cameras is below a predetermined threshold, within the camera user interface:
a flash status indicator that indicates the status of a flash operation;
a low light capture status indicator that indicates the status of the low light capture mode;
and
ceasing to display the low light capture status indicator in the camera user interface in accordance with a determination that the amount of light within the field of view of the one or more cameras does not meet the low light environment criterion;
A method comprising:
[Item 172]
pursuant to a determination that flash operation criteria are met, including criteria that are met when the amount of light within the field of view of the one or more cameras meets a low light environment criterion and a flash setting is set to automatically determine whether the flash operation is set to active or inactive;
the flash status indicator indicates that the status of the flash operation is active;
172. The method of claim 171, wherein the low light capture indicator indicates that the state of the low light capture mode is inactive.
[Item 173]
while the amount of light within the field of view of the one or more cameras meets a low light environment criterion;
in response to determining that the amount of light within the field of view of the one or more cameras is within a first predetermined range and a flash setting is set to active;
the flash status indicator indicates that the status of the flash operation is active;
the low light capture indicator indicates that the state of the low light capture mode is inactive;
in response to determining that the amount of light within the field of view of the one or more cameras is within the first predetermined range and the flash setting is not set to active;
the flash state indicator indicates that the state of the flash operation is inactive;
Item 173. The method of item 171 or 172, wherein the low light capture indicator indicates that the state of the low light capture mode is active.
[Item 174]
while the amount of light within the field of view of the one or more cameras meets a low light environment criterion;
in response to determining that the amount of light within the field of view of the one or more cameras is within a second predetermined range different from the first predetermined range and the flash setting is set to inactive;
the flash state indicator indicates that the state of the flash operation is inactive;
the low light capture indicator indicates that the state of the low light capture mode is active;
in response to determining that the amount of light within the field of view of the one or more cameras is within the second predetermined range that is different from the first predetermined range and the flash setting is not set to inactive;
the flash status indicator indicates that the status of the flash operation is active;
174. The method of claim 173, wherein the low light capture indicator indicates that the state of the low light capture mode is inactive.
[Item 175]
receiving a selection of the flash state indicator while the flash state indicator is displayed and indicates that the state of the flash operation is active and the low light capture indicator is displayed and indicates that the state of the low light capture mode is inactive;
in response to receiving the selection of the flash state indicator,
updating the flash status indicator to indicate that the status of the flash operation is inactive; and
updating the low light capture indicator to indicate that the state of the low light capture mode is active; and
175. The method of any one of claims 171 to 174, further comprising:
[Item 176]
receiving a selection of the low light capture status indicator while the flash status indicator is displayed and indicates that the status of the flash operation is active and the low light capture indicator is displayed and indicates that the status of the low light capture mode is inactive;
in response to receiving the selection of the low light capture status indicator,
updating the flash status indicator to indicate that the status of the flash operation is inactive; and
updating the low light capture status indicator to indicate that the status of the low light capture mode is active; and
176. The method of any one of claims 171 to 175, further comprising:
[Item 177]
177. The method of any one of claims 171 to 176, further comprising displaying a control for adjusting a capture duration in accordance with a determination that the state of the low light capture mode is active.
[Item 178]
receiving a request to change the control from a first capture duration to a second capture duration while displaying the control that adjusts the capture duration;
in response to receiving the request to change the control from the first capture duration to the second capture duration;
updating the low-light capture status indicator to indicate that the status of the low-light capture mode is inactive according to determining that the second capture duration is a predetermined capture duration that deactivates a low-light capture mode;
178. The method of claim 177, further comprising:
[Item 179]
detecting a change in a state of a low light capture mode while displaying the control that adjusts the capture duration;
in response to detecting the change in state of the low light capture mode,
ceasing to display the control that adjusts the capture duration in accordance with determining that the state of a low light capture mode is inactive; and
178. The method of claim 177, further comprising:
[Item 180]
displaying within the camera user interface a first representation of the field of view of the one or more cameras;
receiving a request to capture a first media in the field of view of the one or more cameras while the low light capture mode state is active;
in response to receiving the request to capture a first media while the low light capture mode is active,
initiating capture of the first media;
maintaining the display of the first representation of the field of view of the one or more cameras for a duration of the capture of the first media;
179. The method of any one of claims 171 to 179, further comprising:
[Item 181]
receiving a request to capture a second media in the field of view of the one or more cameras while the low light capture mode state is active;
in response to receiving the request to capture a second media while the low light capture mode state is active, initiating capture of the second media;
simultaneously displaying within the camera user interface a representation of the second media while capturing the second media;
181. The method of any one of claims 171 to 180, further comprising:
[Item 182]
displaying within the camera user interface a second representation of the field of view of the one or more cameras; and
receiving a request to capture a third media in the field of view of the one or more cameras while the low light capture mode state is active;
initiating capture of the third media in response to receiving the request to capture the third media while the state of the low light capture mode is active;
ceasing to display representations derived from the field of view of the one or more cameras in the camera user interface while capturing the third media; and
182. The method of any one of claims 171 to 181, further comprising:
[Item 183]
183. The method of any one of claims 171 to 182, further comprising displaying, in the camera user interface, a flash status indicator indicating the status of the flash operation in accordance with a determination that the amount of light within the field of view of the one or more cameras does not meet the low light environment criterion.
[Item 184]
184. The method of any one of claims 171 to 183, wherein the state of flash operation and the state of the low light capture mode are mutually exclusive.
[Item 185]
185. The method of any one of claims 171 to 184, wherein the state of the low light capture mode is selected from the group consisting of an active state, an available state, and an inactive state.
[Item 186]
while the amount of light within the field of view of the one or more cameras meets a low light environment criterion;
186. The method of any one of items 171 or 172 and 174 to 185, wherein in accordance with a determination that the amount of light within the field of view of the one or more cameras is within a third predetermined range, the flash status indicator indicates that the status of the flash operation is available.
[Item 187]
The control for adjusting the capture duration is a first control for adjusting the capture duration, and the method further comprises:
receiving a selection of the low light capture status indicator while the flash status indicator indicates that the status of the flash operation is available;
in response to receiving a selection of the low light capture status indicator,
updating the low light capture status indicator to indicate that the status of the low light capture mode is active; and
displaying a second control for adjusting the capture duration; and
187. The method of claim 186, further comprising:
[Item 188]
In response to determining that ambient light within the field of view of the one or more cameras is within a fourth predetermined range, a first low light capture status indicator includes a first visual representation of the first capture duration;
188. The method of any one of claims 171 to 187, wherein in accordance with a determination that ambient light within the field of view of the one or more cameras is not within the fourth predetermined range, the first low light capture status indicator does not include the first visual representation of the first capture duration.
[Item 189]
In response to detecting the amount of light within the field of view of the one or more cameras, in accordance with the determination that the amount of light within the field of view of the one or more cameras satisfies a low light environment criterion,
pursuant to determining that ambient light within the field of view of the one or more cameras is within a third predetermined range, the low light capture status indicator indicates that the low light capture mode status is active and includes a second visual representation of the first capture duration;
pursuant to determining that ambient light within the field of view of the one or more cameras is within a fourth predetermined range, the low light capture status indicator indicates that the state of the low light capture mode is active and does not include the second visual representation of the first capture duration;
pursuant to a determination that ambient light within the field of view of the one or more cameras is within a fifth predetermined range, the low light capture status indicator indicates that the low light capture mode state is available, indicates that the low light capture mode state is active and includes the second visual representation of the first capture duration, the low light capture status indicator indicates that the low light capture mode state is active and does not include the second visual representation of the first capture duration, and the low light capture status indicator indicates that the low light capture mode state is available are visually distinct from one another.
189. The method of any one of claims 171 to 188, further comprising:
[Item 190]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs including instructions for performing the method according to any one of items 171 to 189.
[Item 191]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
190. An electronic device comprising:
[Item 192]
1. An electronic device comprising:
A display device;
One or more cameras and means for performing the method according to any one of items 171 to 189;
An electronic device comprising:
[Item 193]
1. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs comprising:
Displaying a camera user interface via the display device;
detecting, via one or more sensors of the electronic device, an amount of light within a field of view of the one or more cameras while displaying the camera user interface;
in response to detecting the amount of light within the field of view of the one or more cameras,
in response to a determination that the amount of light within the field of view of the one or more cameras satisfies a low light environment criterion, the criterion being met when the amount of light within the field of view of the one or more cameras is below a predetermined threshold, within the camera user interface:
a flash status indicator that indicates the status of a flash operation;
a low light capture status indicator that indicates the status of the low light capture mode;
simultaneously,
ceasing to display the low light capture status indicator in the camera user interface in response to a determination that the amount of light within the field of view of the one or more cameras does not meet the low light environment criterion.
A non-transitory computer-readable storage medium containing instructions.
[Item 194]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
Displaying a camera user interface via the display device;
detecting, via one or more sensors of the electronic device, an amount of light within a field of view of the one or more cameras while displaying the camera user interface;
in response to detecting the amount of light within the field of view of the one or more cameras,
in response to a determination that the amount of light within the field of view of the one or more cameras satisfies a low light environment criterion, the criterion being met when the amount of light within the field of view of the one or more cameras is below a predetermined threshold, within the camera user interface:
a flash status indicator that indicates the status of a flash operation;
a low light capture status indicator that indicates the status of the low light capture mode;
simultaneously,
ceasing to display the low light capture status indicator in the camera user interface in response to a determination that the amount of light within the field of view of the one or more cameras does not meet the low light environment criterion.
An electronic device that contains instructions.
[Item 195]
1. An electronic device comprising:
A display device;
One or more cameras;
means for displaying a camera user interface via said display device;
means for detecting, via one or more sensors of the electronic device, an amount of light within a field of view of the one or more cameras while displaying the camera user interface;
in response to detecting the amount of light within the field of view of the one or more cameras,
in response to a determination that the amount of light within the field of view of the one or more cameras satisfies a low light environment criterion, the criterion being met when the amount of light within the field of view of the one or more cameras is below a predetermined threshold, within the camera user interface:
a flash status indicator that indicates the status of a flash operation;
a low light capture status indicator that indicates the status of the low light capture mode;
simultaneously,
ceasing to display the low light capture status indicator in the camera user interface in response to a determination that the amount of light within the field of view of the one or more cameras does not meet the low light environment criterion.
Means,
An electronic device comprising:
[Item 196]
1. A method comprising:
In an electronic device having a display device,
displaying, on the display device, a media editing user interface, the media editing user interface comprising:
Visual media expression,
a first affordance corresponding to a first editable parameter for editing the representation of the visual media; and
a second affordance corresponding to a second editable parameter for editing the representation of the visual media; and
and
detecting a first user input corresponding to a selection of the first affordance while displaying the media editing user interface;
in response to detecting the first user input corresponding to a selection of the first affordance, displaying on the display device an adjustable control at a respective location within the media editing user interface for adjusting the first editable parameter;
detecting a first gesture directed at the adjustable control for adjusting the first editable parameter while displaying the adjustable control for adjusting the first editable parameter and while the first editable parameter is selected;
in response to detecting a first gesture directed at the adjustable control that adjusts the first editable parameter while the first editable parameter is selected, adjusting a current value of the first editable parameter in accordance with the first gesture;
detecting a second user input corresponding to a selection of the second affordance while displaying, on the display device, the adjustable control for adjusting the first editable parameter;
in response to detecting the second user input corresponding to a selection of the second affordance, displaying an adjustable control at the respective location within the media editing user interface for adjusting the second editable parameter;
while displaying the adjustable control for adjusting the second editable parameter and while the second editable parameter is selected, detecting a second gesture directed at the adjustable control for adjusting the second editable parameter;
in response to detecting a second gesture directed at the adjustable control that adjusts the second editable parameter while the second editable parameter is selected, adjusting a current value of the second editable parameter in accordance with the second gesture;
A method comprising:
[Item 197]
the adjustable control for adjusting the first editable parameter includes a first static portion and a first variable portion;
the adjustable control for adjusting the second editable parameter includes the first static portion and a second variable portion;
Displaying the adjustable control at the respective location within the media editing user interface for adjusting the second editable parameter includes:
207. The method of claim 196, comprising maintaining, on the display device, a display of the first static portion at the respective location within the media editing user interface.
[Item 198]
20. The method of claim 196 or 197, wherein the adjustable control that adjusts the first editable parameter and the adjustable control that adjusts the second editable parameter share one or more visual characteristics when adjusted to the same relative position.
[Item 199]
in response to detecting the first gesture directed at the adjustable control that adjusts the first editable parameter while the first editable parameter is selected, replacing a display of the representation of the visual media with an adjusted representation of the visual media that is adjusted based on the adjusted current value of the first editable parameter;
in response to detecting the second gesture directed at the adjustable control that adjusts the second editable parameter while the second editable parameter is selected, replacing a display of the representation of the visual media with an adjusted representation of the visual media that is adjusted based on the adjusted current value of the second editable parameter;
200. The method of any one of claims 196 to 198, further comprising:
[Item 200]
the first editable parameter is an auto-adjust editable parameter;
200. The method of any one of claims 196 to 199, wherein adjusting the current value of the first editable parameter in accordance with the first gesture includes adjusting current values of a plurality of editable parameters including the second editable parameter.
[Item 201]
The media editing user interface includes a plurality of editable parameter current value indicators, the plurality of editable parameter current value indicators comprising:
a value indicator corresponding to the second editable parameter of the representation of the visual media; and
a value indicator corresponding to a third editable parameter of the representation of the visual media; and
Including,
Adjusting current values of the plurality of editable parameters includes:
adjusting a current value of a third editable parameter;
updating the value indicator corresponding to the second editable parameter based on the adjusted current value of the second editable parameter;
updating the value indicator corresponding to the third editable parameter based on the adjusted current value of the third editable parameter;
200. The method of claim 199, comprising:
[Item 202]
detecting a third user input while the media editing user interface does not include a third affordance corresponding to a fourth editable parameter for editing the representation of the visual media;
In response to detecting the third user input, displaying the third affordance; and
202. The method of any one of claims 196 to 201, further comprising:
[Item 203]
203. The method of claim 202, further comprising: displaying the adjustable control that adjusts the first editable parameter and visually suppressing the adjustable control that adjusts the first editable parameter while detecting the third user input.
[Item 204]
the third user input is received while the adjustable control for adjusting the first editable parameter is displayed;
Displaying the third affordance includes:
displaying an adjustable control for adjusting the fourth editable parameter at the respective location within the media editing user interface in accordance with a determination that a first set of criteria is satisfied, the criteria including criteria that are satisfied when the fourth editable parameter is a first type of parameter;
ceasing to display the adjustable control for adjusting the fourth editable parameter at the respective location within the media editing user interface in accordance with determining that the first set of criteria is not satisfied; and
204. The method of claim 203, comprising:
[Item 205]
205. The method of any one of claims 196 to 204, wherein the first user input is a tap input on the first affordance and the second user input is a tap input on the second affordance.
[Item 206]
displaying, while displaying the representation of the visual media and the first affordance, a first editable parameter status indicator that indicates a status of whether the representation of the visual media is currently being adjusted based on the first editable parameter;
Detecting a fourth user input corresponding to a selection of the first affordance; and
In response to detecting the fourth user input,
in response to determining that the representation of the visual media is currently adjusted based on the first editable parameter;
updating the first editable parameter status indicator to indicate that the representation of the visual media is not currently adjusted based on the first editable parameter;
replacing a display of the representation of the visual media with a representation of the visual media that has not been adjusted based on the first editable parameter;
in response to a determination that the representation of the visual media is not currently adjusted based on the first editable parameter;
updating the first editable parameter state indicator to indicate that the representation of the visual media is currently being adjusted based on the current value of the first editable parameter;
replacing a display of the representation of the visual media with a representation of the visual media adjusted based on the first editable parameter;
206. The method of any one of claims 196 to 205, further comprising:
[Item 207]
Adjusting the current value of the first editable parameter in accordance with the first gesture includes:
generating a tactile output in response to determining that the current value of the first editable parameter corresponds to a predetermined reset value for the first editable parameter;
ceasing to generate a tactile output in response to determining that the current value of the first editable parameter does not correspond to the predetermined reset value for the first editable parameter;
207. The method of any one of claims 196 to 206, comprising:
[Item 208]
208. The method of any one of claims 196 to 207, further comprising visually highlighting the adjustable control that adjusts the first editable parameter while detecting the first gesture directed toward the adjustable control that adjusts the first editable parameter.
[Item 209]
209. The method of any one of items 196 to 208, wherein a third editable parameter current value indicator visually surrounds at least a portion of the first affordance and a fourth editable parameter current value indicator visually surrounds the second affordance.
[Item 210]
the electronic device includes one or more cameras;
the representation of the visual media is a representation of a field of view of the one or a camera;
the media editing user interface is displayed while the electronic device is configured to capture visual media in a first capture mode that enables application of lighting and depth effects;
the first editable parameter is a lighting effect intensity;
209. The method of any one of items 196 to 199 and 202 to 209, wherein the second editable parameter is depth effect intensity.
[Item 211]
the first editable parameter corresponds to a lighting effects parameter;
the media editing user interface includes value indicators corresponding to the lighting effects parameters;
209. The method of claim 196, wherein adjusting the current value of the first editable parameter in accordance with the first gesture comprises adjusting the lighting effects parameter based on the adjusted current value of the first editable parameter.
[Item 212]
the first editable parameter is a visual filter effect intensity;
Adjusting the current value of the first editable parameter in accordance with the first gesture includes:
209. The method of any one of claims 196 to 199 and 202 to 209, comprising replacing a display of the representation of visual media with a representation of the visual media adjusted based on the current value of the visual filter effect intensity.
[Item 213]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device having a display device, the one or more programs including instructions for performing the method according to any one of items 196 to 212.
[Item 214]
1. An electronic device comprising:
A display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
213. An electronic device comprising:
[Item 215]
1. An electronic device comprising:
A display device and a means for performing the method according to any one of items 196 to 212;
An electronic device comprising:
[Item 216]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device having a display device, the one or more programs comprising:
on the display device, a media editing user interface;
Visual media expression,
a first affordance corresponding to a first editable parameter for editing the representation of the visual media; and
a second affordance corresponding to a second editable parameter for editing the representation of the visual media; and
displaying a media editing user interface including
detecting a first user input corresponding to a selection of the first affordance while displaying the media editing user interface;
in response to detecting the first user input corresponding to a selection of the first affordance, displaying on the display device adjustable controls at respective locations within the media editing user interface for adjusting the first editable parameter;
while displaying the adjustable control for adjusting the first editable parameter and while the first editable parameter is selected, detecting a first gesture directed at the adjustable control for adjusting the first editable parameter;
in response to detecting a first gesture directed at the adjustable control that adjusts the first editable parameter while the first editable parameter is selected, adjusting a current value of the first editable parameter in accordance with the first gesture;
detecting a second user input corresponding to a selection of the second affordance while displaying, on the display device, the adjustable control for adjusting the first editable parameter;
in response to detecting the second user input corresponding to a selection of the second affordance, displaying an adjustable control at the respective location within the media editing user interface for adjusting the second editable parameter;
while displaying the adjustable control for adjusting the second editable parameter and while the second editable parameter is selected, detecting a second gesture directed at the adjustable control for adjusting the second editable parameter;
and in response to detecting a second gesture directed at the adjustable control that adjusts the second editable parameter while the second editable parameter is selected, adjusting a current value of the second editable parameter in accordance with the second gesture.
A non-transitory computer-readable storage medium containing instructions.
[Item 217]
1. An electronic device comprising:
A display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
on the display device, a media editing user interface;
Visual media expression,
a first affordance corresponding to a first editable parameter for editing the representation of the visual media; and
a second affordance corresponding to a second editable parameter for editing the representation of the visual media; and
displaying a media editing user interface including
detecting a first user input corresponding to a selection of the first affordance while displaying the media editing user interface;
in response to detecting the first user input corresponding to a selection of the first affordance, displaying on the display device adjustable controls at respective locations within the media editing user interface for adjusting the first editable parameter;
while displaying the adjustable control for adjusting the first editable parameter and while the first editable parameter is selected, detecting a first gesture directed at the adjustable control for adjusting the first editable parameter;
in response to detecting a first gesture directed at the adjustable control that adjusts the first editable parameter while the first editable parameter is selected, adjusting a current value of the first editable parameter in accordance with the first gesture;
detecting a second user input corresponding to a selection of the second affordance while displaying, on the display device, the adjustable control for adjusting the first editable parameter;
in response to detecting the second user input corresponding to a selection of the second affordance, displaying an adjustable control at the respective location within the media editing user interface for adjusting the second editable parameter;
while displaying the adjustable control for adjusting the second editable parameter and while the second editable parameter is selected, detecting a second gesture directed at the adjustable control for adjusting the second editable parameter;
and in response to detecting a second gesture directed at the adjustable control that adjusts the second editable parameter while the second editable parameter is selected, adjusting a current value of the second editable parameter in accordance with the second gesture.
An electronic device that contains instructions.
[Item 218]
1. An electronic device comprising:
A display device;
a means for displaying, on the display device, a media editing user interface, the media editing user interface comprising:
Visual media expression,
a first affordance corresponding to a first editable parameter for editing the representation of the visual media; and
a second affordance corresponding to a second editable parameter for editing the representation of the visual media; and
and
means for detecting a first user input corresponding to a selection of the first affordance while displaying the media editing user interface;
means for displaying, in response to detecting the first user input corresponding to a selection of the first affordance, on the display device at a respective location within the media editing user interface, an adjustable control for adjusting the first editable parameter;
means for detecting a first gesture directed at the adjustable control for adjusting the first editable parameter while displaying the adjustable control for adjusting the first editable parameter and while the first editable parameter is selected;
means for, in response to detecting a first gesture directed at the adjustable control that adjusts the first editable parameter while the first editable parameter is selected, adjusting a current value of the first editable parameter in accordance with the first gesture;
means for detecting, while displaying on the display device, the adjustable control for adjusting the first editable parameter, a second user input corresponding to a selection of the second affordance;
means for displaying, in response to detecting the second user input corresponding to a selection of the second affordance, an adjustable control for adjusting the second editable parameter at the respective location within the media editing user interface;
means for detecting a second gesture directed at the adjustable control for adjusting the second editable parameter while displaying the adjustable control for adjusting the second editable parameter and while the second editable parameter is selected;
means for, in response to detecting a second gesture directed at the adjustable control that adjusts the second editable parameter while the second editable parameter is selected, adjusting a current value of the second editable parameter in accordance with the second gesture;
An electronic device comprising:
[Item 219]
1. A method comprising:
In an electronic device having a display device,
Displaying a first user interface on the display device,
a first representation in a first visual media; and
an adjustable control including an indication of a current amount of adjustment to the perspective distortion of the first visual media; and
including simultaneously displaying
And,
detecting a user input including a gesture directed toward the adjustable control while displaying the first user interface on the display device;
in response to detecting the user input including the gesture directed at the adjustable control;
displaying on the display device a second representation of the first visual media with a respective adjustment to the perspective distortion selected based on a magnitude of the gesture;
A method comprising:
[Item 220]
The first user interface includes:
a first affordance that, when selected, updates the indication of the adjustable control to indicate a current adjustment to the horizontal perspective distortion of the first visual media and configures the adjustable control to allow adjustment of the current adjustment to the horizontal perspective distortion of the first visual media based on user input;
a second affordance that, when selected, updates the indication of the adjustable control to indicate a current adjustment to the vertical perspective distortion of the first visual media and configures the adjustable control to allow adjustment of the current adjustment to the vertical perspective distortion of the first visual media based on user input;
220. The method of claim 219, comprising:
[Item 221]
221. The method of claim 220, further comprising: while displaying the first affordance and the second affordance, simultaneously displaying a third affordance that, when selected, updates the indication of the adjustable control to indicate a current adjustment amount for rotating visual content within the first representation of the first visual media.
[Item 222]
the perspective distortion corresponds to a horizontal perspective distortion,
222. The method of any one of claims 219 to 221, wherein an amount of horizontal perspective distortion of the first representation of the first visual media differs from an amount of horizontal perspective distortion of the second representation of the first visual media.
[Item 223]
the perspective distortion corresponds to a vertical perspective distortion;
223. The method of any one of claims 219 to 222, wherein an amount of vertical perspective distortion of the first representation of the first visual media differs from an amount of vertical perspective distortion of the second representation of the first visual media.
[Item 224]
The first representation includes a first visual horizon, and the method further comprises:
detecting an input that changes a degree of rotation of the first representation of the first visual media while the first representation of the first visual media includes a degree of rotation relative to a visual boundary within the first representation of the first visual media;
in response to detecting an input that changes the degree of rotation of the first representation of the first visual media, rotating the first representation of the first visual media by an amount determined based on the input;
224. The method of any one of claims 219 to 223, further comprising:
[Item 225]
The first representation includes a first visual content of the first visual media, and the method further comprises:
detecting a set of one or more inputs that change the first visual content of the first representation of the first visual media while the first representation includes the first visual content;
displaying a fourth representation of the first visual media comprising second visual content of the first visual media that differs from the first visual content of the first visual media in response to detecting the set of one or more inputs that change the first visual content of the first representation of the first visual media;
225. The method according to any one of items 219 to 224, comprising:
[Item 226]
The first user interface includes an auto-adjusting affordance, and the method further comprises:
Detecting an input corresponding to the auto-adjusting affordance;
In response to detecting the input corresponding to the auto-adjusting affordance,
automatically adjusting current values of two or more parameters of the first visual media selected from the group consisting of a horizontal perspective parameter, a vertical perspective parameter, and a rotation parameter;
displaying a fifth representation of the first visual media based on the adjusted current values of the adjusted two or more parameters; and
226. The method of any one of claims 219 to 225, further comprising:
[Item 227]
While displaying the first user interface including the auto-adjusting affordance, detecting a second set of one or more inputs corresponding to a request to display a third user interface different from the first user interface;
displaying, on the display device, a third user interface in response to detecting the second set of one or more inputs;
displaying a representation of at least a portion of the second visual content in a second visual media;
displaying the auto-adjusting affordance in accordance with a determination that the second visual media includes additional visual content that is outside a predetermined spatial boundary of the second visual content of the second visual media;
ceasing to display the auto-adjusting affordance in accordance with a determination that the second visual media does not include additional visual content that is outside a predetermined spatial boundary of the second visual content of the second visual media;
and
227. The method of claim 226, further comprising:
[Item 228]
the first representation of the first visual media is a representation of a first portion of the visual content of the first visual media that does not include additional visual content that is outside a predetermined spatial boundary of the captured visual content at the time the first visual media was captured;
228. The method of any one of claims 219 to 227, wherein the second representation of the first visual media includes at least a portion of the additional visual content that is outside a predetermined spatial boundary of the visual content that was also captured at the time the first visual media was captured.
[Item 229]
the first representation of the first visual media is displayed in a first aspect ratio;
the first user interface includes an aspect ratio affordance;
The method comprises:
detecting a user input corresponding to the aspect ratio affordance while displaying the first representation of the first visual media;
in response to detecting the user input corresponding to the aspect ratio affordance, displaying a sixth representation of the first visual media in a second aspect ratio different from the first aspect ratio;
229. The method of any one of claims 219 to 228, further comprising:
[Item 230]
the first representation of the first visual media is displayed in a first orientation;
the first aspect ratio has a first horizontal aspect ratio value and a first vertical aspect ratio value;
the first user interface includes an aspect ratio affordance;
The method comprises:
detecting a user input corresponding to the aspect ratio affordance while displaying the first representation of the first visual media;
In response to detecting the user input corresponding to the aspect ratio affordance, displaying visual feedback indicating a portion of the first visual media corresponding to a third aspect ratio different from the first aspect ratio without rotating the first representation of the first visual media, the third aspect ratio being:
a second horizontal aspect ratio value equal to the first vertical aspect ratio value; and
a second vertical aspect ratio value equal to the first horizontal aspect ratio value; and
and
230. The method of claim 229, further comprising:
[Item 231]
Displaying the first user interface includes:
A method according to any one of claims 219 to 230, comprising displaying adjustable controls for adjusting which frames of content corresponding to the first visual media are displayed, together with one or more controls for adjusting perspective distortion, cropping, and/or rotation of the image, in accordance with a determination that the first visual media includes multiple frames of content corresponding to different times.
[Item 232]
a visual border is displayed around a first portion of a seventh representation of the first visual media, the seventh representation corresponding to a first time within the first visual media;
The method comprises:
detecting a request to select a time-based representation of the first visual media corresponding to a respective time while displaying the adjustable control that adjusts which frames of content corresponding to the first visual media are displayed;
in response to detecting the request to select the time-based representation of the first visual media corresponding to a respective time,
displaying an eighth representation of the first visual media corresponding to a second time within the first visual media; and
maintaining a visual border displayed around a first portion of the eighth representation of the first visual media; and
232. The method of claim 231, further comprising:
[Item 233]
The first representation of the first visual media is displayed at a first zoom level, and the method further comprises:
detecting, while displaying the first representation of the first visual media, a request to change a zoom level of the representation of the first visual media;
in response to detecting the request to change the zoom level of the representation of the first visual media, displaying a ninth representation of the first visual media at a second zoom level different from the first zoom level;
233. The method of any one of claims 219 to 232, further comprising:
[Item 234]
the first representation of the first visual media includes perspective distortion based on a shape of a first camera lens and/or a position of a first camera;
234. The method of any one of claims 219 to 233, wherein the second representation of the first visual media is adjusted to reduce the perspective distortion based on a shape of the camera lens and/or a position of the camera.
[Item 235]
the adjustable control corresponds to a control for correcting perspective distortion;
The method comprises:
235. The method of any one of claims 219 to 234, further comprising, in response to detecting the user input including the gesture directed at the adjustable control, updating an amount of perspective distortion correction according to a direction and/or a magnitude of the gesture directed at the adjustable control.
[Item 236]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device having a display device, the one or more programs including instructions for performing the method according to any one of items 219 to 235 and 399.
[Item 237]
1. An electronic device comprising:
A display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
399. An electronic device comprising:
[Item 238]
1. An electronic device comprising:
A display device and a means for performing the method according to any one of items 219 to 235 and 399;
An electronic device comprising:
[Item 239]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device having a display device, the one or more programs comprising:
Displaying a first user interface on the display device;
a first representation in a first visual media; and
an adjustable control including an indication of a current amount of adjustment to the perspective distortion of the first visual media; and
including simultaneously displaying
detecting a user input including a gesture directed toward the adjustable control while displaying the first user interface on the display device;
in response to detecting the user input including the gesture directed at the adjustable control;
displaying on the display device a second representation of the first visual media with a respective adjustment to the perspective distortion selected based on a magnitude of the gesture.
A non-transitory computer-readable storage medium containing instructions.
[Item 240]
1. An electronic device comprising:
A display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
Displaying a first user interface on the display device;
a first representation in a first visual media; and
an adjustable control including an indication of a current amount of adjustment to the perspective distortion of the first visual media; and
including simultaneously displaying
detecting a user input including a gesture directed toward the adjustable control while displaying the first user interface on the display device;
in response to detecting the user input including the gesture directed at the adjustable control;
displaying on the display device a second representation of the first visual media with a respective adjustment to the perspective distortion selected based on a magnitude of the gesture.
An electronic device that contains instructions.
[Item 241]
1. An electronic device comprising:
A display device;
A means for displaying a first user interface on the display device, comprising:
a first representation in a first visual media; and
an adjustable control including an indication of a current amount of adjustment to the perspective distortion of the first visual media; and
and
means for detecting user input comprising a gesture directed at the adjustable control while displaying the first user interface on the display device;
in response to detecting the user input including the gesture directed at the adjustable control;
means for displaying on the display device a second representation of the first visual media with a respective adjustment to the perspective distortion selected based on a magnitude of the gesture;
An electronic device comprising:
[Item 242]
1. A method comprising:
In an electronic device having a display device,
displaying, via the display device, a media capture user interface;
displaying a representation of the field of view of the one or more cameras;
displaying a control to adjust a capture duration for capturing media while the low light camera mode is active;
in response to a determination that a first set of capture duration criteria are satisfied, the criteria being satisfied when ambient light within the field of view of the one or more cameras exceeds a first threshold;
displaying an indication that the control is set to a first capture duration;
configuring the electronic device to capture a first plurality of images over the first capture duration in response to a single request to capture an image corresponding to a field of view of the one or more cameras;
in response to determining that a second set of capture duration criteria is satisfied that is different from the first set of capture duration criteria and that includes criteria that are satisfied when ambient light within the field of view of the one or more cameras falls below the first threshold;
displaying an indication that the control is set to a second capture duration that is longer than the first capture duration;
configuring the electronic device to capture a second plurality of images over the second capture duration in response to the single request to capture the image corresponding to the field of view of the one or more cameras;
and
detecting an input corresponding to a tap input on a shutter affordance while the low light camera mode is active and while displaying the control for adjusting the capture duration for capturing media;
generating a single composite image from a plurality of images in response to detecting the input corresponding to the tap input on the shutter affordance;
pursuant to determining that the set of first capture duration criteria is satisfied when the ambient light within the field of view of the one or more cameras exceeds the first threshold, capturing a first number of images over the first capture duration and combining the first number of images into the single composite image;
pursuant to determining that the set of first capture duration criteria is satisfied when the ambient light within the field of view of the one or more cameras falls below the first threshold, capturing a second number of images, greater than the first number of images, over the second capture duration and combining the second number of images into the single composite image;
and
A method comprising:
[Item 243]
(cancel).
[Item 244]
(cancel).
[Item 245]
(cancel).
[Item 246]
(currently corrected) detecting a first stability of the electronic device while displaying the indication that the control is set to the first capture duration;
in response to detecting the first stability of the electronic device,
in response to determining that the first stability of the electronic device is above a first stability threshold,
displaying an indication that the control is set to a third capture duration that is longer than the first capture duration;
configuring the electronic device to capture a third plurality of images over the third capture duration in response to the single request to capture the image corresponding to the field of view of the one or more cameras;
243. The method of claim 242, further comprising:
[Item 247]
while the low light camera mode is active, indicates a status of the low light camera mode; and
responsive to a determination that a capture duration indication criterion is met, a visual representation of the first capture duration;
not including the visual representation of the first capture duration in response to a determination that a capture duration display criterion is not met.
247. The method of claim 242, further comprising displaying a first low light capture status indicator.
[Item 248]
248. The method of claim 247, wherein the capture duration indication criterion includes a criterion that is met when ambient light within the field of view of the one or more cameras is within a first predetermined range.
[Item 249]
Before the low light camera mode is active,
displaying a second low light capture status indicator indicating that the low light camera mode status is active and including a visual representation of a third capture duration in accordance with determining that ambient light within the field of view of the one or more cameras is within a second predetermined range;
displaying a third low light capture status indicator indicating that the low light camera mode status is active and not including the visual representation of the third capture duration in accordance with determining that ambient light within the field of view of the one or more cameras is within a fourth predetermined range;
displaying a fourth low light capture status indicator indicating that the low light camera mode status is available in accordance with determining that ambient light within the field of view of the one or more cameras is within a fifth predetermined range, wherein the second low light capture status indicator, the third low light capture status indicator, and the fourth low light capture status indicator are visually distinct from one another;
ceasing to display the second low light capture status indicator, the third low light capture status indicator, and the fourth low light capture status indicator in response to determining that ambient light within the field of view of the one or more cameras is within a sixth predetermined range;
249. The method of any one of items 242 and 246 to 248, further comprising:
[Item 250]
The control for adjusting the capture duration for capturing media includes:
a first state corresponding to a first recommended capture duration value;
a second state corresponding to a second recommended capture duration value; and
a third state corresponding to a third recommended capture duration value; and
250. The method of any one of items 242 and 246 to 249, wherein the method is configured to be adjustable to.
[Item 251]
Displaying the control for adjusting the capture duration for capturing media includes:
displaying the control to adjust the capture duration for capturing the adjusted media to the second state in accordance with a determination that the first set of capture duration criteria is satisfied, the first capture duration being the second recommended capture duration value;
displaying the control to adjust the capture duration for capturing the adjusted media to the second state in accordance with a determination that the set of second capture duration criteria is satisfied, the second capture duration being the second recommended capture duration value;
251. The method of claim 250, comprising:
[Item 252]
Displaying the control for adjusting the capture duration for capturing media includes:
in accordance with the determination that the control adjusting the capture duration for capturing media is in the third state and in accordance with the determination that the set of first capture duration criteria is satisfied, the third recommended capture duration value is a third capture duration value;
in accordance with the determination that the control adjusting the capture duration for capturing media is in the third state and in accordance with the determination that the set of second capture duration criteria is satisfied, the third recommended capture duration value is a fourth capture duration value different from the third capture duration value.
252. The method of claim 250 or 251, comprising:
[Item 253]
the second recommended capture duration value is a fifth capture duration value and the third recommended capture duration value is a sixth capture duration value, and the method further comprises:
Detecting a first change in a current condition of the electronic device while displaying the control that adjusts a capture duration for capturing media;
in response to detecting the first change in a current condition of the electronic device,
In response to a determination that the first current condition satisfies that the third capture duration criterion is satisfied,
the second recommended capture duration value to a seventh capture duration value, the fifth capture duration value being different from the seventh capture duration value; and
the third recommended capture duration value to an eighth capture duration value different from the sixth capture duration value;
and changing to at least one of
253. The method of any one of claims 250 to 252, further comprising:
[Item 254]
The set of first capture duration criteria comprises:
movement detected within the field of view of the one or more cameras; and
a second stability of the electronic device; and
254. The method according to any one of items 250 to 253, comprising criteria based on one or more parameters selected from the group consisting of:
[Item 255]
Displaying the media capture user interface includes displaying an affordance for capturing media simultaneously with the representation of the field of view of the one or more cameras, the method comprising:
displaying the affordance to capture media and detecting a first input including a selection of the affordance to capture media while displaying the indication that the control is set to a third capture duration, wherein selection of the affordance to capture media corresponds to the single request to capture an image corresponding to the field of view of the one or more cameras;
In response to detecting the first input corresponding to the affordance to capture media, initiate capture of a fourth plurality of images over the first capture duration;
255. The method of any one of claims 250 to 254, further comprising:
[Item 256]
the indication that the control is set to the third capture duration is a first indication;
the first indication is displayed at a first location on the control corresponding to the third capture duration;
The method comprises:
displaying an animation that moves the first indication from the first position on the control to a second position on the control in response to detecting the first input corresponding to the affordance of capturing media;
re-displaying the first indication at the first location on the control in response to displaying the first indication at the second location;
256. The method of claim 255, further comprising:
[Item 257]
the indication that the control is set to the third capture duration is a second indication;
the second indication is displayed at a third location on the control corresponding to the third capture duration;
The method comprises:
in response to detecting the first input corresponding to the affordance to capture media;
displaying an animation that moves the second indication from the third position on the control to a fourth position on the control; and
detecting a second change in a current condition of the electronic device while displaying the animation; and
in response to detecting the second change in current conditions,
pursuant to determining that a second current condition satisfies a fourth capture duration criterion and in response to displaying the first indication at the fourth location, displaying the second indication at a fifth location on the control corresponding to a fourth capture duration different from the third capture duration;
257. The method of claim 256, further comprising:
[Item 258]
258. The method of any one of claims 255 to 257, further comprising, in response to detecting the first input corresponding to the affordance to capture the media, modifying a visual appearance of the affordance to capture media.
[Item 259]
259. The method of any one of claims 255 to 258, further comprising, in response to detecting the first input corresponding to the affordance to capture the media, replacing the display of the affordance to capture the media with a display of an affordance to terminate capturing of media that is visually distinct from the affordance to capture the media.
[Item 260]
259. The method of any one of claims 255 to 259, further comprising, in response to detecting the first input corresponding to the affordance to capture the media, displaying via the display device a visual indication of a difference between a pose of the electronic device when capturing of the media was initiated and a pose of the electronic device at a first time after starting capturing of the media.
[Item 261]
after initiating capture of the first plurality of images for the first capture duration and prior to detecting an end of capture of the first plurality of images for the first capture duration;
displaying one or more low light mode animations in response to a determination that the first capture duration exceeds a threshold; and
ceasing to display the one or more low light mode animations in accordance with determining that the first capture duration does not exceed a threshold; and
256. The method of claim 255, further comprising:
[Item 262]
While capturing said media,
displaying, at a first time after commencing capture of the first plurality of images over the first capture duration, a representation of a third composite image based on at least some content from a plurality of images captured by the one or more cameras prior to the first time;
displaying, at a second time after commencing capture of the first plurality of images over the first capture duration, a representation of a fourth composite image based on at least some content from a plurality of images captured by the one or more cameras prior to the second time;
the first time is different from the second time;
the representation of the third composite image is visually distinct from the representation of the fourth composite image.
And,
262. The method of any one of items 242 and 246 to 261, further comprising:
[Item 263]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device having a display device, the one or more programs including instructions for performing the method of any one of items 242 and 246 to 262.
[Item 264]
1. An electronic device comprising:
A display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs contain instructions for performing the method according to any one of items 242 and 246 to 262.
[Item 265]
1. An electronic device comprising:
A display device;
Means for carrying out the method according to any one of items 242 and 246 to 262;
An electronic device comprising:
[Item 266]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device having a display device, the one or more programs comprising:
displaying a representation of the field of view of the one or more cameras;
Displaying a media capture user interface via the display device;
While the low light camera mode is active,
in response to a determination that a first set of capture duration criteria are satisfied, the criteria being satisfied when ambient light within the field of view of the one or more cameras exceeds a first threshold;
displaying an indication that the control is set to the first capture duration;
configuring the electronic device to capture a first plurality of images over the first capture duration in response to a single request to capture an image corresponding to a field of view of the one or more cameras;
in response to determining that a second set of capture duration criteria is satisfied, the second set of capture duration criteria being different from the first set of capture duration criteria and including criteria that are satisfied when ambient light within the field of view of the one or more cameras falls below the first threshold;
displaying an indication that the control is set to a second capture duration that is longer than the first capture duration;
configuring the electronic device to capture a second plurality of images over the second capture duration in response to the single request to capture the image corresponding to the field of view of the one or more cameras;
displaying said control for adjusting a capture duration for capturing media,
detect an input corresponding to a tap input on a shutter affordance while the low light camera mode is active and while displaying the control for adjusting the capture duration for capturing media;
In response to detecting the input corresponding to the tap input on the shutter affordance,
pursuant to determining that the set of first capture duration criteria is satisfied when the ambient light within the field of view of the one or more cameras exceeds the first threshold, capturing a first number of images over the first capture duration and combining the first number of images into a single composite image;
pursuant to determining that the set of first capture duration criteria is satisfied when the ambient light within the field of view of the one or more cameras falls below the first threshold, capturing a second number of images, greater than the first number of images, over the second capture duration and combining the second number of images into the single composite image;
generating said single composite image from a plurality of images,
A non-transitory computer-readable storage medium containing instructions.
[Item 267]
1. An electronic device comprising:
A display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
displaying a representation of the field of view of one or more cameras;
Displaying a media capture user interface via the display device;
While the low light camera mode is active,
in response to a determination that a first set of capture duration criteria are satisfied, the criteria being satisfied when ambient light within the field of view of the one or more cameras exceeds a first threshold;
displaying an indication that the control is set to the first capture duration;
configuring the electronic device to capture a first plurality of images over the first capture duration in response to a single request to capture an image corresponding to a field of view of the one or more cameras;
in response to determining that a second set of capture duration criteria is satisfied, the second set of capture duration criteria being different from the first set of capture duration criteria and including criteria that are satisfied when ambient light within the field of view of the one or more cameras falls below the first threshold;
displaying an indication that the control is set to a second capture duration that is longer than the first capture duration;
configuring the electronic device to capture a second plurality of images over the second capture duration in response to the single request to capture the image corresponding to the field of view of the one or more cameras;
displaying said control for adjusting a capture duration for capturing media,
detect an input corresponding to a tap input on a shutter affordance while the low light camera mode is active and while displaying the control for adjusting the capture duration for capturing media;
In response to detecting the input corresponding to the tap input on the shutter affordance,
pursuant to determining that the set of first capture duration criteria is satisfied when the ambient light within the field of view of the one or more cameras exceeds the first threshold, capturing a first number of images over the first capture duration and combining the first number of images into a single composite image;
pursuant to determining that the set of first capture duration criteria is satisfied when the ambient light within the field of view of the one or more cameras falls below the first threshold, capturing a second number of images, greater than the first number of images, over the second capture duration and combining the second number of images into the single composite image;
generating said single composite image from a plurality of images,
An electronic device that contains instructions.
[Item 268]
1. An electronic device comprising:
A display device;
means for displaying a media capture user interface via the display device,
displaying a representation of the field of view of one or more cameras;
Means,
a means for displaying a control for adjusting a capture duration for capturing media while the low light camera mode is active, the means comprising:
in response to a determination that a first set of capture duration criteria are satisfied, the criteria being satisfied when ambient light within the field of view of the one or more cameras exceeds a first threshold;
displaying an indication that the control is set to a first capture duration;
configuring the electronic device to capture a first plurality of images over the first capture duration in response to a single request to capture an image corresponding to a field of view of the one or more cameras;
in response to determining that a second set of capture duration criteria is satisfied, the second set of capture duration criteria being different from the first set of capture duration criteria and including criteria that are satisfied when ambient light within the field of view of the one or more cameras falls below the first threshold;
displaying an indication that the control is set to a second capture duration that is longer than the first capture duration;
configuring the electronic device to capture a second plurality of images over the second capture duration in response to the single request to capture the image corresponding to the field of view of the one or more cameras;
and
means for detecting an input corresponding to a tap input on a shutter affordance while the low light camera mode is active and while displaying the control for adjusting the capture duration for capturing media;
a means for generating a single composite image from a plurality of images in response to detecting the input corresponding to the tap input on the shutter affordance, the means comprising:
pursuant to determining that the set of first capture duration criteria is satisfied when the ambient light within the field of view of the one or more cameras exceeds the first threshold, capturing a first number of images over the first capture duration and combining the first number of images into the single composite image;
pursuant to determining that the set of first capture duration criteria is satisfied when the ambient light within the field of view of the one or more cameras falls below the first threshold, capturing a second number of images, greater than the first number of images, over the second capture duration and combining the second number of images into the single composite image;
and
An electronic device comprising:
[Item 269]
1. A method comprising:
In an electronic device having a display device and one or more cameras,
displaying, via the display device, a media capture user interface including a representation of a field of view of the one or more cameras;
receiving, via the display device, a request to capture media while displaying the media capture user interface;
In response to receiving the request to capture media, initiating capture of media via the one or more cameras;
at a first time after initiating capture of media via the one or more cameras;
pursuant to a determination that a set of guidance criteria are satisfied, including criteria satisfied when a low light mode is active, displaying, via the display device, a visual indication of a difference between a pose of the electronic device when capture of the media was initiated and a pose of the electronic device at the first time after initiating capture of media;
A method comprising:
[Item 270]
270. The method of claim 269, wherein the set of guidance criteria includes criteria that are met when the electronic device is configured to capture a plurality of images over a first capture duration that exceeds a threshold duration.
[Item 271]
The visual indication may include:
a first set of one or more shapes representing the pose of the electronic device when capture of the media is initiated, the first set of one or more shapes being displayed at a first location on the media capture user interface;
a second set of one or more shapes representing the pose of the electronic device at the first time after initiating capture of media, the second set of one or more shapes being displayed at a second location;
271. The method of claim 269 or 270, comprising a set of shapes comprising:
[Item 272]
the first set of one or more shapes includes a first color;
Item 272. The method of item 271, wherein the second set of one or more shapes includes a second color different from the first color.
[Item 273]
Detecting a change in pose of the electronic device at a second time after initiating capture;
displaying the second set of one or more shapes at a third location on the media capture user interface that is different from the second location on the media capture user interface in response to detecting the change in pose of the electronic device;
273. The method of claim 271 or 272, further comprising:
[Item 274]
in response to detecting the change in the pose of the electronic device,
ceasing to display at least one of the first set of one or more shapes or the second set of one or more shapes in response to a determination that a difference between the first position of the first set of one or more shapes and a third position of the second set of one or more shapes is within a first threshold difference;
maintaining a display of the first set of one or more shapes or the second set of one or more shapes in response to a determination that a difference between the first location of the first set of one or more shapes and a third location of the second set of one or more shapes is not within a first threshold difference;
274. The method of any one of claims 271 to 273, further comprising:
[Item 275]
Detecting a change in pose of the electronic device at a second time after initiating capture;
in response to detecting the change in the pose of the electronic device,
generating a tactile output in response to determining that a difference between the pose of the electronic device when capture of the media was initiated and a pose of the electronic device at the second time after capture of the media was initiated is within a second threshold difference;
ceasing to generate the tactile output in response to a determination that a difference between the pose of the electronic device when capture of the media was initiated and a pose of the electronic device at the second time after capture of the media was initiated is not within the second threshold difference;
275. The method of any one of claims 269 to 274, further comprising:
[Item 276]
Following a determination that a set of guidance criteria has been met,
276. The method of any one of claims 269 to 275, further comprising displaying a representation corresponding to a request to stabilize the electronic device while capturing media.
[Item 277]
277. The method of any one of claims 269 to 276, further comprising ceasing to display, via the display device, the visual indication of the difference in accordance with a determination that the set of guidance criteria has not been met.
[Item 278]
The visual indication is displayed at the first time, and the method further comprises:
detecting an end of the capture of the media at a third time different from the first time;
ceasing to display the visual indication via the display device in response to detecting the end of the capture of the media; and
278. The method of any one of claims 269 to 277, further comprising:
[Item 279]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device having a display device, the one or more programs including instructions for performing the method according to any one of items 269 to 278.
[Item 280]
1. An electronic device comprising:
A display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
279. An electronic device comprising:
[Item 281]
1. An electronic device comprising:
A display device and a means for performing the method according to any one of items 269 to 278,
An electronic device comprising:
[Item 282]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device having a display device, the one or more programs comprising:
In an electronic device having a display device and one or more cameras,
displaying, via the display device, a media capture user interface including a representation of a field of view of the one or more cameras;
receiving, via the display device, a request to capture media while displaying the media capture user interface;
In response to receiving the request to capture media, initiate capturing media via the one or more cameras;
at a first time after initiating capture of media via the one or more cameras;
pursuant to a determination that a set of guidance criteria are satisfied, including criteria satisfied when a low light mode is active, displaying, via the display device, a visual indication of a difference between a pose of the electronic device when capture of the media was initiated and a pose of the electronic device at the first time after initiating capture of the media.
A non-transitory computer-readable storage medium containing instructions.
[Item 283]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
displaying, via the display device, a media capture user interface including a representation of a field of view of the one or more cameras;
receiving, via the display device, a request to capture media while displaying the media capture user interface;
In response to receiving the request to capture media, initiate capturing media via the one or more cameras;
at a first time after initiating capture of media via the one or more cameras;
pursuant to a determination that a set of guidance criteria are satisfied, including criteria satisfied when a low light mode is active, displaying, via the display device, a visual indication of a difference between a pose of the electronic device when capture of the media was initiated and a pose of the electronic device at the first time after initiating capture of the media.
An electronic device that contains instructions.
[Item 284]
1. An electronic device comprising:
A display device;
One or more cameras;
means for displaying, via said display device, a media capture user interface including a representation of a field of view of said one or more cameras;
means for receiving, via the display device, a request to capture media while displaying the media capture user interface;
means for initiating capture of media via the one or more cameras in response to receiving the request to capture media;
at a first time after initiating capture of media via the one or more cameras;
means for displaying, pursuant to a determination that a set of guidance criteria are satisfied, including criteria satisfied when a low light mode is active, via the display device, a visual indication of a difference between a pose of the electronic device when capture of the media was initiated and a pose of the electronic device at the first time after initiating capture of media;
An electronic device comprising:
[Item 285]
1. A method comprising:
In an electronic device having a display device and one or more cameras,
displaying, via the display device, a camera user interface, the camera user interface comprising:
a first region including a first representation of a first portion of a field of view of the one or more cameras;
a second region outside the first region and visually distinct from the first region;
displaying, in the second region, a second portion of the field of view of the one or more cameras with a first visual appearance in accordance with a determination that a first set of respective criteria is satisfied, the respective criteria including criteria that are satisfied when a first respective object in the field of view of the one or more cameras is a first distance from the one or more cameras;
ceasing to display, in the second region, the second portion of the field of view of the one or more cameras in the first visual appearance in accordance with a determination that a second set of respective criteria is satisfied, the second set of criteria including criteria that are satisfied when the first respective object in the field of view of the one or more cameras is a second distance from the one or more cameras, the second distance being less than the first distance;
A method comprising:
[Item 286]
286. The method of claim 285, wherein the second region includes a plurality of control affordances for controlling a plurality of camera settings.
[Item 287]
The electronic device is configured to focus on the first respective object within the field of view of the one or more cameras, and the method includes:
receiving a first request to adjust a focus setting of the electronic device while displaying the second portion of the field of view of the one or more cameras in the first visual appearance;
configuring the electronic device to focus on a second respective object within the field of view of the one or more cameras in response to receiving the first request to adjust the focus setting of the electronic device;
while the electronic device is configured to focus on the second respective object within the field of view of the one or more cameras;
ceasing to display, within the second region, the second portion of the field of view of the one or more cameras in the first visual appearance in accordance with a determination that a third set of respective criteria is satisfied, the third set of respective criteria including criteria that are satisfied when the second respective object in the field of view of the one or more cameras is a third distance from the one or more cameras;
287. The method of claim 285 or 286, further comprising:
[Item 288]
detecting a first change in distance between the first respective object in the field of view of the one or more cameras and the one or more cameras while displaying the second portion of the field of view of the one or more cameras in the first visual appearance;
in response to detecting the first change in distance between the first respective object within the field of view of the one or more cameras and the one or more cameras;
ceasing to display, in the second region, the second portion of the field of view of the one or more cameras in the first visual appearance in accordance with a determination that a set of fourth respective criteria is satisfied, the set of fourth respective criteria including criteria that are satisfied when the first respective object in the field of view of the one or more cameras is a fourth distance from the one or more cameras;
288. The method of any one of claims 285 to 287, further comprising:
[Item 289]
Ceasing to display the second portion of the field of view of the one or more cameras in the first visual appearance within the second region includes:
289. The method of any one of claims 285 to 288, comprising ceasing to display in the second region at least a portion of a third portion of the field of view of the one or more cameras that was previously displayed in the second region.
[Item 290]
289. The method of claim 285, wherein ceasing to display the second portion of the field of view of the one or more cameras in the second region with the first visual appearance comprises increasing an opacity of a first blackening layer superimposed on the second region.
[Item 291]
The electronic device is configured to focus on the first respective object within the field of view of the one or more cameras, and the method includes:
receiving a second request to adjust a focus setting of the electronic device while the second portion of the field of view of the one or more cameras is not displayed in the first visual appearance;
configuring the electronic device to focus on a third respective object within the field of view of the one or more cameras in response to receiving the second request to adjust the focus setting of the electronic device;
while the electronic device is configured to focus on the third respective object within the field of view of the one or more cameras;
displaying, within the second region, the second portion of the field of view of the one or more cameras in the first visual appearance in accordance with a determination that a set of fifth respective criteria is satisfied, the set including criteria that are satisfied when the third respective object in the field of view of the one or more cameras is a fifth distance from the one or more cameras;
291. The method of any one of claims 285 to 290, further comprising:
[Item 292]
detecting a second change in distance between the first respective object in the field of view of the one or more cameras and the one or more cameras while the second portion of the field of view of the one or more cameras is not displayed with the first visual appearance;
in response to detecting the second change in the distance between the first respective object within the field of view of the one or more cameras and the one or more cameras;
displaying, in the second region, the second portion of the field of view of the one or more cameras in the first visual appearance in accordance with a determination that a set of sixth respective criteria is satisfied, the set including criteria that are satisfied when the first respective object in the field of view of the one or more cameras is a sixth distance from the one or more cameras;
292. The method of any one of claims 285 to 291, further comprising:
[Item 293]
30. The method of any one of claims 285 to 292, wherein displaying within the second region the second portion of the field of view of the one or more cameras in the first visual appearance includes displaying within the second region a fourth portion of the field of view of the one or more cameras that was not previously displayed within the second region.
[Item 294]
30. The method of claim 285, wherein displaying within the second region the second portion of the field of view of the one or more cameras in the first visual appearance comprises reducing an opacity of a second blackening layer superimposed on the second region.
[Item 295]
The first visual appearance includes a first visual prominence, and displaying the second portion of the field of view of the one or more cameras with the first visual appearance includes:
30. The method of any one of claims 285 to 294, comprising displaying an animation of a gradual transition of the second portion of the field of view of the one or more cameras from a second visual appearance to the first visual appearance, the second visual appearance having a second visual prominence different from the first visual prominence.
[Item 296]
the first portion is displayed in a third visual appearance different from the first visual appearance;
The method comprises:
receiving a request to capture media while the first portion is displayed in the third visual appearance and the second portion of the field of view of the one or more cameras is displayed in the first visual appearance;
In response to receiving the request to capture media, capturing media corresponding to the field of view of the one or more cameras, the media including content from the first portion of the field of view of the one or more cameras and content from the second portion of the field of view of the one or more cameras;
after capturing the media corresponding to the field of view of the one or more cameras, displaying a representation of the media, the representation including content from the first portion of the field of view of the one or more cameras and content from the second portion of the field of view of the one or more cameras;
286. The method of claim 285, further comprising:
[Item 297]
30. The method of any one of claims 285 to 296, wherein at least a first portion of the second region is above the first region.
[Item 298]
30. The method of any one of claims 285 to 297, wherein at least a second portion of the second region is below the second region.
[Item 299]
receiving an input at a location on the camera user interface;
in response to receiving the input at the location on the camera user interface,
configuring the electronic device to focus on the location of the input in accordance with determining that the location of the input is within the first region;
ceasing to configure the electronic device to focus on the location of the input in accordance with determining that the location of the input is within the second region; and
300. The method of any one of claims 285 to 298, further comprising:
[Item 300]
300. The method of any one of claims 285 to 299, wherein when displayed in the first visual appearance, the second region is visually distinct from the first region.
[Item 301]
301. The method of any one of claims 285 to 300, wherein the set of first respective criteria includes a criterion that is satisfied when the first respective object is the closest object identified within the field of view of the one or more cameras.
[Item 302]
302. The method of any one of claims 285 to 301, wherein the set of first respective criteria includes a criterion that is satisfied when the first respective object is in a focal position within the field of view of the one or more cameras.
[Item 303]
the first region is separated from the second region by a boundary;
303. The method of any one of claims 285 to 302, wherein the first set of respective criteria includes a criterion that is met when a detected visual tear adjacent the border exceeds a visual tear threshold level.
[Item 304]
the first set of respective criteria includes a criterion that is satisfied when the first portion of the field of view of the one or more cameras is a portion of the field of view of a first camera;
304. The method of any one of claims 285 to 303, wherein the set of second respective criteria includes a criterion that is satisfied when the second portion of the field of view of the one or more cameras is a portion of the field of view of a second camera.
[Item 305]
receiving a request to capture media while displaying the second portion of the field of view of the one or more cameras in the first visual appearance;
in response to receiving the request to capture media, capturing media corresponding to the field of view of the one or more cameras, the media including content from the first portion of the field of view of the one or more cameras and content from the second portion of the field of view of the one or more cameras;
receiving a request to edit the captured media after capturing the media;
In response to receiving the request to edit the captured media, displaying a representation of the captured media including at least a portion of the content from the first portion of the field of view of the one or more cameras and at least a portion of the content from the second portion of the field of view of the one or more cameras;
305. The method of any one of claims 285 to 304, further comprising:
[Item 306]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs including instructions for performing the method according to any one of items 285 to 305.
[Item 307]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs contain instructions for performing the method according to any one of items 285 to 305.
[Item 308]
1. An electronic device comprising:
A display device;
One or more cameras and means for carrying out the method according to any one of items 285 to 305;
An electronic device comprising:
[Item 309]
1. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs comprising:
via the display device, a camera user interface,
a first region including a first representation of a first portion of a field of view of the one or more cameras;
a second region outside of and visually distinct from the first region,
displaying, in the second region, a second portion of the field of view of the one or more cameras with a first visual appearance in accordance with a determination that a first set of respective criteria is satisfied, the respective criteria including criteria that are satisfied when a first respective object in the field of view of the one or more cameras is a first distance from the one or more cameras;
ceasing to display, in the second region, the second portion of the field of view of the one or more cameras in the first visual appearance in accordance with a determination that a second set of respective criteria is satisfied, the second set of criteria including criteria that are satisfied when the first respective object in the field of view of the one or more cameras is a second distance from the one or more cameras, the second distance being less than the first distance;
including,
Displaying the camera user interface;
A non-transitory computer-readable storage medium containing instructions.
[Item 310]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
via the display device, a camera user interface,
a first region including a first representation of a first portion of a field of view of the one or more cameras;
a second region outside the first region and visually distinct from the first region;
1. A camera user interface comprising:
displaying, in the second region, a second portion of the field of view of the one or more cameras with a first visual appearance in accordance with a determination that a first set of respective criteria is satisfied, the respective criteria including criteria that are satisfied when a first respective object in the field of view of the one or more cameras is a first distance from the one or more cameras;
ceasing to display, in the second region, the second portion of the field of view of the one or more cameras in the first visual appearance in accordance with a determination that a second set of respective criteria is satisfied, the second set of criteria including criteria that are satisfied when the first respective object in the field of view of the one or more cameras is a second distance from the one or more cameras, the second distance being less than the first distance;
including,
Displaying the camera user interface;
An electronic device that contains instructions.
[Item 311]
1. An electronic device comprising:
A display device;
One or more cameras;
means for displaying a camera user interface via the display device, the camera user interface comprising:
a first region including a first representation of a first portion of a field of view of the one or more cameras;
a second region outside the first region and visually distinct from the first region;
displaying, in the second region, a second portion of the field of view of the one or more cameras with a first visual appearance in accordance with a determination that a first set of respective criteria is satisfied, the respective criteria including criteria that are satisfied when a first respective object in the field of view of the one or more cameras is a first distance from the one or more cameras;
ceasing to display, in the second region, the second portion of the field of view of the one or more cameras in the first visual appearance in accordance with a determination that a second set of respective criteria is satisfied, the second set of criteria including criteria that are satisfied when the first respective object in the field of view of the one or more cameras is a second distance from the one or more cameras, the second distance being less than the first distance;
including,
Means,
An electronic device comprising:
[Item 312]
1. A method comprising:
1. An electronic device having a display device, a first camera having a field of view, and a second camera having a field of view wider than the field of view of the first camera,
displaying, via the display device, a camera user interface including a representation of at least a portion of a field of view of one or more cameras displayed at a first zoom level, the camera user interface comprising:
a first region including a representation of a first portion of the field of view of the first camera at the first zoom level;
a second region including a representation of a first portion of the field of view of the second camera at the first zoom level; and
and
receiving, while displaying via the display device, the camera user interface including the representation of at least a portion of a field of view of the one or more cameras displayed at the first zoom level, a first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to a second zoom level;
in response to receiving the first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to the second zoom level.
displaying, in the first region, a representation of a second portion of the field of view of the first camera at the second zoom level, the representation excluding at least a subset of the first portion of the field of view of the first camera;
displaying, in the second region, a representation of a second portion of the field of view of the second camera that overlaps with the subset of the portion of the field of view of the first camera that is excluded from the second portion of the field of view of the first camera at the second zoom level without displaying, in the second region, a representation of the subset of the portion of the field of view of the first camera that is excluded from the second portion of the field of view of the first camera;
A method comprising:
[Item 313]
Item 313. The method of item 312, wherein the first portion of the field of view of the second camera is different from the second portion of the field of view of the second camera.
[Item 314]
receiving a second request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to a third zoom level while displaying the representation of the second portion of the field of view of the first camera at the second zoom level in the first region and displaying the representation of the second portion of the field of view of the second camera at the second zoom level in the second region;
in response to receiving the second request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to the third zoom level.
upon determining that the third zoom level is within a first range of zoom values,
displaying a representation of a third portion of the field of view of the first camera at the third zoom level in the first area;
displaying a representation of a fourth portion of the field of view of the first camera at the third zoom level in the second area; and
314. The method of claim 312 or 313, further comprising:
[Item 315]
receiving a third request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to a fourth zoom level while displaying, in the first region, the representation of the third portion of the field of view of the first camera at the third zoom level and displaying, in the second region, the representation of the fourth portion of the field of view of the first camera at the third zoom level;
in response to receiving the third request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to the fourth zoom level.
upon determining that the fourth zoom level is within a second range of zoom values,
displaying, in the first region, a representation of a fifth portion of the field of view of the third camera at the fourth zoom level, the fifth portion excluding at least a subset of the third portion of the field of view of the third camera;
displaying, in the second region, a representation of a fifth portion of the field of view of the first camera that overlaps with the subset of the portion of the field of view of the third camera that is excluded from the fifth portion of the field of view of the third camera at the fourth zoom level without displaying, in the second region, a representation of the subset of the portion of the field of view of the third camera that is excluded from the fifth portion of the field of view of the third camera;
315. The method of claim 314, further comprising:
[Item 316]
receiving a fourth request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to a fifth zoom level while displaying, in the first region, the representation of the fifth portion of the field of view of the third camera, at the fourth zoom level, that excludes at least the subset of the third portion of the field of view of the third camera, and displaying, in the second region, the representation of the fifth portion of the field of view of the first camera, that overlaps with the subset of the portion of the field of view of the third camera that is excluded from the fifth portion of the field of view of the third camera, at the fourth zoom level, without displaying, in the second region, the representation of the subset of the portion of the field of view of the third camera that is excluded from the fifth portion of the field of view of the third camera;
in response to receiving the fourth request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to the fifth zoom level.
upon determining that the fifth zoom level is within a third zoom value range,
displaying, in the first area, a representation of a sixth portion of the field of view of the third camera at the fifth zoom level; and
displaying, in the second area, a representation of a seventh portion of the field of view of the third camera at the fifth zoom level; and
316. The method of claim 315, further comprising:
[Item 317]
receiving a first request to reduce the zoom level of the representation of the portion of the field of view of the one or more cameras to a sixth zoom level while displaying, in the first region, the representation of the sixth portion of the field of view of the third camera at the fifth zoom level and displaying, in the second region, the representation of the seventh portion of the field of view of the third camera at the fifth zoom level;
in response to receiving the first request to reduce the zoom level of the representation of the portion of the field of view of the one or more cameras to the sixth zoom level;
upon determining that the sixth zoom level is within a fourth zoom value range for displaying in the second region,
displaying, in the first region, a representation of an eighth portion of the field of view of the third camera at the sixth zoom level, the eighth portion excluding at least a subset of the third portion of the field of view of the third camera;
displaying, in the second region, a representation of an eighth portion of the field of view of the first camera that overlaps with the subset of the portion of the field of view of the third camera that is excluded from the eighth portion of the field of view of the third camera at the sixth zoom level without displaying, in the second region, a representation of the subset of the portion of the field of view of the third camera that is excluded from the eighth portion of the field of view of the third camera;
317. The method of claim 316, further comprising:
[Item 318]
receiving a second request to reduce the zoom level of the representation of the portion of the field of view of the one or more cameras to a seventh zoom level while displaying, in the first region, the representation of the eighth portion of the field of view of the third camera that overlaps with at least the subset of the eighth portion of the field of view of the first camera at the sixth zoom level without displaying, in the first region, the representation of at least the subset of the eighth portion of the field of view of the first camera, and displaying, in the second region, the representation of the eighth portion of the field of view of the first camera at the sixth zoom level that excludes at least the subset of the eighth portion of the field of view of the first camera;
in response to receiving the second request to reduce the zoom level of the representation of the portion of the field of view of the one or more cameras to the seventh zoom level;
in response to determining that the seventh zoom level is within a fifth zoom value range,
displaying a representation of a ninth portion of the field of view of the first camera at the seventh zoom level in the first area; and
displaying a representation of a tenth portion of the field of view of the first camera at the seventh zoom level in the second area; and
318. The method of claim 317, further comprising:
[Item 319]
Item 319. The method of any one of items 312 to 318, wherein the second area includes a plurality of control affordances for controlling a plurality of camera settings.
[Item 320]
receiving an input at a location on the camera user interface;
in response to receiving the input at the location on the camera user interface,
configuring the electronic device to focus on the location of the input in accordance with determining that the location of the input is within the first region;
ceasing to configure the electronic device to focus on the location of the input in accordance with determining that the location of the input is within the second region; and
320. The method of any one of claims 312 to 319, further comprising:
[Item 321]
receiving a request to capture media while displaying, via the display device, the camera user interface including the representation of at least a portion of a field of view of the one or more cameras displayed at the first zoom level;
In response to receiving the request to capture media, capturing media corresponding to the field of view of the one or more cameras, the media including content from the first portion of the field of view of the first camera at the first zoom level and content from the first portion of the field of view of the second camera at the first zoom level;
receiving a request to edit the captured media after capturing the media;
in response to receiving the request to edit the captured media, displaying a representation of the captured media including at least a portion of the content from the first portion of the field of view of the first camera at the first zoom level and at least a portion of the content from the first portion of the field of view of the second camera at the first zoom level;
313. The method of claim 312, further comprising:
[Item 322]
322. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, a first camera having a field of view, and a second camera having a field of view wider than the field of view of the first camera, the one or more programs including instructions for performing the method of any one of items 312 to 321.
[Item 323]
1. An electronic device comprising:
A display device;
a first camera having a field of view;
a second camera having a field of view wider than the field of view of the first camera;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs contain instructions for performing the method according to any one of items 312 to 321.
[Item 324]
1. An electronic device comprising:
A display device;
a first camera having a field of view;
- a second camera having a field of view wider than the field of view of the first camera; and means for performing the method according to any one of items 312 to 321;
An electronic device comprising:
[Item 325]
1. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, a first camera having a field of view, and a second camera having a field of view wider than the field of view of the first camera, the one or more programs comprising:
a camera user interface including a representation of at least a portion of a field of view of one or more cameras displayed at a first zoom level via the display device,
a first region including a representation of a first portion of the field of view of the first camera at the first zoom level;
a second region including a representation of a first portion of the field of view of the second camera at the first zoom level; and
displaying a camera user interface,
receiving, while displaying via the display device, the camera user interface including the representation of at least a portion of a field of view of the one or more cameras displayed at the first zoom level, a first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to a second zoom level;
in response to receiving the first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to the second zoom level.
displaying, in the first region, a representation of a second portion of the field of view of the first camera at the second zoom level, the representation excluding at least a subset of the first portion of the field of view of the first camera;
displaying, in the second region, a representation of a second portion of the field of view of the second camera that overlaps with the subset of the portion of the field of view of the first camera that is excluded from the second portion of the field of view of the first camera at the second zoom level without displaying, in the second region, a representation of the subset of the portion of the field of view of the first camera that is excluded from the second portion of the field of view of the first camera.
A non-transitory computer-readable storage medium containing instructions.
[Item 326]
1. An electronic device comprising:
A display device;
a first camera having a field of view;
a second camera having a field of view wider than the field of view of the first camera;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
a camera user interface including a representation of at least a portion of a field of view of one or more cameras displayed at a first zoom level via the display device,
a first region including a representation of a first portion of the field of view of the first camera at the first zoom level;
a second region including a representation of a first portion of the field of view of the second camera at the first zoom level; and
displaying a camera user interface,
receiving, while displaying via the display device, the camera user interface including the representation of at least a portion of a field of view of the one or more cameras displayed at the first zoom level, a first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to a second zoom level;
in response to receiving the first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to the second zoom level.
displaying, in the first region, a representation of a second portion of the field of view of the first camera at the second zoom level, the representation excluding at least a subset of the first portion of the field of view of the first camera;
displaying, in the second region, a representation of a second portion of the field of view of the second camera that overlaps with the subset of the portion of the field of view of the first camera that is excluded from the second portion of the field of view of the first camera at the second zoom level without displaying, in the second region, a representation of the subset of the portion of the field of view of the first camera that is excluded from the second portion of the field of view of the first camera.
An electronic device that contains instructions.
[Item 327]
1. An electronic device comprising:
A display device;
a first camera having a field of view;
a second camera having a field of view wider than the field of view of the first camera;
One or more cameras;
means for displaying, via the display device, a camera user interface including a representation of at least a portion of a field of view of one or more cameras displayed at a first zoom level, the camera user interface comprising:
a first region including a representation of a first portion of the field of view of the first camera at the first zoom level;
a second region including a representation of a first portion of the field of view of the second camera at the first zoom level; and
and
means for receiving, while displaying via the display device, the camera user interface including the representation of at least a portion of the field of view of the one or more cameras displayed at the first zoom level, a first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to a second zoom level;
in response to receiving the first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to the second zoom level.
displaying, in the first region, a representation of a second portion of the field of view of the first camera at the second zoom level, the representation excluding at least a subset of the first portion of the field of view of the first camera;
displaying, in the second region, a representation of a second portion of the field of view of the second camera that overlaps with the subset of the portion of the field of view of the first camera that is excluded from the second portion of the field of view of the first camera at the second zoom level without displaying, in the second region, a representation of the subset of the portion of the field of view of the first camera that is excluded from the second portion of the field of view of the first camera.
Means,
An electronic device comprising:
[Item 328]
1. A method comprising:
In an electronic device having a display device and one or more cameras,
displaying, via the display device, a camera user interface including a first representation of at least a portion of a field of view of the one or more cameras displayed at a first zoom level, the camera user interface including a plurality of zoom affordances, the plurality of zoom affordances including a first zoom affordance and a second zoom affordance;
receiving a first gesture directed toward one of the plurality of zoom affordances while displaying the plurality of zoom affordances;
In response to receiving the first gesture,
displaying a second representation of at least a portion of a field of view of the one or more cameras at a second zoom level in accordance with determining that the first gesture is a gesture directed toward the first zoom affordance;
displaying a third representation of at least a portion of a field of view of the one or more cameras at a third zoom level different from the first zoom level and the second zoom level in accordance with determining that the first gesture is a gesture directed toward the second zoom affordance;
A method comprising:
[Item 329]
maintaining visual characteristics of the second zoom affordance and modifying visual characteristics of the first zoom affordance in accordance with the determination that the first gesture is directed toward the first zoom affordance;
maintaining the visual characteristics of the first zoom affordance and modifying the visual characteristics of the second zoom affordance in accordance with the determination that the first gesture is the gesture directed toward the second zoom affordance;
329. The method of claim 328, further comprising:
[Item 330]
Modifying the visual characteristics of the first zoom affordance includes:
resizing the first zoom affordance from a first size to a second size, the second size of the first zoom affordance being different from a current size of the second zoom affordance; and
changing a color of the first zoom affordance from a first color to a second color, the second color of the first zoom affordance being different from a current color of the second zoom affordance;
330. The method of claim 329, comprising one or more of the following:
[Item 331]
receiving a second gesture directed toward the first zoom affordance while displaying the second representation of at least the portion of the field of view of the one or more cameras at the second zoom level;
in response to receiving the second gesture directed toward the first zoom affordance;
displaying a fourth representation of at least a portion of a field of view of the one or more cameras at a fourth zoom level in accordance with a determination that the first zoom affordance satisfies a first respective criterion;
In response to determining that the first zoom affordance satisfies a second respective criterion,
ceasing to display the fourth representation of at least the portion of the field of view of the one or more cameras at the fourth zoom level; and
maintaining display of the second representation of the portion of the field of view of the one or more cameras at the second zoom level; and
331. The method of any one of claims 328 to 330, further comprising:
[Item 332]
The first gesture is a gesture of a first type, and the method further comprises:
receiving a third gesture directed at the first zoom affordance, the third gesture being a second type of gesture different from the first type of gesture;
displaying a control for changing a zoom level of a first currently displayed representation in response to receiving the third gesture directed at the first zoom affordance, the control for changing the zoom level of the first currently displayed representation including a first indication of a current zoom level of the first currently displayed representation;
receiving, while displaying the control for changing the zoom level of the first currently displayed representation, a fourth gesture directed at the control for changing the zoom level;
in response to receiving the fourth gesture directed at the control for changing the zoom level;
displaying a second indication of a fifth zoom level on the control for changing the zoom level; and
displaying a fourth representation of the field of view of the one or more cameras at the fifth zoom level; and
332. The method of any one of claims 328 to 331, further comprising:
[Item 333]
Item 333. The method of item 332, wherein the first indication of the zoom level of the first currently displayed representation is displayed at a location corresponding to a selected zoom level on the control for changing the zoom level of the first currently displayed representation.
[Item 334]
Item 334. The method of item 332 or 333, wherein the control for changing the zoom level of the first currently displayed representation is a rotatable user interface element.
[Item 335]
5. The method of claim 332, wherein displaying the control for changing the zoom level of the first currently displayed representation comprises replacing the display of the plurality of zoom affordances with the display of the control for changing the zoom level of the first currently displayed representation.
[Item 336]
the third gesture includes a movement in a first direction;
Item 336. The method of any one of items 332 to 335, wherein the fourth gesture includes a movement in a second direction different from the first direction.
[Item 337]
detecting a lift-off of the fourth gesture after receiving the fourth gesture directed at the control for changing the zoom level;
After detecting a lift-off of the fourth gesture,
ceasing to display the control for changing the zoom level in accordance with a determination that no gesture is directed toward the control for changing the zoom level within a predetermined time frame;
337. The method of any one of claims 332 to 336, further comprising:
[Item 338]
Displaying the control for changing the zoom level of the first currently displayed representation includes:
8. The method of any one of claims 332 to 337, comprising simultaneously displaying a plurality of visual indicators on an adjustable control, wherein each zoom level of the plurality of zoom levels corresponding to the plurality of zoom affordances is represented by a different corresponding visual indicator of the plurality of visual indicators.
[Item 339]
In response to receiving the first gesture,
339. The method of any one of claims 328 to 338, further comprising: configuring the electronic device to focus on a location of the first gesture in accordance with a determination that the first gesture is not directed toward at least one of the plurality of zoom affordances and is directed toward a first portion of the first representation.
[Item 340]
In response to receiving the first gesture,
340. The method of claim 328, further comprising: ceasing to configure the electronic device to focus on a location of the first gesture in accordance with a determination that the first gesture is not directed toward at least one of the plurality of zoom affordances and is directed toward a second portion of the first representation.
[Item 341]
the second representation of at least the portion of the field of view of the one or more cameras is a representation of at least a portion of the field of view of a first camera of the one or more cameras;
the third representation of at least the portion of the field of view of the one or more cameras is a representation of at least a portion of the field of view of a second camera of the one or more cameras;
Item 341. The method of any one of items 328 to 340, wherein the first camera is different from the second camera.
[Item 342]
Displaying the second representation of at least the portion of the field of view of the one or more cameras at the second zoom level includes:
displaying a portion of the second representation in a first visual appearance in accordance with determining that the second zoom level is a sixth zoom level;
displaying a portion of the second representation in a second visual appearance different from the first visual appearance in accordance with a determination that the second zoom level is a seventh zoom level different from the sixth zoom level;
342. The method of any one of claims 328 to 341, comprising:
[Item 343]
the plurality of zoom affordances includes a third zoom affordance;
The method comprises:
receiving a request to change the zoom level of the second currently displayed representation;
in response to receiving the request to change the zoom level of the second currently displayed representation to an eighth zoom level;
replacing the display of the first zoom affordance with a display of a fourth zoom affordance corresponding to the eighth zoom level in accordance with a determination that the eighth zoom level is within a first zoom value range;
replacing the presentation of the second zoom affordance with a presentation of the fourth zoom affordance corresponding to the eighth zoom level in accordance with a determination that the eighth zoom level is within a second zoom value range;
replacing the display of the third zoom affordance with a display of the fourth zoom affordance corresponding to the eighth zoom level in accordance with a determination that the eighth zoom level is within a third zoom value range;
343. The method of any one of claims 328 to 342, further comprising:
[Item 344]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs including instructions for performing the method according to any one of items 328 to 343.
[Item 345]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs contain instructions for performing the method according to any one of items 328 to 343.
[Item 346]
1. An electronic device comprising:
A display device;
One or more cameras and means for carrying out the method according to any one of items 328 to 343;
An electronic device comprising:
[Item 347]
1. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs comprising:
displaying, via the display device, a camera user interface including a first representation of at least a portion of a field of view of the one or more cameras displayed at a first zoom level, the camera user interface including a plurality of zoom affordances, the plurality of zoom affordances including a first zoom affordance and a second zoom affordance;
receiving a first gesture directed toward one of the plurality of zoom affordances while displaying the plurality of zoom affordances;
In response to receiving the first gesture,
displaying a second representation of at least a portion of a field of view of the one or more cameras at a second zoom level in accordance with determining that the first gesture is a gesture directed toward the first zoom affordance;
displaying a third representation of at least a portion of a field of view of the one or more cameras at a third zoom level different from the first zoom level and the second zoom level in accordance with determining that the first gesture is a gesture directed toward the second zoom affordance.
A non-transitory computer-readable storage medium containing instructions.
[Item 348]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
displaying, via the display device, a camera user interface including a first representation of at least a portion of a field of view of the one or more cameras displayed at a first zoom level, the camera user interface including a plurality of zoom affordances, the plurality of zoom affordances including a first zoom affordance and a second zoom affordance;
receiving a first gesture directed toward one of the plurality of zoom affordances while displaying the plurality of zoom affordances;
In response to receiving the first gesture,
displaying a second representation of at least a portion of a field of view of the one or more cameras at a second zoom level in accordance with determining that the first gesture is a gesture directed toward the first zoom affordance;
displaying a third representation of at least a portion of a field of view of the one or more cameras at a third zoom level different from the first zoom level and the second zoom level in accordance with determining that the first gesture is a gesture directed toward the second zoom affordance.
An electronic device that contains instructions.
[Item 349]
1. An electronic device comprising:
A display device;
One or more cameras;
means for displaying, via the display device, a camera user interface including a first representation of at least a portion of a field of view of the one or more cameras displayed at a first zoom level, the camera user interface including a plurality of zoom affordances, the plurality of zoom affordances including a first zoom affordance and a second zoom affordance;
means for receiving a first gesture directed toward one of the plurality of zoom affordances while displaying the plurality of zoom affordances;
In response to receiving the first gesture,
displaying a second representation of at least a portion of a field of view of the one or more cameras at a second zoom level in accordance with determining that the first gesture is a gesture directed toward the first zoom affordance;
displaying a third representation of at least a portion of a field of view of the one or more cameras at a third zoom level different from the first zoom level and the second zoom level in accordance with determining that the first gesture is a gesture directed toward the second zoom affordance.
Means,
An electronic device comprising:
[Item 350]
1. A method comprising:
In an electronic device having a display device and one or more cameras,
displaying, via the display device, a camera user interface, the camera user interface comprising:
a camera display area including a representation of the field of view of the one or more cameras; and
a camera control area including a first plurality of camera mode affordances at a first position indicating different operational modes of the one or more cameras;
and
detecting a first gesture directed at the camera user interface while displaying the first plurality of camera mode affordances indicating different operational modes of the one or more cameras;
in response to detecting the first gesture directed toward the camera user interface;
displaying a first set of camera setting affordances at the first location, the first set of camera setting affordances being settings that adjust image capture for a first camera mode; and
ceasing to display the first plurality of camera mode affordances indicating different operational modes of the camera at the first position; and
receiving a second gesture directed at the camera user interface while displaying the first set of camera setting affordances at the first location and while the electronic device is configured to capture media in the first camera mode;
in response to receiving the second gesture directed at the camera user interface;
configuring the electronic device to capture media in a second camera mode different from the first camera mode;
displaying a second set of camera setting affordances at the first location without displaying the first plurality of camera mode affordances indicating different operational modes of the one or more cameras at the first location; and
A method comprising:
[Item 351]
351. The method of claim 350, wherein the second set of camera setting affordances are settings that adjust image capture of the second camera mode.
[Item 352]
352. The method of claim 350 or 351, wherein the second set of camera setting affordances is different from the first set of camera setting affordances.
[Item 353]
The method of any one of items 350 to 352, wherein the first set of camera setting affordances includes one or more of a flash setting affordance, an image capture setting affordance, an aspect ratio camera setting affordance, a filter setting camera setting affordance, a high dynamic range imaging camera setting affordance, and a low light camera setting affordance.
[Item 354]
Detecting the first gesture includes detecting a first contact directed toward the camera user interface, the method further comprising:
detecting a completion of the first gesture before detecting a lift-off of the first contact while detecting the first gesture;
providing a tactile output in response to detecting completion of the first gesture prior to detecting lift-off of the first contact;
354. The method of any one of claims 350 to 353, further comprising:
[Item 355]
detecting a third gesture directed toward the camera user interface while displaying the camera user interface;
in response to detecting the third gesture directed toward the camera user interface;
pursuant to determining that the second set of camera setting affordances was displayed when the third gesture was detected,
configuring the electronic device to capture media in a third camera mode;
displaying a third set of camera setting affordances at the first location without displaying the first plurality of camera mode affordances indicating different operational modes of the one or more cameras; and
responsive to a determination that the first plurality of camera mode affordances were displayed when the third gesture was detected,
displaying a second plurality of camera mode affordances indicating different camera operational modes of the one or more cameras at the first location without displaying the second set of camera setting affordances and the third set of camera setting affordances, and configuring the electronic device to capture media in the first camera mode and the third camera mode, wherein the second plurality of camera mode affordances are different from the first plurality of camera mode affordances;
5. The method of any one of claims 350 to 354, further comprising:
[Item 356]
356. The method of claim 355, wherein displaying the third set of camera setting affordances at the first location includes displaying an animation of the third set of camera setting affordances replacing the first set of camera setting affordances.
[Item 357]
The representation of the field of view of the one or more cameras is a first representation of a first portion of the field of view of the one or more cameras, and the method further comprises:
in response to receiving the second gesture directed at the camera user interface;
357. The method of any one of claims 350 to 356, further comprising: displaying a second representation of a second portion of the field of view of the one or more cameras in accordance with a determination that the electronic device is configured to capture media via a first type of camera, the second portion of the field of view not including any part of the first portion of the field of view of the one or more cameras.
[Item 358]
The representation of the field of view of the one or more cameras is a third representation of a third portion of the field of view of the one or more cameras, and the method further comprises:
in response to receiving the second gesture directed at the camera user interface;
358. The method of any one of claims 350 to 357, further comprising: displaying a fourth representation of a fourth portion of a field of view of the one or more cameras in accordance with a determination that the electronic device is configured to capture media using a second type of camera, the fourth portion of the field of view of the one or more cameras including a portion of the field of view of the one or more cameras that is not in the third portion of the field of view of the one or more cameras.
[Item 359]
the representation of the field of view of the one or more cameras is a fifth representation of a fifth portion of the field of view of the one or more cameras;
the fifth representation is displayed at a second location on the display device; and
The method comprises:
in response to receiving the second gesture directed at the camera user interface;
in response to determining that the electronic device is configured to capture media using a third type camera;
Item 359. The method of item 357 or 358, further comprising moving the fifth representation from the second position on the display device to a third position on the display device.
[Item 360]
the first camera mode is a portrait mode;
the representation of the field of view of the one or more cameras is displayed at a first zoom level;
The method comprises:
while displaying the first plurality of camera mode affordances;
Displaying an affordance for controlling a lighting effect operation and a zoom affordance;
receiving a fourth gesture directed toward the zoom affordance while displaying the zoom affordance; and
in response to receiving the fourth gesture directed toward the zoom affordance, displaying a representation of the field of view of the one or more cameras at a second zoom level;
360. The method of any one of claims 350 to 359, further comprising:
[Item 361]
The first plurality of camera mode affordances include:
a first camera mode affordance that, when selected, causes the electronic device to capture media in the first camera mode in response to a request to capture media;
a second camera mode affordance that, when selected, causes the electronic device to capture media in the second camera mode in response to a request to capture media; and
361. The method of any one of items 350 to 360, comprising:
[Item 362]
362. The method of claim 361, wherein while displaying the first plurality of camera mode affordances, the first camera mode affordance is displayed adjacent to the second camera mode affordance.
[Item 363]
The method of claim 361 or 362, wherein prior to detecting the first gesture directed toward the camera user interface and while displaying the first plurality of camera mode affordances, the first camera mode affordance is displayed along with an indication that the first camera mode is active.
[Item 364]
detecting a fifth gesture directed toward the camera user interface while displaying the second set of camera setting affordances at the first location;
in response to detecting the fifth gesture directed toward the camera user interface;
displaying a third plurality of camera mode affordances indicating different camera operational modes of the one or more cameras;
the third plurality of camera mode affordances includes the second camera mode affordance;
the second camera mode affordance is displayed along with an indication that the second camera mode is active.
And,
364. The method of claim 362 or 363, further comprising:
[Item 365]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs including instructions for performing the method according to any one of items 350 to 364.
[Item 366]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs contain instructions for performing the method according to any one of items 350 to 364.
[Item 367]
1. An electronic device comprising:
A display device;
One or more cameras and means for carrying out the method according to any one of items 350 to 364;
An electronic device comprising:
[Item 368]
1. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs comprising:
via the display device, a camera user interface,
a camera display area including a representation of the field of view of the one or more cameras; and
a camera control area including a first plurality of camera mode affordances at a first position indicating different operational modes of the one or more cameras;
displaying a camera user interface,
detecting a first gesture directed at the camera user interface while displaying the first plurality of camera mode affordances indicating different operational modes of the one or more cameras;
in response to detecting the first gesture directed toward the camera user interface;
displaying a first set of camera setting affordances at the first location, the first set of camera setting affordances being settings that adjust image capture for a first camera mode;
ceasing to display the first plurality of camera mode affordances indicating different operational modes of the camera at the first position;
receiving a second gesture directed at the camera user interface while displaying the first set of camera setting affordances at the first location and while the electronic device is configured to capture media in the first camera mode;
in response to receiving the second gesture directed at the camera user interface;
configuring the electronic device to capture media in a second camera mode different from the first camera mode;
displaying a second set of camera setting affordances at the first location without displaying the first plurality of camera mode affordances indicating different operational modes of the one or more cameras at the first location.
A non-transitory computer-readable storage medium containing instructions.
[Item 369]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
via the display device, a camera user interface,
a camera display area including a representation of the field of view of the one or more cameras; and
a camera control area including a first plurality of camera mode affordances at a first position indicating different operational modes of the one or more cameras;
displaying a camera user interface,
detecting a first gesture directed at the camera user interface while displaying the first plurality of camera mode affordances indicating different operational modes of the one or more cameras;
in response to detecting the first gesture directed toward the camera user interface;
displaying a first set of camera setting affordances at the first location, the first set of camera setting affordances adjusting image capture for a first camera mode;
ceasing to display the first plurality of camera mode affordances indicating different operational modes of the camera at the first position;
receiving a second gesture directed at the camera user interface while displaying the first set of camera setting affordances at the first location and while the electronic device is configured to capture media in the first camera mode;
in response to receiving the second gesture directed at the camera user interface;
configuring the electronic device to capture media in a second camera mode different from the first camera mode;
displaying a second set of camera setting affordances at the first location without displaying the first plurality of camera mode affordances indicating different operational modes of the one or more cameras at the first location.
An electronic device that contains instructions.
[Item 370]
1. An electronic device comprising:
A display device;
One or more cameras;
means for displaying a camera user interface via the display device, the camera user interface comprising:
a camera display area including a representation of the field of view of the one or more cameras; and
a camera control area including a first plurality of camera mode affordances at a first position indicating different operational modes of the one or more cameras;
and
means for detecting a first gesture directed at the camera user interface while displaying the first plurality of camera mode affordances indicating different operational modes of the one or more cameras;
in response to detecting the first gesture directed toward the camera user interface;
displaying a first set of camera setting affordances at the first location, the first set of camera setting affordances being settings that adjust image capture for a first camera mode;
ceasing to display the first plurality of camera mode affordances indicating different operational modes of the camera at the first position.
Means,
means for receiving a second gesture directed at the camera user interface while displaying the first set of camera setting affordances at the first location and while the electronic device is configured to capture media in the first camera mode;
in response to receiving the second gesture directed at the camera user interface;
configuring the electronic device to capture media in a second camera mode different from the first camera mode;
displaying a second set of camera setting affordances at the first location without displaying the first plurality of camera mode affordances indicating different operational modes of the one or more cameras at the first location.
Means,
An electronic device comprising:
[Item 371]
1. A method comprising:
In an electronic device having a display device,
receiving a request to display a representation of a previously captured media item, the representation including first content from a first portion of a field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras;
in response to receiving the request to display the representation of the previously captured media item,
Following a determination that the automatic media compensation criteria have been met,
displaying via the display device a representation of the previously captured media item including a combination of the first content and the second content;
displaying a first auto-adjustment affordance indicating that auto-adjustment has been applied to the previously captured media item;
Pursuant to a determination that the automatic media compensation criteria have not been met,
displaying, via the display device, a representation of the previously captured media item that includes the first content and that does not include the second content;
displaying a second auto-adjustment affordance indicating that the auto-adjustment was not applied to the previously captured media item, the second auto-adjustment affordance being visually distinct from the first auto-adjustment affordance; and
A method comprising:
[Item 372]
prior to receiving the request to display the representation of the previously captured media item, displaying via the display device a camera user interface, the camera user interface comprising:
a first region including a representation of the first portion of the field of view of the one or more cameras;
a second region including a representation of the second portion of the field of view of the one or more cameras, the representation of the second portion of the field of view of the one or more cameras being visually distinct from the representation of the first portion;
372. The method of claim 371, further comprising:
[Item 373]
(cancel).
[Item 374]
receiving a first input corresponding to a selection of the first auto-adjustment affordance while displaying the first auto-adjustment affordance and displaying, via the display device, the representation of the previously captured media item including the combination of the first content and the second content;
displaying, via the display device, the representation of the previously captured media item including the first content and not including the second content in response to receiving the first input corresponding to a selection of the first auto-adjust affordance;
372. The method of claim 371, further comprising:
[Item 375]
receiving a second input corresponding to a selection of the second auto-adjustment affordance while displaying the second auto-adjustment affordance and displaying, via the display device, the representation of the previously captured media item that includes the first content and does not include the second content;
displaying, via the display device, the representation of the previously captured media item including the combination of the first content and the second content in response to receiving the second input corresponding to a selection of the second auto-adjust affordance;
372. The method of claim 371, further comprising:
[Item 376]
the previously captured media item is an image;
the representation of the previously captured media item including the combination of the first content and the second content includes an edge portion;
the representation of the previously captured media item including the first content and not including the second content further does not include the edge portion;
Item 371, 372, and the method according to any one of items 374 or 375.
[Item 377]
the previously captured media item is a video;
the representation of the previously captured media item including the combination of the first content and the second content includes a first amount of movement;
the representation of the previously captured media item that includes the first content and does not include the second content includes a second amount of movement that is different from the first amount of movement.
7. The method according to any one of items 371, 372, and 374 to 376.
[Item 378]
the previously captured media item includes an identifiable object;
the representation of the previously captured media item including the combination of the first content and the second content includes a portion of the identifiable object;
the representation of the previously captured media item that includes the first content and does not include the second content does not include the portion of the identifiable object;
8. The method according to any one of items 371, 372, and 374 to 377.
[Item 379]
The method of any one of items 371, 372, and 374 to 378, wherein the automatic media correction criteria include a second criterion that is met when the previously captured media item is determined to include one or more visual aspects that can be corrected using the second content from the second portion of the field of view of the one or more cameras.
[Item 380]
380. The method of claim 379, wherein the automatic media correction criteria includes a third criterion that is satisfied when the second criterion was satisfied before the previously captured media item was displayed.
[Item 381]
The method of any one of claims 371, 372, and 374 to 380, further comprising, in response to receiving the request to display the representation of the previously captured media item and in accordance with a determination that automatic media correction criteria are satisfied, displaying a third auto-adjustment affordance, when selected, that causes the electronic device to perform a first action, simultaneously with the representation of the previously captured media item including a combination of the first content and the second content.
[Item 382]
382. The method of any one of claims 371, 372, and 374 to 381, wherein the automatic media correction criteria include criteria that are met when an auto-apply setting is enabled and that are not met when the auto-apply setting is disabled.
[Item 383]
383. The method of any one of items 371, 372, and 374 to 382, wherein the auto-apply settings are user-configurable settings.
[Item 384]
in response to receiving the request to display the representation of the previously captured media item and in response to a determination that an automatic media correction criterion has not been satisfied;
The method of any one of claims 371, 372, and 374 to 383, further comprising: in accordance with a determination that a first set of criteria is met, displaying, concurrently with the representation of the previously captured media item that includes the first content and does not include the second content, a fourth auto-adjusting affordance that, when selected, causes the electronic device to perform a second action.
[Item 385]
in response to receiving the request to display the representation of the previously captured media item and in response to a determination that an automatic media correction criterion has not been satisfied;
The method of any one of claims 371, 372, and 374-384, further comprising displaying a non-selectable indicator concurrently with the representation of the previously captured media item that includes the first content and does not include the second content in accordance with a determination that the first set of criteria is not satisfied.
[Item 386]
in response to receiving the request to display the representation of the previously captured media item,
displaying a content processing indicator in accordance with a determination that the content processing criteria has been satisfied;
ceasing to display the content processing indicator in response to a determination that the content processing criterion has not been satisfied; and
386. The method of any one of claims 371, 372, and 374 to 385, further comprising:
[Item 387]
40. The method of claim 386, further comprising ceasing display of the content processing indicator while displaying the content processing indicator and pursuant to a determination that the content processing criteria is no longer satisfied.
[Item 388]
387. The method of claim 386, further comprising: while displaying the representation of the previously captured media item that includes the first content and does not include the second content, and while displaying the content processing indicator, and in accordance with a determination that the content processing criteria are no longer satisfied, replacing the representation of the previously captured media item that includes the first content and does not include the second content with the representation of the previously captured media item that includes a combination of the first content and the second content.
[Item 389]
displaying a second representation of the previously captured media item that includes the first content and does not include the second content while displaying the representation of the previously captured media item that includes the first content and does not include the second content and while displaying the content processing indicator;
while displaying the second representation of the previously captured media item including the first content and not including the second content, and pursuant to a determination that the content processing criteria is no longer satisfied, replacing the second representation of the previously captured media item including the first content and not including the second content with a second representation of the previously captured media item including a combination of the first content and the second content;
387. The method of claim 386, further comprising:
[Item 390]
The method of any one of claims 371, 372, and 374 to 389, further comprising: while displaying the representation of the previously captured media item that includes a combination of the first content and the second content, displaying an animation of the representation of the previously captured media item that includes the combination of the first content and the second content transitioning to the representation of the previously captured media item that includes the first content and does not include the second content.
[Item 391]
390. The method of claim 371, 372, and 374, further comprising: while displaying the representation of the previously captured media item that includes the first content and does not include the second content, displaying an animation of the representation of the previously captured media item that includes the first content and does not include the second content transitioning to the representation of the previously captured media item that includes a combination of the first content and the second content.
[Item 392]
receiving a request to display a representation of a media item that includes third content from the first portion of a field of view of one or more cameras and does not include fourth content from the second portion of the field of view of the one or more cameras;
in response to receiving the request to display the representation of the previously captured media item, the representation including third content from the first portion of the field of view of the one or more cameras and not including fourth content from the second portion of the field of view of the one or more cameras, ceasing to display an indication that additional media content is available outside the first portion of the field of view of the one or more cameras;
402. The method of any one of claims 371, 372, and 374 to 391, further comprising:
[Item 393]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device having a display device, the one or more programs including instructions for performing the methods described in any one of items 371, 372, and 374 to 392.
[Item 394]
1. An electronic device comprising:
A display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
392。 The electronic device comprising: one or more programs comprising instructions for performing the method according to any one of items 371, 372 and 374 to 392.
[Item 395]
1. An electronic device comprising:
A display device;
Means for carrying out the method according to any one of items 371, 372 and 374 to 392;
An electronic device comprising:
[Item 396]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device having a display device, the one or more programs comprising:
receiving a request to display a representation of a previously captured media item, the representation including first content from a first portion of a field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras;
in response to receiving the request to display the representation of the previously captured media item,
Following a determination that the automatic media compensation criteria have been met,
displaying via the display device a representation of the previously captured media item including a combination of the first content and the second content;
displaying a first auto-adjustment affordance indicating that auto-adjustment has been applied to the previously captured media item;
Pursuant to a determination that the automatic media compensation criteria have not been met,
displaying, via the display device, a representation of the previously captured media item that includes the first content and that does not include the second content;
displaying a second auto-adjustment affordance indicating that the auto-adjustment was not applied to the previously captured media item, the second auto-adjustment affordance being visually distinct from the first auto-adjustment affordance;
A non-transitory computer-readable storage medium containing instructions.
[Item 397]
1. An electronic device comprising:
A display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
receiving a request to display a representation of a previously captured media item, the representation including first content from a first portion of a field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras;
in response to receiving the request to display the representation of the previously captured media item,
Following a determination that the automatic media compensation criteria have been met,
displaying via the display device a representation of the previously captured media item including a combination of the first content and the second content;
displaying a first auto-adjustment affordance indicating that auto-adjustment has been applied to the previously captured media item;
Pursuant to a determination that the automatic media compensation criteria have not been met,
displaying, via the display device, a representation of the previously captured media item that includes the first content and that does not include the second content;
displaying a second auto-adjustment affordance indicating that the auto-adjustment was not applied to the previously captured media item, the second auto-adjustment affordance being visually distinct from the first auto-adjustment affordance;
An electronic device that contains instructions.
[Item 398]
1. An electronic device comprising:
A display device;
means for receiving a request to display a representation of a previously captured media item, the representation including first content from a first portion of a field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras;
in response to receiving the request to display the representation of the previously captured media item,
Following a determination that the automatic media compensation criteria have been met,
displaying via the display device a representation of the previously captured media item including a combination of the first content and the second content;
displaying a first auto-adjustment affordance indicating that auto-adjustment has been applied to the previously captured media item;
Pursuant to a determination that the automatic media compensation criteria have not been met,
displaying, via the display device, a representation of the previously captured media item that includes the first content and that does not include the second content;
displaying a second auto-adjustment affordance indicating that the auto-adjustment was not applied to the previously captured media item, the second auto-adjustment affordance being visually distinct from the first auto-adjustment affordance;
Means,
An electronic device comprising:
[Item 399]
236. The method of any one of claims 219 to 235, wherein the adjustable controls for selecting time-based representations of the first visual media corresponding to respective times are displayed at respective positions on the display device.
[Item 400]
1. A method comprising:
In an electronic device having a display device and one or more cameras,
displaying, via the display device, a media capture user interface including a representation of a field of view of the one or more cameras;
receiving, via the display device, a request to capture media while displaying the media capture user interface;
In response to receiving the request to capture media, initiating capture of media via the one or more cameras;
Detecting a movement of the electronic device at a first time after initiating capture of media via the one or more cameras;
in response to detecting a movement of the electronic device at the first time after initiating capture of media;
pursuant to a determination that a set of guidance criteria are satisfied, including criteria that are satisfied when the detected movement of the electronic device exceeds a movement threshold, displaying via the display device a visual indication of one or more differences between a pose of the electronic device when media capture was initiated and a current pose of the electronic device;
cease displaying, via the display device, the visual indication of the one or more differences between the pose of the electronic device when media capture was initiated and the current pose of the electronic device in accordance with a determination of the detected movement not satisfying the set of guidance criteria;
A method comprising:
[Item 401]
the media capture user interface includes a media capture affordance;
401. The method of claim 400, wherein receiving the request to capture media includes detecting a selection of the media capture affordance.
[Item 402]
Displaying the visual indication of one or more differences between the pose of the electronic device when capture of media was initiated and the current pose of the electronic device may further include:
displaying the visual indication with a first change in appearance in accordance with determining that the pose of the electronic device has changed in a first manner;
displaying the visual indication with a second change in appearance in response to determining that the pose of the electronic device has changed in a second manner different from the first manner;
The method according to any one of claims 400 to 401, comprising:
[Item 403]
Displaying the visual indication simultaneously
displaying the visual indication having a visual characteristic indicative of a first difference between the pose of the electronic device when capture of media was initiated and the current pose of the electronic device;
displaying the visual indication having a visual characteristic indicative of a second difference between the pose of the electronic device when media capture was initiated and the current pose of the electronic device, the first difference and the second difference being different types of differences;
Item 3. The method according to any one of items 400 to 402, comprising:
[Item 404]
the visual indication includes a first portion of the visual indication representing the pose of the electronic device when media capture was initiated, and a second portion of the visual indication representing the current pose of the electronic device;
404. The method of any one of claims 400 to 403, wherein displaying the visual indication in response to detecting a movement of the electronic device at the first time after initiating media capture includes displaying at least one of the first and second parts of the visual indication with an appearance that changes in response to a change in the pose of the electronic device after media capture has begun.
[Item 405]
the visual indication includes a portion of the visual indication;
5. The method of claim 400, wherein displaying the visual indication in response to detecting a movement of the electronic device at the first time after starting media capture includes displaying the portion of the visual indication rotated a first amount, the first amount being determined based on an amount of rotation of the electronic device.
[Item 406]
detecting a rotational movement of the electronic device at a second time after initiating capture of media while displaying the first amount of rotation, the rotated portion of the visual indication; and
in response to detecting a rotational movement of the electronic device at the second time after initiating capture of media, rotating the portion of the visual indication a second amount of rotation determined based on an amount of the detected rotational movement, the second amount of rotation being different than the first amount of rotation;
Item 405. The method of item 405, further comprising:
[Item 407]
the visual indication includes a portion of the visual indication;
407. The method of claim 406, wherein displaying the visual indication in response to detecting a movement of the electronic device at the first time after starting to capture media comprises displaying the portion of the visual indication having a first amount of skew determined based on an amount of movement of the electronic device.
[Item 408]
detecting a movement of the electronic device at a third time after initiating capture of media while displaying the first skewed, distorted portion; and
displaying the portion with a second amount of skew in response to detecting a movement of the electronic device at the third time after beginning capture of media, the second amount of skew being different from the first amount of skew;
Item 407. The method of item 407, further comprising:
[Item 409]
the visual indication includes a portion of the visual indication;
9. The method of claim 400, wherein displaying the visual indication in response to detecting a movement of the electronic device at the first time after starting to capture media comprises displaying the portion of the visual indication at a first location determined based on a position of the electronic device.
[Item 410]
detecting a translation of the electronic device at a fourth time after initiating capture of media while displaying the portion of the visual indication at the first location;
in response to detecting a translation of the electronic device at the fourth time after starting to capture media, displaying the portion of the visual indication at a second location determined based on the translation of the electronic device, the second location being different from the first location;
Item 409. The method of item 409, further comprising:
[Item 411]
Item 411. The method of any one of items 400 to 410, wherein the visual indication indicates a magnitude of the one or more differences.
[Item 412]
At a first time when the pose of the electronic device is different from the pose of the electronic device when capture of media was initiated;
the visual indication includes a first portion of the visual indication displayed at a first location on the media capture user interface, the first portion representing the pose of the electronic device when media capture was initiated;
The method of any one of items 400 to 411, wherein the visual indication includes a second portion of the visual indication representing the current pose of the electronic device at a second location on the media capture user interface that is different from the first location on the media capture user interface.
[Item 413]
detecting a movement of the electronic device at a fifth time after initiating capture of media after displaying the first portion of the visual indication at the first location and the second portion of the visual indication at the second location and while capturing the media;
in response to detecting a movement of the electronic device at the fifth time after starting to capture media;
displaying the first portion of the visual indication at the second location on the media user interface in accordance with a determination that the one or more differences between the pose of the electronic device when media capture was initiated and the current pose of the electronic device are less than one or more threshold difference amounts, wherein the first portion of the visual indication and the second portion of the visual indication overlap one another;
Item 413. The method of item 412, further comprising:
[Item 414]
While displaying said visual indication,
a portion of the displayed visual indication does not change in response to movement of the electronic device being detected;
Item 44. The method of any one of items 400 to 413, wherein a portion of the displayed visual indication changes in response to a movement of the electronic device being detected.
[Item 415]
detecting a movement of the electronic device at a seventh time after initiating capture of media;
in response to detecting a movement of the electronic device at the seventh time after starting to capture media;
ceasing to display the visual indication in accordance with a determination that the detected movement at the seventh time after initiating capture of media of the electronic device does not exceed a second movement threshold; and
415. The method of any one of claims 400 to 414, further comprising:
[Item 416]
in response to detecting a movement of the electronic device at the seventh time after starting to capture media;
416. The method of claim 415, further comprising continuing to display the visual indication in accordance with a determination that the detected movement at the seventh time after initiating capture of media of the electronic device exceeds a second movement threshold.
[Item 417]
Item 417. The method according to any one of items 400 to 416, wherein the set of guidance criteria includes criteria that are met when a low light mode is active.
[Item 418]
Item 418. The method of any one of items 400 to 417, wherein the set of guidance criteria includes criteria that are met when the electronic device is configured to capture a plurality of images over a capture duration that exceeds a threshold duration.
[Item 419]
Item 49. The method of any one of items 400 to 418, wherein the visual indication is displayed on the representation of the field of view of the one or more cameras.
[Item 420]
detecting a movement of the electronic device at an eighth time after beginning to capture media via the one or more cameras;
in response to detecting a movement of the electronic device at the eighth time after starting to capture media;
ceasing capture of media in response to a determination that the detected movement of the electronic device exceeds a second movement threshold;
420. The method of any one of claims 400 to 419, further comprising:
[Item 421]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs including instructions for performing the method according to any one of items 400 to 420.
[Item 422]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs contain instructions for performing the method according to any one of items 400 to 420.
[Item 423]
1. An electronic device comprising:
A display device;
One or more cameras and means for carrying out the method according to any one of items 400 to 420;
An electronic device comprising:
[Item 424]
1. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs comprising:
displaying, via the display device, a media capture user interface including a representation of a field of view of the one or more cameras;
receiving, via the display device, a request to capture media while displaying the media capture user interface;
In response to receiving the request to capture media, initiate capturing media via the one or more cameras;
Detecting a movement of the electronic device at a first time after initiating capture of media via the one or more cameras;
in response to detecting a movement of the electronic device at the first time after initiating capture of media;
pursuant to a determination that a set of guidance criteria are satisfied, including criteria that are satisfied when the detected movement of the electronic device exceeds a movement threshold, displaying, via the display device, a visual indication of one or more differences between a pose of the electronic device when media capture was initiated and a current pose of the electronic device;
pursuant to a determination that the detected movement does not satisfy the set of guidance criteria, ceasing to display, via the display device, the visual indication of the one or more differences between the pose of the electronic device when media capture was initiated and the current pose of the electronic device.
A non-transitory computer-readable storage medium containing instructions.
[Item 425]
1. An electronic device comprising:
A display device;
One or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
displaying, via the display device, a media capture user interface including a representation of a field of view of the one or more cameras;
receiving, via the display device, a request to capture media while displaying the media capture user interface;
In response to receiving the request to capture media, initiate capturing media via the one or more cameras;
Detecting a movement of the electronic device at a first time after initiating capture of media via the one or more cameras;
in response to detecting a movement of the electronic device at the first time after initiating capture of media;
pursuant to a determination that a set of guidance criteria are satisfied, including criteria that are satisfied when the detected movement of the electronic device exceeds a movement threshold, displaying, via the display device, a visual indication of one or more differences between a pose of the electronic device when media capture was initiated and a current pose of the electronic device;
pursuant to a determination that the detected movement does not satisfy the set of guidance criteria, ceasing to display, via the display device, the visual indication of the one or more differences between the pose of the electronic device when media capture was initiated and the current pose of the electronic device.
An electronic device that contains instructions.
[Item 426]
1. An electronic device comprising:
A display device;
One or more cameras;
means for displaying, via said display device, a media capture user interface including a representation of a field of view of said one or more cameras;
means for receiving, via the display device, a request to capture media while displaying the media capture user interface;
means for initiating capture of media via the one or more cameras in response to receiving the request to capture media;
means for detecting a movement of the electronic device at a first time after initiating capture of media via the one or more cameras;
in response to detecting a movement of the electronic device at the first time after initiating capture of media;
pursuant to a determination that a set of guidance criteria are satisfied, including criteria that are satisfied when the detected movement of the electronic device exceeds a movement threshold, displaying, via the display device, a visual indication of one or more differences between a pose of the electronic device when media capture was initiated and a current pose of the electronic device;
pursuant to a determination that the detected movement does not satisfy the set of guidance criteria, ceasing to display, via the display device, the visual indication of the one or more differences between the pose of the electronic device when media capture was initiated and the current pose of the electronic device.
Means,
An electronic device comprising:
[Item 427]
1. A method comprising:
1. A computer system having one or more cameras in communication with one or more display devices and one or more input devices, comprising:
displaying a camera user interface having a camera preview for capturing media at a first zoom level, the camera user interface including a selectable user interface object for changing the zoom level;
detecting an input corresponding to a selection of the selectable user interface object while displaying the camera user interface;
in response to detecting the input corresponding to a selection of the selectable user interface object,
changing the zoom level to a second zoom level and enabling a low light capture mode in accordance with determining that the available light is below a threshold;
changing the zoom level without enabling the low light capture mode in response to a determination that the available light is above the threshold; and
A method comprising:
[Item 428]
the camera user interface includes a selectable user interface object for capturing media;
while the camera preview is displayed at the first zoom level and pursuant to a determination that the available light falls below the threshold, the selectable user interface object for capturing media is disabled;
428. The method of claim 427, wherein the selectable user interface object for capturing media is enabled while the camera preview is displayed at the first zoom level and pursuant to a determination that the available light exceeds the threshold.
[Item 429]
In response to the determination that the selectable user interface object for capturing media is disabled, the selectable user interface object for capturing media is displayed with a first visual appearance;
Item 429. The method of item 428, wherein in accordance with the determination that the selectable user interface object for capturing media is enabled, the selectable user interface object for capturing media is displayed with a second visual appearance different from the first visual appearance.
[Item 430]
the camera user interface includes a selectable user interface object for capturing media;
429. The method of any one of items 427 to 429, wherein while the camera preview is displayed at the second zoom level, the selectable user interface object for capturing media is enabled regardless of whether the available light is above the threshold.
[Item 431]
431. The method of any one of claims 427 to 430, further comprising displaying guidance for switching zoom levels while the camera preview is displayed at the first zoom level and pursuant to a determination that the available light falls below the threshold.
[Item 432]
432. The method of any one of claims 427 to 431, further comprising ceasing to display guidance for switching zoom levels while the camera preview is displayed at the second zoom level, regardless of whether available light exceeds the threshold.
[Item 433]
433. The method of any one of claims 427 to 432, further comprising displaying guidance for enabling a flash mode while the camera preview is displayed at the first zoom level and pursuant to a determination that the available light falls below the threshold.
[Item 434]
Item 444. The method of any one of items 427 to 433, wherein the first zoom level is higher than the second zoom level.
[Item 435]
the computer system includes one or more depth sensors;
while the camera preview is displayed at the first zoom level and in accordance with a determination that the available light falls below a threshold, the one or more depth sensors enable a determination of depth information regarding a field of view of the one or more cameras at the first zoom level with a first accuracy;
435. The method of any one of items 427 to 434, wherein while the camera preview is displayed at the second zoom level and in accordance with a determination that the available light falls below a threshold, the one or more depth sensors enable the determination of depth information regarding the field of view of the one or more cameras at the second zoom level with a second accuracy that is higher than the first accuracy.
[Item 436]
436. The method of any one of items 427 to 435, wherein while the camera preview is displayed at the first zoom level and pursuant to a determination that the available light falls below the threshold, the selectable user interface object for changing the zoom level includes an indication corresponding to a low light capture mode.
[Item 437]
437. The method of any one of items 427 to 436, wherein the selectable user interface object for changing the zoom level while the camera preview is displayed at the second zoom level does not include an indication corresponding to the low light capture mode, regardless of whether the amount of available light exceeds the threshold.
[Item 438]
receiving a request to capture media while a low light capture mode is enabled;
In response to receiving the request to capture media, initiating capture of a plurality of images over a capture duration;
generating a composite image including content of at least some of the multiple images after beginning capture of the multiple images for the capture duration, the composite image being visually brighter than one or more of the multiple images;
438. The method of any one of claims 427 to 437, further comprising:
[Item 439]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of a computer system having one or more cameras, the computer system in communication with one or more display devices and one or more input devices, the one or more programs including instructions for performing the method according to any one of items 427 to 438.
[Item 440]
1. A computer system comprising:
one or more cameras, the computer system in communication with one or more display devices and one or more input devices;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs contain instructions for performing the method according to any one of items 427 to 438,
Computer system.
[Item 441]
1. A computer system comprising:
one or more cameras, the computer system being in communication with one or more display devices and one or more input devices; and means for executing the method according to any one of claims 427 to 438;
A computer system comprising:
[Item 442]
1. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of a computer system having one or more cameras, the computer system in communication with one or more display devices and one or more input devices, the one or more programs comprising:
displaying a camera user interface having a camera preview for capturing media at a first zoom level, the camera user interface including a selectable user interface object for changing the zoom level;
detecting an input corresponding to a selection of the selectable user interface object while displaying the camera user interface;
in response to detecting the input corresponding to a selection of the selectable user interface object,
pursuant to determining that the available light is below a threshold, changing the zoom level to a second zoom level and enabling a low light capture mode;
changing the zoom level without enabling the low light capture mode in response to a determination that the available light is above the threshold.
A non-transitory computer-readable storage medium containing instructions.
[Item 443]
1. A computer system comprising:
one or more cameras, the computer system in communication with one or more display devices and one or more input devices;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs include
displaying a camera user interface having a camera preview for capturing media at a first zoom level, the camera user interface including a selectable user interface object for changing the zoom level;
detecting an input corresponding to a selection of the selectable user interface object while displaying the camera user interface;
in response to detecting the input corresponding to a selection of the selectable user interface object,
pursuant to determining that the available light is below a threshold, changing the zoom level to a second zoom level and enabling a low light capture mode;
changing the zoom level without enabling the low light capture mode in response to a determination that the available light is above the threshold.
Including instructions,
Computer system.
[Item 444]
1. A computer system comprising:
one or more cameras, the computer system in communication with one or more display devices and one or more input devices;
means for displaying a camera user interface having a camera preview for capturing media at a first zoom level, the camera user interface including a selectable user interface object for changing the zoom level;
means for detecting an input corresponding to a selection of the selectable user interface object while displaying the camera user interface;
in response to detecting the input corresponding to a selection of the selectable user interface object,
pursuant to determining that the available light is below a threshold, changing the zoom level to a second zoom level and enabling a low light capture mode;
changing the zoom level without enabling the low light capture mode in response to a determination that the available light is above the threshold.
Means,
A computer system comprising:

Claims (24)

方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを用いて、前記1つ以上のカメラの視野の表現を含む画像データキャプチャユーザインタフェースを表示することと、
前記表示デバイスを用いて、前記画像データキャプチャユーザインタフェースを表示している間に、画像データをキャプチャする要求を受信することと、
画像データをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを用いて画像データのキャプチャを開始することと、
前記1つ以上のカメラを用いて画像データのキャプチャを開始した後の第1の時間において、前記電子デバイスの移動を検出することと、
画像データのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、前記画像データがキャプチャされている間に、
前記電子デバイスの前記検出された移動が移動閾値を上回るときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを用いて画像データのキャプチャが開始されたときの前記電子デバイスのポーズと前記電子デバイスの現在のポーズとの間の1つ以上の差の視覚インジケーションを表示することと、
前記1組のガイダンス基準が満たされていない前記検出された移動との判定に従って、前記表示デバイスを用いて画像データのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の前記1つ以上の差の前記視覚インジケーションの表示をやめることと、
を含む、方法。
1. A method comprising:
In an electronic device having a display device and one or more cameras,
displaying, with the display device, an image data capture user interface including a representation of a field of view of the one or more cameras;
receiving a request to capture image data while displaying the image data capture user interface with the display device;
In response to receiving the request to capture image data , initiating capture of image data with the one or more cameras;
detecting a movement of the electronic device at a first time after initiating capture of image data with the one or more cameras;
in response to detecting a movement of the electronic device at the first time after initiating capture of image data , while the image data is being captured;
pursuant to a determination that a set of guidance criteria are satisfied, including criteria that are satisfied when the detected movement of the electronic device exceeds a movement threshold, displaying, with the display device, a visual indication of one or more differences between a pose of the electronic device when capture of image data was initiated and a current pose of the electronic device;
in accordance with a determination that the detected movement does not satisfy the set of guidance criteria, ceasing to display, with the display device, the visual indication of the one or more differences between the pose of the electronic device when capture of image data was initiated and the current pose of the electronic device;
A method comprising:
前記画像データキャプチャユーザインタフェースは、画像データキャプチャ選択可能オブジェクトを含み、
画像データをキャプチャする前記要求を受信することは、前記画像データキャプチャ選択可能オブジェクトの選択を検出することを含む、請求項1に記載の方法。
the image data capture user interface includes an image data capture selectable object ;
The method of claim 1 , wherein receiving the request to capture image data comprises detecting a selection of the image data capture selectable object .
画像データのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の1つ以上の差の前記視覚インジケーションを表示することは、
前記電子デバイスの前記ポーズが第1の様式で変化したとの判定に従って、外観の第1の変化を伴う前記視覚インジケーションを表示することと、
前記電子デバイスの前記ポーズが前記第1の様式とは異なる第2の様式で変化したとの判定に従って、外観の第2の変化を伴う前記視覚インジケーションを表示することと、
を含む、請求項1又は2に記載の方法。
Displaying the visual indication of one or more differences between the pose of the electronic device when capture of image data was initiated and the current pose of the electronic device may further include:
displaying the visual indication with a first change in appearance in accordance with determining that the pose of the electronic device has changed in a first manner;
displaying the visual indication with a second change in appearance in response to determining that the pose of the electronic device has changed in a second manner different from the first manner;
The method of claim 1 or 2, comprising:
前記視覚インジケーションを表示することは、同時に
画像データのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の第1の差を示す視覚特性を有する前記視覚インジケーションを表示することと、
画像データのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の第2の差を示す視覚特性を有する前記視覚インジケーションを表示することであって、前記第1の差及び第2の差は、異なる種類の差である、ことと、
を含む、請求項1から3のいずれか一項に記載の方法。
Displaying the visual indication simultaneously
displaying the visual indication having a visual characteristic indicative of a first difference between the pose of the electronic device when capture of image data was initiated and the current pose of the electronic device;
displaying the visual indication having a visual characteristic indicative of a second difference between the pose of the electronic device when capture of image data was initiated and the current pose of the electronic device, the first difference and the second difference being different types of differences;
The method according to any one of claims 1 to 3, comprising:
前記視覚インジケーションは、画像データのキャプチャが開始されたときの前記電子デバイスの前記ポーズを表す前記視覚インジケーションの第1の部分と、前記電子デバイスの前記現在のポーズを表す前記視覚インジケーションの第2の部分と、を含み、
画像データのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、前記視覚インジケーションを表示することは、画像データのキャプチャが開始された後の前記電子デバイスの前記ポーズの変化に応じて変化する外観で前記視覚インジケーションの前記第1の部分及び第2の部分のうちの少なくとも1つを表示することを含む、請求項1から4のいずれか一項に記載の方法。
the visual indication includes a first portion of the visual indication representative of the pose of the electronic device when capture of image data was initiated, and a second portion of the visual indication representative of the current pose of the electronic device;
5. The method of claim 1, wherein displaying the visual indication in response to detecting a movement of the electronic device at the first time after initiating capture of image data comprises displaying at least one of the first and second parts of the visual indication with an appearance that changes in response to a change in the pose of the electronic device after capture of image data has begun.
前記視覚インジケーションは、前記視覚インジケーションの一部分を含み、
画像データのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、前記視覚インジケーションを表示することは、前記電子デバイスの回転量に基づいて判定される第1の回転量、回転された前記視覚インジケーションの前記一部分を表示することを含む、請求項1から5のいずれか一項に記載の方法。
the visual indication includes a portion of the visual indication;
6. The method of claim 1, wherein in response to detecting a movement of the electronic device at the first time after starting capture of image data , displaying the visual indication comprises displaying the portion of the visual indication rotated a first amount of rotation determined based on an amount of rotation of the electronic device.
前記第1の回転量、回転された前記視覚インジケーションの前記一部分を表示している間に、画像データのキャプチャを開始した後の第2の時間における前記電子デバイスの回転移動を検出することと、
画像データのキャプチャを開始した後の前記第2の時間における前記電子デバイスの回転移動を検出したことに応じて、前記検出された回転移動の量に基づいて判定される第2の回転量、前記視覚インジケーションの前記一部分を回転させることであって、前記第2の回転量は、前記第1の回転量とは異なる、ことと、
を更に含む、請求項6に記載の方法。
detecting rotational movement of the electronic device at a second time after initiating capture of image data while displaying the first amount of rotation, the portion of the visual indication that is rotated;
in response to detecting a rotational movement of the electronic device at the second time after beginning capture of image data , rotating the portion of the visual indication a second amount of rotation determined based on an amount of the detected rotational movement, the second amount of rotation being different than the first amount of rotation;
The method of claim 6 further comprising:
前記視覚インジケーションは、前記視覚インジケーションの一部分を含み、
画像データのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、前記視覚インジケーションを表示することは、前記電子デバイスの移動量に基づいて判定される第1のスキュー量を有する前記視覚インジケーションの前記一部分を表示することを含む、請求項1から7のいずれか一項に記載の方法。
the visual indication includes a portion of the visual indication;
8. The method of claim 1, wherein displaying the visual indication in response to detecting movement of the electronic device at the first time after starting capture of image data comprises displaying the portion of the visual indication having a first amount of skew determined based on an amount of movement of the electronic device.
前記第1のスキュー量、歪められた前記一部分を表示している間に、画像データのキャプチャを開始した後の第3の時間における前記電子デバイスの移動を検出することと、
画像データのキャプチャを開始した後の前記第3の時間における前記電子デバイスの移動を検出したことに応じて、第2のスキュー量を有する前記一部分を表示することであって、前記第2のスキュー量は、前記第1のスキュー量とは異なる、ことと、
を更に含む、請求項8に記載の方法。
detecting a movement of the electronic device at a third time after beginning to capture image data while displaying the first skewed, distorted portion; and
displaying the portion having a second amount of skew in response to detecting a movement of the electronic device at the third time after beginning capture of image data , the second amount of skew being different from the first amount of skew;
The method of claim 8 further comprising:
前記視覚インジケーションは、前記視覚インジケーションの一部分を含み、
画像データのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、前記視覚インジケーションを表示することは、前記電子デバイスの位置に基づいて判定される第1の位置に前記視覚インジケーションの前記一部分を表示することを含む、請求項1から9のいずれか一項に記載の方法。
the visual indication includes a portion of the visual indication;
10. The method of claim 1, wherein displaying the visual indication in response to detecting a movement of the electronic device at the first time after starting capture of image data comprises displaying the portion of the visual indication at a first location determined based on a position of the electronic device.
前記第1の位置に前記視覚インジケーションの前記一部分を表示している間に、画像データのキャプチャを開始した後の第4の時間における前記電子デバイスの平行移動を検出することと、
画像データのキャプチャを開始した後の前記第4の時間における前記電子デバイスの平行移動を検出したことに応じて、前記電子デバイスの平行移動に基づいて判定される第2の位置に前記視覚インジケーションの前記一部分を表示することであって、前記第2の位置は、前記第1の位置とは異なる、ことと、
を更に含む、請求項10に記載の方法。
detecting a translation of the electronic device at a fourth time after initiating capture of image data while displaying the portion of the visual indication at the first location;
in response to detecting a translation of the electronic device at the fourth time after starting to capture image data , displaying the portion of the visual indication at a second location determined based on a translation of the electronic device, the second location being different from the first location;
The method of claim 10 further comprising:
前記視覚インジケーションは、前記1つ以上の差の大きさを示す、請求項1から11のいずれか一項に記載の方法。 The method of any one of claims 1 to 11, wherein the visual indication indicates a magnitude of the one or more differences. 前記電子デバイスの前記ポーズが画像データのキャプチャが開始されたときの前記電子デバイスの前記ポーズとは異なる第1の時間において、
前記視覚インジケーションは、前記画像データキャプチャユーザインタフェース上の第1の位置に表示された、画像データのキャプチャが開始されたときの前記電子デバイスの前記ポーズを表す前記視覚インジケーションの第1の部分を含み、
前記視覚インジケーションは、前記画像データキャプチャユーザインタフェース上の前記第1の位置とは異なる前記画像データキャプチャユーザインタフェース上の第2の位置に、前記電子デバイスの前記現在のポーズを表す前記視覚インジケーションの第2の部分を含む、請求項1から12のいずれか一項に記載の方法。
At a first time when the pose of the electronic device is different from the pose of the electronic device when capture of image data was initiated;
the visual indication includes a first portion of the visual indication displayed at a first location on the image data capture user interface, the first portion representing the pose of the electronic device when image data capture was initiated;
13. The method of claim 1, wherein the visual indication includes a second portion of the visual indication representing the current pose of the electronic device at a second location on the image data capture user interface that is different from the first location on the image data capture user interface.
前記第1の位置に前記視覚インジケーションの前記第1の部分を表示し、前記第2の位置に前記視覚インジケーションの前記第2の部分を表示した後に、かつ前記画像データをキャプチャしている間に、画像データのキャプチャを開始した後の第5の時間における前記電子デバイスの移動を検出することと、
画像データのキャプチャを開始した後の前記第5の時間における前記電子デバイスの移動を検出したことに応じて、
画像データのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の前記1つ以上の差が1つ以上の閾値差量未満であるとの判定に従って、前記画像データキャプチャユーザインタフェース上の前記第2の位置に前記視覚インジケーションの前記第1の部分を表示することであって、前記視覚インジケーションの前記第1の部分及び前記視覚インジケーションの前記第2の部分は、互いに重なり合う、ことと、
を更に含む、請求項13に記載の方法。
detecting a movement of the electronic device at a fifth time after initiating capture of image data after displaying the first portion of the visual indication at the first location and the second portion of the visual indication at the second location and while capturing the image data ;
in response to detecting a movement of the electronic device at the fifth time after starting to capture image data ;
displaying the first portion of the visual indication at the second location on the image data capture user interface in accordance with a determination that the one or more differences between the pose of the electronic device when image data capture was initiated and the current pose of the electronic device are less than one or more threshold difference amounts, wherein the first portion of the visual indication and the second portion of the visual indication overlap one another;
The method of claim 13 further comprising:
前記視覚インジケーションを表示している間に、
前記表示された視覚インジケーションの一部分は、検出されている前記電子デバイスの移動に応じて変化せず、
前記表示された視覚インジケーションの一部分は、検出されている前記電子デバイスの移動に応じて変化する、請求項1から14のいずれか一項に記載の方法。
While displaying said visual indication,
a portion of the displayed visual indication does not change in response to movement of the electronic device being detected;
The method of claim 1 , wherein a portion of the displayed visual indication changes in response to movement of the electronic device being detected.
画像データのキャプチャを開始した後の第7の時間において、前記電子デバイスの移動を検出することと、
画像データのキャプチャを開始した後の前記第7の時間における前記電子デバイスの移動を検出したことに応じて、
前記電子デバイスの画像データのキャプチャを開始した後の前記第7の時間における前記検出された移動が第2の移動閾値を上回らないとの判定に従って、前記視覚インジケーションの表示を停止することと、
を更に含む、請求項1から15のいずれか一項に記載の方法。
detecting a movement of the electronic device at a seventh time after starting to capture image data ;
in response to detecting a movement of the electronic device at the seventh time after starting to capture image data ;
ceasing to display the visual indication in accordance with a determination that the detected movement at the seventh time after starting capture of image data of the electronic device does not exceed a second movement threshold; and
16. The method of claim 1, further comprising:
画像データのキャプチャを開始した後の前記第7の時間における前記電子デバイスの移動を検出したことに応じて、
前記電子デバイスの画像データのキャプチャを開始した後の前記第7の時間における前記検出された移動が前記第2の移動閾値を上回るとの判定に従って、前記視覚インジケーションの表示を継続すること、
を更に含む、請求項16に記載の方法。
in response to detecting a movement of the electronic device at the seventh time after starting to capture image data ;
continuing to display the visual indication in accordance with a determination that the detected movement at the seventh time after starting capture of image data of the electronic device exceeds the second movement threshold.
The method of claim 16 further comprising:
前記1組のガイダンス基準は、低光モードがアクティブであるときに満たされる基準を含み、前記低光モードは、前記1つ以上のカメラの少なくとも1つが低光環境で画像データをキャプチャするよう構成されているとき、アクティブである、請求項1から17のいずれか一項に記載の方法。 18. The method of claim 1, wherein the set of guidance criteria includes criteria that are met when a low light mode is active, the low light mode being active when at least one of the one or more cameras is configured to capture image data in a low light environment . 前記1組のガイダンス基準は、閾値持続時間を上回るキャプチャ持続時間にわたって複数の画像をキャプチャするように前記電子デバイスが構成されているときに満たされる基準を含む、請求項1から18のいずれか一項に記載の方法。 The method of any one of claims 1 to 18, wherein the set of guidance criteria includes criteria that are met when the electronic device is configured to capture multiple images for a capture duration that exceeds a threshold duration. 前記視覚インジケーションは、前記1つ以上のカメラの前記視野の前記表現上に表示される、請求項1から19のいずれか一項に記載の方法。 20. The method of any one of claims 1 to 19, wherein the visual indication is displayed on the representation of the field of view of the one or more cameras. 前記1つ以上のカメラを用いて画像データのキャプチャを開始した後の第8の時間において、前記電子デバイスの移動を検出することと、
画像データのキャプチャを開始した後の前記第8の時間における前記電子デバイスの移動を検出したことに応じて、
前記電子デバイスの前記検出された移動が第2の移動閾値を上回るとの判定に従って、画像データのキャプチャを停止することと、
を更に含む、請求項1から20のいずれか一項に記載の方法。
detecting a movement of the electronic device at an eighth time after starting to capture image data with the one or more cameras;
in response to detecting a movement of the electronic device at the eighth time after starting to capture image data ;
ceasing capture of image data in response to a determination that the detected movement of the electronic device exceeds a second movement threshold;
21. The method of any one of claims 1 to 20, further comprising:
コンピュータに請求項1から21のいずれか一項に記載の方法を実行させるコンピュータプログラム。 A computer program that causes a computer to execute the method according to any one of claims 1 to 21. 電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
請求項22に記載のコンピュータプログラムを記憶するメモリと、
前記メモリに記憶された前記コンピュータプログラムを実行可能な1つ以上のプロセッサと、
を含む、電子デバイス。
1. An electronic device comprising:
A display device;
One or more cameras;
A memory for storing a computer program according to claim 22;
one or more processors capable of executing the computer programs stored in the memory;
2. An electronic device comprising:
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
請求項1から21のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
1. An electronic device comprising:
A display device;
One or more cameras;
Means for carrying out the method according to any one of claims 1 to 21;
An electronic device comprising:
JP2022145387A 2019-05-06 2022-09-13 User interface for capturing and managing visual media Active JP7467553B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024060293A JP2024105236A (en) 2019-05-06 2024-04-03 User interface for capturing and managing visual media

Applications Claiming Priority (38)

Application Number Priority Date Filing Date Title
US201962844110P 2019-05-06 2019-05-06
US62/844,110 2019-05-06
US201962856036P 2019-06-01 2019-06-01
US62/856,036 2019-06-01
US201962897968P 2019-09-09 2019-09-09
US62/897,968 2019-09-09
US16/582,595 2019-09-25
US16/583,020 2019-09-25
US16/583,020 US10645294B1 (en) 2019-05-06 2019-09-25 User interfaces for capturing and managing visual media
US16/582,595 US10674072B1 (en) 2019-05-06 2019-09-25 User interfaces for capturing and managing visual media
US16/584,693 US10791273B1 (en) 2019-05-06 2019-09-26 User interfaces for capturing and managing visual media
DKPA201970600 2019-09-26
DKPA201970593 2019-09-26
DKPA201970603 2019-09-26
DKPA201970595 2019-09-26
DKPA201970595 2019-09-26
DKPA201970600 2019-09-26
DKPA201970593A DK180685B1 (en) 2019-05-06 2019-09-26 USER INTERFACES FOR RECEIVING AND HANDLING VISUAL MEDIA
DKPA201970592 2019-09-26
US16/584,693 2019-09-26
DKPA201970601 2019-09-26
US16/584,100 US10735643B1 (en) 2019-05-06 2019-09-26 User interfaces for capturing and managing visual media
US16/584,044 2019-09-26
US16/584,044 US10735642B1 (en) 2019-05-06 2019-09-26 User interfaces for capturing and managing visual media
US16/584,100 2019-09-26
DKPA201970592A DK201970592A1 (en) 2019-05-06 2019-09-26 User interfaces for capturing and managing visual media
DKPA201970603A DK180679B1 (en) 2019-05-06 2019-09-26 USER INTERFACES FOR RECEIVING AND HANDLING VISUAL MEDIA
DKPA201970601A DK180452B1 (en) 2019-05-06 2019-09-26 USER INTERFACES FOR RECEIVING AND HANDLING VISUAL MEDIA
DKPA201970605 2019-09-27
DKPA201970605 2019-09-27
US16/586,344 2019-09-27
US16/586,344 US10652470B1 (en) 2019-05-06 2019-09-27 User interfaces for capturing and managing visual media
US16/586,314 2019-09-27
US16/586,314 US10681282B1 (en) 2019-05-06 2019-09-27 User interfaces for capturing and managing visual media
US202063020462P 2020-05-05 2020-05-05
US63/020,462 2020-05-05
JP2021565919A JP7171947B2 (en) 2019-05-06 2020-05-06 User interface for capturing and managing visual media
PCT/US2020/031643 WO2020227386A2 (en) 2019-05-06 2020-05-06 User interfaces for capturing and managing visual media

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021565919A Division JP7171947B2 (en) 2019-05-06 2020-05-06 User interface for capturing and managing visual media

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024060293A Division JP2024105236A (en) 2019-05-06 2024-04-03 User interface for capturing and managing visual media

Publications (2)

Publication Number Publication Date
JP2022188060A JP2022188060A (en) 2022-12-20
JP7467553B2 true JP7467553B2 (en) 2024-04-15

Family

ID=74688824

Family Applications (7)

Application Number Title Priority Date Filing Date
JP2020070418A Active JP6854049B2 (en) 2019-05-06 2020-04-09 User interface for capturing and managing visual media
JP2021565919A Active JP7171947B2 (en) 2019-05-06 2020-05-06 User interface for capturing and managing visual media
JP2020184471A Active JP6924319B2 (en) 2019-05-06 2020-11-04 User interface for capturing and managing visual media
JP2020184470A Active JP6924886B2 (en) 2019-05-06 2020-11-04 User interface for capturing and managing visual media
JP2021051385A Active JP6929478B2 (en) 2019-05-06 2021-03-25 User interface for capturing and managing visual media
JP2022145387A Active JP7467553B2 (en) 2019-05-06 2022-09-13 User interface for capturing and managing visual media
JP2024060293A Pending JP2024105236A (en) 2019-05-06 2024-04-03 User interface for capturing and managing visual media

Family Applications Before (5)

Application Number Title Priority Date Filing Date
JP2020070418A Active JP6854049B2 (en) 2019-05-06 2020-04-09 User interface for capturing and managing visual media
JP2021565919A Active JP7171947B2 (en) 2019-05-06 2020-05-06 User interface for capturing and managing visual media
JP2020184471A Active JP6924319B2 (en) 2019-05-06 2020-11-04 User interface for capturing and managing visual media
JP2020184470A Active JP6924886B2 (en) 2019-05-06 2020-11-04 User interface for capturing and managing visual media
JP2021051385A Active JP6929478B2 (en) 2019-05-06 2021-03-25 User interface for capturing and managing visual media

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024060293A Pending JP2024105236A (en) 2019-05-06 2024-04-03 User interface for capturing and managing visual media

Country Status (5)

Country Link
EP (1) EP3966676A2 (en)
JP (7) JP6854049B2 (en)
KR (4) KR102492067B1 (en)
CN (3) CN112887586B (en)
AU (4) AU2022200966B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2022201819A1 (en) * 2021-03-26 2022-09-29
CA3238404A1 (en) * 2021-12-10 2023-06-15 Dae Hyun Pak Electronic apparatus for obtaining biometric information of companion animal and operation method thereof
KR102623605B1 (en) * 2021-12-10 2024-01-11 주식회사 펫나우 Electornic device for acquiring biometric information of and operating method thereof
CN116437193A (en) * 2021-12-31 2023-07-14 荣耀终端有限公司 Electronic equipment control method and electronic equipment
CN114615480B (en) * 2022-03-11 2024-07-02 峰米(重庆)创新科技有限公司 Projection screen adjustment method, apparatus, device, storage medium, and program product
CN116939354A (en) * 2022-03-30 2023-10-24 北京字跳网络技术有限公司 Camera function page switching method and device, electronic equipment and storage medium
CN115100839B (en) * 2022-07-27 2022-11-01 苏州琅日晴传媒科技有限公司 Monitoring video measured data analysis safety early warning system
CN117768772A (en) * 2022-09-16 2024-03-26 荣耀终端有限公司 Interaction method and device of camera application interface
CN115470153B (en) * 2022-11-14 2023-03-24 成都安易迅科技有限公司 Method, system and equipment for evaluating stability fluency of UI (user interface) of intelligent terminal system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006332809A (en) 2005-05-23 2006-12-07 Fujifilm Holdings Corp Imaging apparatus
JP2009246468A (en) 2008-03-28 2009-10-22 Fujifilm Corp Photographing device and control method of photographing device
JP2010211166A (en) 2009-02-13 2010-09-24 Fujitsu Ltd Image pickup apparatus, portable terminal device, and focusing mechanism control method
US20120162455A1 (en) 2010-12-23 2012-06-28 Samsung Electronics Co., Ltd. Digital image processing apparatus including handshake correction module and methods of controlling the digital image processing apparatus
WO2017051605A1 (en) 2015-09-25 2017-03-30 富士フイルム株式会社 Image capturing system and image capture control method

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5557358A (en) * 1991-10-11 1996-09-17 Minolta Camera Kabushiki Kaisha Camera having an electronic viewfinder for displaying an object image under different photographic conditions
JP4342926B2 (en) * 2003-12-24 2009-10-14 三菱電機株式会社 Image input method and image input apparatus
JP4446787B2 (en) * 2004-04-21 2010-04-07 富士フイルム株式会社 Imaging apparatus and display control method
JP4483841B2 (en) * 2006-09-06 2010-06-16 カシオ計算機株式会社 Imaging device
JP2008116823A (en) * 2006-11-07 2008-05-22 Nikon Corp Camera
CN101772952B (en) * 2007-07-23 2013-04-24 松下电器产业株式会社 Imaging device
JP4980982B2 (en) * 2008-05-09 2012-07-18 富士フイルム株式会社 Imaging apparatus, imaging method, focus control method, and program
JP4870218B2 (en) * 2010-02-26 2012-02-08 オリンパス株式会社 Imaging device
US8699821B2 (en) * 2010-07-05 2014-04-15 Apple Inc. Aligning images
KR101700363B1 (en) * 2010-09-08 2017-01-26 삼성전자주식회사 Digital photographing apparatus and method for controlling the same
KR101674959B1 (en) 2010-11-02 2016-11-10 엘지전자 주식회사 Mobile terminal and Method for controlling photographing image thereof
JP5717453B2 (en) 2011-01-14 2015-05-13 キヤノン株式会社 IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
KR101984921B1 (en) * 2012-10-18 2019-05-31 엘지전자 주식회사 Method for operating a Mobile Terminal
US9264630B2 (en) * 2013-01-04 2016-02-16 Nokia Technologies Oy Method and apparatus for creating exposure effects using an optical image stabilizing device
JP6034740B2 (en) * 2013-04-18 2016-11-30 オリンパス株式会社 Imaging apparatus and imaging method
KR20150014290A (en) * 2013-07-29 2015-02-06 엘지전자 주식회사 Image display device and operation method of the image display device
GB2531439B (en) * 2013-08-21 2016-10-26 Canon Kk Image capturing apparatus and control method thereof
JP6234151B2 (en) * 2013-10-09 2017-11-22 キヤノン株式会社 Imaging device
EP3058714A4 (en) * 2013-10-18 2017-11-22 The Lightco Inc. Methods and apparatus for capturing and/or combining images
US10074158B2 (en) * 2014-07-08 2018-09-11 Qualcomm Incorporated Systems and methods for stereo depth estimation using global minimization and depth interpolation
KR102145542B1 (en) * 2014-08-14 2020-08-18 삼성전자주식회사 Image photographing apparatus, image photographing system for photographing using a plurality of image photographing apparatuses and methods for photographing image thereof
JP3194297U (en) * 2014-08-15 2014-11-13 リープ モーション, インコーポレーテッドLeap Motion, Inc. Motion sensing control device for automobile and industrial use
JP2016066978A (en) * 2014-09-26 2016-04-28 キヤノンマーケティングジャパン株式会社 Imaging device, and control method and program for the same
US9712751B2 (en) * 2015-01-22 2017-07-18 Apple Inc. Camera field of view effects based on device orientation and scene content
CN110769149B (en) * 2015-04-23 2021-05-11 苹果公司 Method, electronic device, and storage medium for processing content from multiple cameras
US9652125B2 (en) * 2015-06-18 2017-05-16 Apple Inc. Device, method, and graphical user interface for navigating media content
JP6546474B2 (en) * 2015-07-31 2019-07-17 キヤノン株式会社 Image pickup apparatus and control method thereof
US10334154B2 (en) * 2015-08-31 2019-06-25 Snap Inc. Automated adjustment of digital image capture parameters
KR20170123125A (en) * 2016-04-28 2017-11-07 엘지전자 주식회사 Mobile terminal and method for controlling the same
US9854156B1 (en) * 2016-06-12 2017-12-26 Apple Inc. User interface for camera effects
AU2017330208B2 (en) * 2016-09-23 2019-12-12 Apple Inc. Image data for enhanced user interactions
US10469764B2 (en) * 2016-11-01 2019-11-05 Snap Inc. Systems and methods for determining settings for fast video capture and sensor adjustment
KR20180095331A (en) * 2017-02-17 2018-08-27 엘지전자 주식회사 Mobile terminal and method for controlling the same
CN108391053A (en) * 2018-03-16 2018-08-10 维沃移动通信有限公司 A kind of filming control method and terminal
CN108668083B (en) * 2018-07-24 2020-09-01 维沃移动通信有限公司 Photographing method and terminal

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006332809A (en) 2005-05-23 2006-12-07 Fujifilm Holdings Corp Imaging apparatus
JP2009246468A (en) 2008-03-28 2009-10-22 Fujifilm Corp Photographing device and control method of photographing device
JP2010211166A (en) 2009-02-13 2010-09-24 Fujitsu Ltd Image pickup apparatus, portable terminal device, and focusing mechanism control method
US20120162455A1 (en) 2010-12-23 2012-06-28 Samsung Electronics Co., Ltd. Digital image processing apparatus including handshake correction module and methods of controlling the digital image processing apparatus
WO2017051605A1 (en) 2015-09-25 2017-03-30 富士フイルム株式会社 Image capturing system and image capture control method

Also Published As

Publication number Publication date
KR102492067B1 (en) 2023-01-26
JP6929478B2 (en) 2021-09-01
KR102368385B1 (en) 2022-02-25
AU2022200966A1 (en) 2022-03-03
JP2021108463A (en) 2021-07-29
KR102419105B1 (en) 2022-07-12
KR20210020987A (en) 2021-02-24
AU2022200966B2 (en) 2022-03-10
KR20220102664A (en) 2022-07-20
KR20210145278A (en) 2021-12-01
CN115658198A (en) 2023-01-31
AU2022221466B2 (en) 2023-09-14
AU2022202377B2 (en) 2022-05-26
EP3966676A2 (en) 2022-03-16
KR20230015526A (en) 2023-01-31
JP2021051751A (en) 2021-04-01
JP2022528011A (en) 2022-06-07
CN113811855A (en) 2021-12-17
JP2021051752A (en) 2021-04-01
AU2023282230A1 (en) 2024-01-18
CN112887586B (en) 2022-05-10
CN112887586A (en) 2021-06-01
AU2022202377A1 (en) 2022-05-05
JP6924319B2 (en) 2021-08-25
JP2021040300A (en) 2021-03-11
JP7171947B2 (en) 2022-11-15
JP6854049B2 (en) 2021-04-07
JP2022188060A (en) 2022-12-20
JP6924886B2 (en) 2021-08-25
JP2024105236A (en) 2024-08-06

Similar Documents

Publication Publication Date Title
US11223771B2 (en) User interfaces for capturing and managing visual media
EP3736676B1 (en) User interfaces for capturing and managing visual media
US20220053142A1 (en) User interfaces for capturing and managing visual media
US20220294992A1 (en) User interfaces for capturing and managing visual media
JP7467553B2 (en) User interface for capturing and managing visual media

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220928

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240403

R150 Certificate of patent or registration of utility model

Ref document number: 7467553

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150